andr писал(а):
1) Нельзя замыкаться на классических алгоритмических представлениях, в частности - на классических свойствах алгоритмов...
В частности, уже достаточно давно появились...
Они не поддаются классически критериям - нужны обобщения и новые конкретизации.
Всё правильно.
Только вы описываете трудный путь познания (эмпирика, аналитика). "О, посмотрите, ещё что вылезло! Вроде бы сюда можно отнести... А из этого тоже пользу можно извлечь, тогда в ту же кучу!"
Не пора ли уже начинать с другого конца - то есть системно рассмотреть всю область?
Цитата:
На очереди стоят непрерывные алгоритмы. На это Вы положительно отреагировали, объявили дифференциальные уравнения аналоговыми алгоритмами
Как-то мне казалось, что полемические вопросы легко отличить от законченных формулировок, разве нет?
Цитата:
2) Я по простоте душевной имел в виду, что Вы имели в виду формулы дифференциальных уравнений,
которые в аналоговой аппаратной реализации могут приносить практическую вычислительную пользу
Полемический вопрос был в том,
что если алгоритм является основой для программирования ЦВМ, а дифур - основой для программирования АВМ, то не должно ли быть между дифуром и алгоритмом что-то существенно общее? Этот полемический вопрос, насколько помню, был адресован
ilovb, который, с помощью "первоисточников" ограничил себя первым (частным) случаем, не желая даже задуматься над вторым (потому как не входит в сферу его текущих CS-потребностей).
Цитата:
3) Дальше я обобщил то, что имел в виду, и поставил вопрос:
является ли любая (вычислительная) формула алгоритмом? если:
-- она правильно непосредственно вычисляется человеком (дискретный алгоритм);
-- она правильно вычисляется в аппаратной реализации - аналоговой или цифровой
ИМХО, не является. Просто получение алгоритма (способа) из формулы (модели) в данном случае тривиально вплоть до отсутствия преобразования как такового - то есть делать ничего не надо, берём запись формулы и объявляем её алгоритмом (скармливаем исполнителю без преобразований).
Цитата:
4) Это почему меня интересует?:
а) В области теории автоматического управления (и регулирования):
есть полезные тенденции обобщения понятия алгоритма на непрерывные алгоритмы.
Согласен, что полезные, но явно недостаточные.
Опять же ИМХО, Илья поставил недостающую точку в вопросе своим определением алгоритма как способа преобразования пространства состояний.
Цитата:
б) В области параллельных сумматоров процессоров (и других цифровых вычислителей):
отсутствуют методы и средства алгоритмического описания работы параллельных сумматоров.
Я не понимаю смысла (вернее, целесообразности) вопроса.
То есть ЗАЧЕМ нужно их АЛГОРИТМИЧЕСКОЕ описание?
Вон, Паронджанов тут намедни алгоритмически описывал Исключающее ИЛИ. Зачем?
То есть понятно, что это сделать можно, но зачем путешествовать в соседнюю комнату через Париж?

Это, на мой взгляд, достаточно глубокий (философский даже вопрос).
Смотрите, любая формальная теория базируется на исходной аксиоматике. Где в том числе вводятся базовые понятия, неопределимые в рамках системы.
Математическая логика как таковая - не исключение. Вводя базовые логические функции, мы не описываем их техническую реализацию.
Более того, техническая реализация может быть различной и иметь разные области применения и разные диапазоны условий внешней среды.
Так, при повышении тактовой частоты переходные процессы в электрических цепях становятся существенны, и электронная логика перестаёт адекватно выполнять те логические функции, для которых предназначена. Если же поместить электронное устройство на Солнце, оно вообще ничего выполнять не будет
Поэтому опять повторю: всё зависит от задачи.
Если существенны переходные процессы в цепях электронного устройства, то приводить алгоритмическое описание работы устройства нет ни малейшего смысла.
Второй момент. Многие "классические учёные" любят увлекаться игрой с формализмами в ущерб пониманию смысла.
Неужели вы не видите, что таблица значений той же булевской функции с точки зрения анализа электронного устройства совершенно эквивалентна алгоритмическому её описанию? И что оба они одинаково непригодны для анализа реальных ситуаций с учётом переходных процессов?
Напротив, временные диаграммы чуть более подходят для этой "физики".
И, в то же время, они вообще незаменимы для понимания логики работы сложных устройств и программных систем. Они ЛУЧШЕ, чем алгоритмическое их описание!
Цитата:
является ли (вычислительная) формула (система формул) алгоритмом,
если она реализуется аппаратно?
Тоже очень странный вопрос. Какая разница, как технически реализован исполнитель (жёстко или гибко)?
С информационной точки зрения (в т.ч. когда нас интересует процесс исполнения) это несущественно.
Существенным этот вопрос становится при программировании, но и тогда мы имеем просто разные исполнители, и вопрос принципиально не отличается от "писать ли на Фортране или на Паскале", или "для чего писать - для iPhone или под Android"...
ilovb писал(а):
Кибернетика - имхо сомнительная наука с непонятными результатами и непонятным на сегодня состоянием (вы не согласны?)
Нет. Это бред.
Независимо от нынешнего состояния кибернетики как науки, исторически сложилось так, что она дала основу для громадной и жизненно необходимой в человеческой цивилизации прикладной области - теории автоматического управления.
Если вы не понимаете, что без оной прикладной области вам не на чем будет доехать до работы, некуда включить компьютер (да и самого компьютера не будет), то это ваши глубокие проблемы с адекватным восприятием реальности. И CS в вашем представлении на поверку оказывается неким виртуальным, оторванным от реальности миром. В котором копаться вместе с вами у меня, например, желания нет никакого.
А если вы понимаете только "железные" аргументы, то финансовые средства, которые крутятся в промышленной автоматизации, будут побольше, чем в области каких-нибудь бухгалтерских приложений и даже компьютерных игр.
Цитата:
И ссылаться на нее просто неприлично.
Вот заявите это ребятам, которые в теме. А я запасусь попкорном.
