东方火兔, дело в том, что никакая машина, работающая по заранее составленным человеком алгоритмам, не сможет справиться с задачей анализа окружающей среды лучше самого человека. Дело вовсе не в вычислительных мощностях и объёмах памяти, а в том, что такие задачи принципиально не сможет выполнить то, что не наделено интеллектом. Да, сейчас существуют, например, системы, умеющие определять эмоции человека по выражению лица или роботы, которые могут объехать препятствие. Но во-первых, даже эти функции, на которые они изначально заточены создателями, они исполняют намного хуже любого человека, также они намного менее надёжны по сравнению с ним. Во-вторых, так как они не имеют интеллекта и следовательно не могут самообучаться, то ничем иным, кроме как возложенных на них создателями функциями, они заниматься не могут.
И тут перед нам встаёт проблема, которую я описал ещё в своём первом посте на этом форуме, по-моему ещё в той теме, ссылку на которую вы дали ранее. Если коротко, то чем больше функций мы пытаемся впихнуть в машину, то тем дороже и менее надёжной она становится, тем менее выиграшна она смотрится по сравнению с человеком.
По поводу ваших мыслей о том, как работает интеллект человека, я ничего ответить не смогу. Пока что все "научные" работы на эту тему того, что же это вообще такое, носят чисто болтологический характер - то есть сидят какие-то "умные" дяди в толстых очках и говорят, что человеческий разум им представляется так-то, другие с ними не соглашаются, в процессе тихо попиливаются выделяемые "на развития искуственного интеллекта" бабки, реального результата до сих пор не видно.
2017.05.14evkon Насколько быстр компьютер? Опять же за счёт удалённых вычислений — сколько угодно быстр.
Тогда, на заре компьютерной эры (конец 40-ых, начало 50-ых годов) ученые были уверены, что компьютеры относительно быстро смогут приблизиться к человеческому мозгу по своим параметрам, а потому и Винер, и фон Нейман и Росс Эшби постоянно сравнивали элементарные логические элементы с нейроном головного мозга. Это, в принципе, было правильно, за исключением одного маленького «но». Дело в том, что компьютеры первых поколений были всего лишь последовательными процессорами и в каждый данный момент осуществляли только одну операцию, обработка данных носила линейный характер, хотя и шла с невероятно большой скоростью. Но мы то знаем, что скорость не бывает сколь угодно большой и сам принцип линейных операций накладывал ограничение на скорость работы машины, так как сигналы из одной части в другую не могут передаваться быстрее, чем со скоростью света. Этот предел получил название ограничения фон Неймана. Когда в 80-ых годах новые поколения больших машин приблизились к этому пределу, разработчики компьютерных моделей вдруг поняли, что до мозга им еще ой как далеко, ибо он работает совсем иначе. Он производит множество операций одновременно, причем в осуществлении какой-то одной функции участвуют разные части нейронной сети, а каждая отдельная клетка может выполнять разные функции. Причем, что было очень важно в плане понимания надежности его функционирования, нейроны могут заменять друг друга в выполнении различных функций!
http://www.budyon.org/dzhon-fon-neyman-veroyatnost...ih-komponentov/
Зако́н Амдала (англ. Amdahl's law, иногда также Закон Амдаля-Уэра) — иллюстрирует ограничение роста производительности вычислительной системы с увеличением количества вычислителей. Джин Амдал сформулировал закон в 1967 году, обнаружив простое по существу, но непреодолимое по содержанию ограничение на рост производительности при распараллеливании вычислений: «В случае, когда задача разделяется на несколько частей, суммарное время её выполнения на параллельной системе не может быть меньше времени выполнения самого длинного фрагмента». Согласно этому закону, ускорение выполнения программы за счёт распараллеливания её инструкций на множестве вычислителей ограничено временем, необходимым для выполнения её последовательных инструкций.
https://ru.wikipedia.org/wiki/Закон_Амдала
bacr, согласен с вами.