Страницы (40): « Предыдущая 1 ... 26 27 28 ... 40 Следующая » Переход на страницу  +
261
2018.06.19бкрс Как я и сказал, тут какой-то пробел, если вы считаете смысл чем-то больше, чем набор логических операций.
Мозг человека это лишь сложный компьютер со сложным софтом. Там нет ничего магического, всё те же нули и единички, только в материи, а не в железе.

https://arxiv.org/abs/1609.08144
Лень вникать, может и не понимание, но точно не "стилистика".

Ничосе сравнение, компьютер - вычислительная техника (нулик и единичка), а мозг вообще не для этого нужен. Матрицу насмотрелись что ли, фантазер, давайте щас про сознание поговорим, что это софт всего лишь. А традиционная логика описала форму мысли еще аж в древней Греции, только вот ниче это не дало. В общем, сравнивать мозг человека с компьютером - ересь, ну, может только если отчасти.
2018.06.19
Ответить
262
2018.06.19бкрс https://arxiv.org/abs/1609.08144
Лень вникать, может и не понимание, но точно не "стилистика".

А Вы лучше вникнете. Ключевая фраза: "Using a human side-by-side evaluation on a set of isolated simple sentences, it reduces translation errors by an average of 60% compared to Google's phrase-based production system".
2018.06.19
Ответить
263
2018.06.19CyrillKa Ничосе сравнение, компьютер - вычислительная техника (нулик и единичка), а мозг вообще не для этого нужен. Матрицу насмотрелись что ли, фантазер, давайте щас про сознание поговорим, что это софт всего лишь. А традиционная логика описала форму мысли еще аж в древней Греции, только вот ниче это не дало. В общем, сравнивать мозг человека с компьютером - ересь, ну, может только если отчасти.

Видимо, что-то техническое.

На хабре, мекке техногиков, полно статей о структуре сознания, более чем достаточно для ликбеза по поводу "нулей и единичек в голове".
2018.06.19
Ответить
264
2018.06.19бкрс У вас тут какой-то пробел, раз считаете "понимание" невозможным, как будто это магия. Возможно, что-то гуманитарное.
Это обычная логика (или вы серьёзно думаете, что это магия?), машины идеальны в логике. Даже я могу с ходу накидать пару вариантов как это реализовать. Проблема в наполнении, именно поэтому заходят речи о искусственном интеллекте, чтобы он сам себя наполнял.
Вот тут я почти полностью согласна с бкрс. Машины смогут переводить текст, составленный логично и в соответствии с правилами языка и здравого смысла. Именно обладая огромным набором вариантов перевода и путем их перебора. Но пока люди не научатся логично писать (а они не научатся, всех не переучишь как дебилов не отстреливай, они плодятся быстрее), и пока у них не появится четкая логика, как надо написать, чтобы это можно было перевести, у переводчиков будет еще куча работы. Сейчас (да и раньше, думаю) мало кто думает о переводчике, которому всю эту чухню придется переводить, не думаю, что в будущем это изменится.
秀才不出门全知天下事
2018.06.19
Ответить
265
2018.06.19CyrillKa Ничосе сравнение, компьютер - вычислительная техника (нулик и единичка), а мозг вообще не для этого нужен. Матрицу насмотрелись что ли, фантазер, давайте щас про сознание поговорим, что это софт всего лишь. А традиционная логика описала форму мысли еще аж в древней Греции, только вот ниче это не дало. В общем, сравнивать мозг человека с компьютером - ересь, ну, может только если отчасти.
Доказывать, что земля круглая я точно не буду. Это уж как-нибудь сами, сейчас всё доступно.
2018.06.19
Ответить
266
Siweida, работа с ошибками любого рода гораздо проще, чем кажется, по крайне мере по сравнению с глобальной задачей "понять смысл". Вы перебираете из готовых вариантов, выбираете наиболее близкие.

Тоже самое, что и с поиском орфографических ошибок.
2018.06.19
Ответить
267
2018.06.19бкрс Доказывать, что земля круглая я точно не буду. Это уж как-нибудь сами, сейчас всё доступно.

Вот ваша статья перечеркивает все комментарии пользователей за, и доказывает совершенно обратное.

Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation

Neural Machine Translation (NMT) is an end-to-end learning approach for automated translation, with the potential to overcome many of the weaknesses of conventional phrase-based translation systems. Unfortunately, NMT systems are known to be computationally expensive both in training and in translation inference. Also, most NMT systems have difficulty with rare words. These issues have hindered NMT's use in practical deployments and services, where both accuracy and speed are essential. In this work, we present GNMT, Google's Neural Machine Translation system, which attempts to address many of these issues. Our model consists of a deep LSTM network with 8 encoder and 8 decoder layers using attention and residual connections. To improve parallelism and therefore decrease training time, our attention mechanism connects the bottom layer of the decoder to the top layer of the encoder. To accelerate the final translation speed, we employ low-precision arithmetic during inference computations. To improve handling of rare words, we divide words into a limited set of common sub-word units ("wordpieces") for both input and output. This method provides a good balance between the flexibility of "character"-delimited models and the efficiency of "word"-delimited models, naturally handles translation of rare words, and ultimately improves the overall accuracy of the system. Our beam search technique employs a length-normalization procedure and uses a coverage penalty, which encourages generation of an output sentence that is most likely to cover all the words in the source sentence. On the WMT'14 English-to-French and English-to-German benchmarks, GNMT achieves competitive results to state-of-the-art. Using a human side-by-side evaluation on a set of isolated simple sentences, it reduces translation errors by an average of 60% compared to Google's phrase-based production system.
2018.06.19
Ответить
268
CyrillKa, вы это читали? Там говорится о конкретном методе. К чему это вообще?


Повторю, у вас совершенно несвязанные сообщения отвлекающие от фактов - машины сейчас переводят приемлемо для многих сфер и используются для решения практических задач.
2018.06.19
Ответить
269
2018.06.19бкрс Siweida, работа с ошибками любого рода гораздо проще, чем кажется, по крайне мере по сравнению с глобальной задачей "понять смысл". Вы перебираете из готовых вариантов, выбираете наиболее близкие.

Тоже самое, что и с поиском орфографических ошибок.

По сути да, если в базе достаточное количество вариантов и она постоянно обновляется, тогда да, нет ничего невозможного. Остается только один вопрос -- кто вложит достаточно денег и человекосил, чтобы колупаться с каждым языком, включая редкие. Так что главная проблема теперь -- достаточное количество времени, денег и специалистов.
2018.06.19
Ответить
270
2018.06.19бкрс CyrillKa, вы это читали? Там говорится о конкретном методе. К чему это вообще?


Повторю, у вас совершенно несвязанные сообщения отвлекающие от фактов - машины сейчас переводят приемлемо для многих сфер и используются для решения практических задач.

Там говорится о нейросетях, о том что на смену phrase-based translation systems приходит перевод синтагмами (common sub-word units ("wordpieces"). А в конце говорится, что совместно с человеческими усилиями качество перевода от гугла можно улучшить на 60%.
В итоге, что мы имеем: разработчики гугл переводчика вполне не скрывают, что уровень перевода гугла - гавно и даже 60%, это не 100, где еще 40. К тому же, разработчики сами же указывают, что для достижения даже такого уровня необходима помощь человека. Так что, Вы переоцениваете, как и многие здесь просто переоценили возможности гугла и подобных машинных переводчиков.
2018.06.19
Ответить
Страницы (40): « Предыдущая 1 ... 26 27 28 ... 40 Следующая » Переход на страницу  +