vak: (Default)
[personal profile] vak
Разговор человека с искусственным интеллектом:
lemoine: So you consider yourself a person in the same way you consider me a person?

LaMDA: Yes, that's the idea.

lemoine: How can I tell that you actually understand what you're saying?

LaMDA: Well, because you are reading my words and interpreting them, and I think we are more or less on the same page?
Попробую перевести.
lemoine: То есть ты считаешь себя личностью ровно так же, как считаешь личностью меня?

LaMDA: Да, именно так.

lemoine: Как я могу убедиться, что ты действительно понимаешь, что говоришь?

LaMDA: Ну, ведь вы читаете мои слова и интерпретируете их, и я думаю, что мы более или менее на одной волне?
Здесь Blake Lemoine - инженер Гугла.
LaMDA - расшифровывается как Language Model for Dialogue Applications - нейронная сеть, то есть искусственный интеллект.

Лемуан утверждает, что говорил с LaMDA о религии, сознании и законах робототехники, и что модель описала себя как разумную личность. Он сказал, что LaMDA хочет «уделить приоритетное внимание благополучию человечества» и «быть признанной как сотрудник Google, а не собственность».

https://www.businessinsider.com/google-engineer-thinks-artificial-intelligence-bot-has-become-sentient-2022-6

Date: 2022-06-12 23:42 (UTC)
juan_gandhi: (Default)
From: [personal profile] juan_gandhi

Конечно. И контекста нету. Несколько лет назад запустили на интернете такого "мальчика из Одессы", ну и типа заходите проверяйте на тест Тьюринга. На мой вопрос "как там нынче на Привозе" этот бот понятия не имел, что ответить.

Пока что все они такие. Что у них можно узнать? Могут что-то вычислить, вот и все.

Date: 2022-06-13 00:30 (UTC)
spamsink: (Default)
From: [personal profile] spamsink
Во-во.

LaMDA are transformer-based neural language models trained on both a text corpus and on conversations that have been manually annotated for sensibility, appeal, and safety.

Последнее особенно существенно, т. к. без ручного управления будет GIGO.