Что нового
  • Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Мужчина был в ужасе от того, что его умершую дочь «воскресили» через нейросеть

Sascha

Заместитель Администратора
Команда форума
Администратор
Регистрация
9 Май 2015
Сообщения
1,071
Баллы
155
Возраст
51
Мужчина был в ужасе от того, что его умершую дочь «воскресили» через нейросеть. В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых. Фото.

В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых


В 21 веке наука стремительно движется вперед, но воскрешать умерших людей ей все еще не под силу. Однако существуют технологии, которые способны создавать иллюзию присутствия ушедших из жизни людей — да, речь снова идет о нейросетях. Однажды на нашем сайте вышла статья про сервис Character AI, который позволяет пользователям общаться с копиями Илона Маска, Юлия Цезаря и других личностей. Недавно появилась новость о том, что один мужчина нашел на этом сайте чат-бота с именем своей умершей дочери, и эта находка сильно его шокировала. Этот случай похож на сюжет фантастического фильма или даже ужастика.


Виртуальная копия умершего человека


Эта жуткая история

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

с того, что неизвестный пользователь платформы Character AI создал чат-бота, который был основан на личности Дженнифер Кресенте — девушки, трагически погибшей почти два десятилетия назад. В 2006 году, когда Дженнифер было всего 18 лет, она была жестоко убита своим бывшим парнем.

Виртуальная копия умершего человека. Дрю и Дженнифер Кресенте. Источник: washingtonpost.com. Фото.

Дрю и Дженнифер Кресенте. Источник: washingtonpost.com


Отец убитой девушки, Дрю Кресенте, наткнулся на чат-бота с лицом своей дочери случайно, получив уведомление от Google. На странице с ботом была размещена школьная фотография Дженнифер и описание, якобы написанное от ее лица. В тексте говорилось, что Дженнифер увлекается видеоиграми, технологиями и поп-культурой, а также работает «журналистом в сфере видеоигр».

Виртуальная копия умершего человека. Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com. Фото.

Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com


Это описание было совершенно не похоже на настоящую Дженнифер. Создатель бота, скорее всего, перепутал девушку с ее дядей, Брайаном Кресенте, который известен как основатель Kotaku — популярного издания о видеоиграх.

Нейросеть для создания чат-ботов в центре скандала


Увидев бота, который умеет претворяться ее дочерью, Дрю Кресенте был глубоко потрясен: без его согласия имя и фотография его дочери были использованы для создания цифровой копии. Даже если учесть, что бот не повторял характер девушки и просто мог поддержать диалог о видеоиграх, такая неожиданная находка была шокирующей для отца.

Нейросеть для создания чат-ботов в центре скандала. Сервис Character AI может выполнять много разных функций. Фото.

Сервис Character AI может выполнять много разных функций


По данным издания

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

, после ужасной трагедии мужчина посвятил свою жизнь борьбе с насилием в подростковых отношениях через фонд, который создал в память о своей дочери. Он был в шоке от того, что нейросеть превратила память о его дочери в коммерческий продукт.

«Мое сердце бешено колотилось», — вспомнил Дрю, говоря о моменте, когда он обнаружил профиль дочери.
Что усугубляло ситуацию, так это то, что на странице не было ни единого намека на то, что этот профиль основан на реальном человеке с трагической судьбой. Пользователи платформы, не зная правды, могли спокойно общаться с «копией» Дженнифер, не подозревая о том, что она стала жертвой преступления.

После того как Дрю Кресенте обратился в Character AI, платформа удалила чат-бота, признав, что его создатель нарушил правила сервиса. Но у остальных пользователей возник вопрос: как предотвратить подобные случаи в будущем?

Нейросеть для создания чат-ботов в центре скандала. Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com. Фото.

Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com


Хотя компания утверждает, что не позволяет создавать ботов на основе реальных людей, ситуация с Дженнифер Кресенте показала, что платформа готова решать такие вопросы только после появления жалоб. В то время как пользователи взаимодействуют с такими чат-ботами, компания продолжает зарабатывать на этом деньги. Если бы отец дочери случайно не наткнулся на бота, профиль мог бы остаться незамеченным, принося доход платформе.

Читайте также:

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.



Очередная трагедия из-за Character AI


Это не единственный скандал, связанный с сервисом Character AI.

По данным

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

, в феврале 2024 года произошла трагедия, которая тоже потрясла многих людей. Тогда подросток из США лишил себя жизни после общения с чат-ботом на платформе Character AI. На протяжении нескольких месяцев он проводил часы, общаясь с ботом по имени Дейенерис Таргариен (персонаж «Игры престолов»), развивая к ней сильную эмоциональную привязанность.

Очередная трагедия из-за Character AI. Подросток из США, который общался с нейросетью. Источник: New York Times. Фото.

Подросток из США, который общался с нейросетью. Источник: New York Times


Его состояние ухудшалось: он стал изолироваться, ухудшилась успеваемость, появились проблемы в школе. Несмотря на попытки родителей помочь через терапию, ситуация продолжала обостряться. В конечном итоге общение с нейросетью привело к трагедии.

Известно, что семья подростка планирует подать иск против Character AI, обвиняя компанию в том, что ее технологии могут вводить пользователей в заблуждение и быть опасными для психики.

Создание копии человека через нейросеть


Некоторые люди, создают свои виртуальные копии будучи живыми. Например, девушка Мишель Хуанг загрузила свои детские дневники в нейросеть и

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

.

Это позволило ей пообщаться с «маленькой Мишель». Разговор с ботом оказался невероятно реалистичным: он отвечал так, как это сделала бы сама Мишель в детстве. Этот опыт стал для нее очень трогательным, словно она отправила сообщение самой себе через временной портал.

Создание копии человека через нейросеть. Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com. Фото.

Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com


Для создания бота Мишель использовала алгоритм GPT-3 (

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

), который генерирует текст на основе загруженной информации. Ей пришлось тщательно отобрать лучшие записи из дневников, чтобы обучить нейросеть, и результат превзошел все ее ожидания. Виртуальная копия смогла поддержать, похвалить и даже помочь преодолеть старые страхи.

Чтобы оставаться в курсе всего, что происходит в области высоких технологий, подпишитесь на наш

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

!

В начале статьи мы отметили, что ранее уже рассказывали про сервис Character AI. Если интересно, читайте наш материал

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

.
 
Вверх