ФОТО: FreepikСемья грибников отравилась из-за руководства, написанного ChatGPT
Британская семья всем составом оказалось в больнице из-за отравления ядовитыми грибами. Но обвинить их в неосторожности сложно — глава семейства руководствовался выпущенным Amazon справочником, в котором, была допущенная масса ошибок.
Графоманство нейросети
Оказалось, что книга, ставшая причиной отравления, была полностью сгенерирована нейросетью ChatGPT. Алгоритм, не обладающий реальными знаниями о микологии, создал текст, изобилующий ошибками и опасными рекомендациями. Среди них особо выделялась совет определять ядовитость грибов по вкусу и запаху — смертельно опасная ошибка, которая может стоить жизни.
Опасные труды
Трагический случай в очередной раз поднял вопрос — насколько можно доверять искусственному интеллекту (ИИ). Ведь книги, созданные нейросетями, часто не проходят тщательную проверку экспертами в соответствующей области. Тексты, сгенерированные ИИ, могут выглядеть убедительно, но при ближайшем рассмотрении обнаруживаются их неестественность и множество ошибок. Читатели же, особенно, как в этом случае, неопытные грибники, склонны доверять информации, представленной в печатном виде, не задумываясь о ее достоверности.
Последствия скандала
После обнародования этой истории крупнейшие онлайн-магазины книг, в том числе и Amazon, начали активно удалять из своих каталогов книги, созданные с помощью нейросетей и содержащие информацию о сборе грибов. Однако проблема по сей день остается актуальной — ведь в последнее время все чаще даже к созданию научных трудов привлекается искусственный интеллект, а значит вероятность опасных ошибок растет.
Источник