19 сентября, 2024

Frant.me

Информационный портал Кузбасса

Россия, Китай и Израиль использовали инструменты OpenAI для распространения дезинформации: так вы распознаете ложные сообщения

Россия, Китай и Израиль использовали инструменты OpenAI для распространения дезинформации: так вы распознаете ложные сообщения

Однако OpenAI предупреждает, что развитие генеративного искусственного интеллекта сделало распространителей дезинформации более продуктивными. Например, чат-боты позволяют им создавать и переводить больше текста с меньшим количеством лингвистических ошибок, чем когда люди создают их вручную.

Есть большая вероятность, что вы сами уже подверглись дезинформации. Не всегда ясно, когда это происходит. Существует ряд стратегий, которые вы можете использовать, чтобы определить, реальны ли вещи, которые вы видите в Интернете, или нет.

«Одна из часто используемых стратегий — это заголовки-кликбейты. Эти заголовки не объясняют напрямую, что заставило вас нажать на них, например: «Вы никогда не поверите тому, что сказал этот политик». Цель этих заголовков — не информировать вас. , но, например, чтобы перенаправить вас на веб-сайт «Определенный», — говорит де Фогт.

Другой пример — заголовки, в которых используется провокационный язык. «Подобный язык никогда не используется в хорошей журналистике и служит только для того, чтобы вас в чем-то убедить».

По мнению Де Фогта, следует также быть осторожными, имея дело с односторонними отчетами, в которых не всем сторонам разрешено высказываться. Кроме того, это помогает определить, кто является автором сообщения. Наконец, полезно проверить, было ли сообщение освещено в различных средствах массовой информации.

READ  Элайджа использует дома, чтобы «сбалансировать» энергосистему с короткими отключениями | Эконом