13 июля, 2024

Frant.me

Информационный портал Кузбасса

Бельгийский стартап в области искусственного интеллекта разрабатывает языковую модель, способную обнаруживать разжигание ненависти — ИТ — Новости

Теперь нам нужна модель, которая сможет это определить, потому что четкого определения пока нет.

Это правда, и в то же время мы, люди, прекрасно делаем вид, что это определение действительно существует. В повседневной жизни в судебной системе. Это не идеально, но мы обычно знаем, является ли что-то нежелательным или нет.

Будут ли такие термины, как «белый», «черный» и «иммигранты», также рассматриваться как разжигание ненависти?

Речь идет не только об одном слове, речь также идет о принятии во внимание контекста.

Сможет ли модель справиться с сарказмом?

Да, современные языковые модели прекрасно с этим справляются.
Что ж, не пугайтесь, если они увидят двойной слой сарказма, они очень хорошо распознают собачьи свистки.

Я думаю, что использование одной модели никогда не сработает. Конкурирующие модели для разных платформ были бы лучше.

Полностью согласен, разнообразие важно.

В противном случае одно слово скоро попадет в черный список (это слово сегодня тоже является языком вражды), и вы больше не сможете его где-либо высказывать.

Вам не нужно об этом беспокоиться, современные технологии не зависят ни от одного слова. Старые системы фильтрации работали с фиксированными списками запрещенных слов. Дело в том, что новые системы делают это лучше, потому что они смотрят не столько на слова, которые вы используете, сколько на то, как вы их используете.
Если вы назовете соседскую собаку сукой, в этом нет ничего плохого.

Будет ли модель учитывать еще и жестяную печать письма? Термина, который сейчас считается уничижительным, вероятно, в то время не существовало. В этом случае ретроспективная реализация будет нецелесообразной.

Я думаю, это зависит от того, как вы хотите использовать модель и чего пытаетесь достичь. Если вы не хотите читать определенные вещи, вы не захотите читать их, если они написаны заранее. Если вы хотите знать, что люди думали друг о друге в прошлом, вы также хотите знать, считалось ли что-то ненавистью.

Термина, который сейчас считается уничижительным, вероятно, в то время не существовало.

Если это просто термин, эти фильтры должны хорошо с ним справиться, поскольку они могут смотреть за пределы этого термина и на основное сообщение.

READ  Спустя 30 лет снова можно пить пиво исчезнувшей пивоварни Lamotte: «Вкус не изменился» (Мишлен)

Сложность здесь в том, что нам также нужно спросить, кто считает этот термин оскорбительным/не оскорбительным и каковы последствия. Полвека назад битье детей было социально приемлемо, даже если это были чужие дети. Сегодня мы считаем, что бить детей никогда не будет лучшим решением. Означает ли это, что они никогда раньше не любили своих детей? Нет, конечно нет. Делает ли это приемлемым оправдание насилия тем, что оно было «в прошлом»? Нет, не это.
Мы можем оглянуться назад и сказать, что поведение в тот момент было неправильным, даже если за этим стояли благие намерения.
То же самое касается оскорблений. Тот факт, что сто лет назад некоторые мнения были совершенно нормальными, не делает их невинными. Оглядываясь назад, мы все еще можем прийти к выводу, что некоторые термины или точки зрения были оскорбительными, даже если в то время общество относилось к ним по-другому.