Ł₳ßℝℂ - Sekta Lab (открывается при помощи VPN)

Регистрация с домена protonmail временно не работает, извините за неудобства.

ИИ лучше распознает ложь

daddydwarf

Support Visa_White
Команда Секти
Ветерана RC Support
Реєстрація
27.03.24
Повідомлення
1 526
Репутація
3 426
Вподобайки
2 966
Бали
1 370
Депозит
1800 $
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!

Работа, которая будет опубликована в журнале Management Science, посвящена изучению способности участников распознавать ложь в популярном британском телешоу «Золотые шары», которое выходило в эфир с 2007 по 2010 год. Во время этого шоу игроки случайно выбирали «золотые шары» либо с крупными денежными суммами, либо со словом «killer». Если игрок с таким шаром проходил в следующий раунд, то сумма выигрыша у всех участников уменьшалась в 10 раз. Общий призовой фонд игры мог достигать 100 тысяч фунтов.

Каждый игрок пытался повысить свой выигрыш в том числе с помощью ложной информации о содержимом своих шаров, которые ему выпали в первых раундах. А другие пытались угадать лжет их соперник или говорит правду, чтобы исключить «killer» и пропустить в новый раунд игроков с крупными суммами, поскольку в последнем раунде, когда игроков оставалось двое, между ними делилась вся сумма.

На основе этого шоу был построен дата-сет и проведено машинное обучение. Авторы работы обнаружили, что участники эксперимента с трудом определяют, когда лгут игроки. Алгоритмы работают гораздо лучше.
«Мы обнаружили, что есть определенные признаки того, что человек говорит правду», — говорит Марта Серра-Гарсия, ведущий автор исследования. «Например, если человек выглядит чуть счастливее, вероятно, он не лжет. Есть и другие визуальные, вербальные, голосовые сигналы, которыми мы, люди, делимся, когда говорим правду. Алгоритмы лучше справляются с выявлением этих признаков».


Если кто-то чуть счастливее, значит, он говорит правду.


Если кто-то чуть счастливее, значит, он говорит правду. Алгоритмы, использованные в исследовании, достигли впечатляющей точности. Они правильно предсказали поведение конкурсантов в 74% случаев, по сравнению с точностью 51%-53%, достигнутой более чем 600 участников эксперимента.

Добрый помощник​

Помимо сравнения способностей машинного обучения и человека по выявлению обмана, в исследовании проверялось, можно ли использовать алгоритмы, чтобы помочь людям лучше различать тех, кто лжет.

Участница игры «Золотые шары».


Участница игры «Золотые шары».

В одном из экспериментов две разные группы участников эксперимента смотрели один и тот же набор эпизодов «Золотых шаров». В одной группе перед просмотром некоторые изображенные на видео участники игры были помечены особым флажком, который поставил алгоритм. Флажок указывал на то, что, по мнению алгоритма, участник, скорее всего, лжет. Другая группа смотрела то же самое видео, и только после просмотра им сообщали, что значат флажки на видео. Участники с высокой вероятностью доверяли пометкам алгоритма и в итоге лучше предсказывали ложь, если получали сообщение о значении флажка до просмотра.

Как бороться с дезинформацией​

Соавтор исследования Ури Гнизи, профессор поведенческой экономики говорит: «Наше исследование показывает, что онлайн-платформы могут повысить эффективность своих систем, давая алгоритмические предупреждения о характере контента. Это может замедлить или даже исключить распространение дезинформации».
Ученые отмечают, что преимущество машинной разметки потенциально ложного контента в ее скорости и простоте. Сегодня некоторые платформы пытаются размечать или пессимизировать заведомо ложный контент, но, как правило, это дорого и долго, поскольку требует участия человека.
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
.
 
Ой😆
Насмешил заголовком.... Ахахах
Даже читать не стану)) ty
 
Если всегда говорить как есть, разницы не будет технически.
Роботы определяют достоверность информации из релевантности источника к общему массиву информации и не будет постоянно проводить анализ.
Имею ввиду, что я могу что-то выдумать и роботы автоматически согласятся, если не будет более релевантного мнения.
То есть, например, можно сформулировать теорию, которая охватит всё объективное, но далеко вперёд за пределы доказательств математически и образовать дыру в научной среде невозможную к рациональному развитию.
Сорри за формулировки...
SoL b.•°​
 
  • Haha
Реакції: Zeno
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!

Работа, которая будет опубликована в журнале Management Science, посвящена изучению способности участников распознавать ложь в популярном британском телешоу «Золотые шары», которое выходило в эфир с 2007 по 2010 год. Во время этого шоу игроки случайно выбирали «золотые шары» либо с крупными денежными суммами, либо со словом «killer». Если игрок с таким шаром проходил в следующий раунд, то сумма выигрыша у всех участников уменьшалась в 10 раз. Общий призовой фонд игры мог достигать 100 тысяч фунтов.

Каждый игрок пытался повысить свой выигрыш в том числе с помощью ложной информации о содержимом своих шаров, которые ему выпали в первых раундах. А другие пытались угадать лжет их соперник или говорит правду, чтобы исключить «killer» и пропустить в новый раунд игроков с крупными суммами, поскольку в последнем раунде, когда игроков оставалось двое, между ними делилась вся сумма.

На основе этого шоу был построен дата-сет и проведено машинное обучение. Авторы работы обнаружили, что участники эксперимента с трудом определяют, когда лгут игроки. Алгоритмы работают гораздо лучше.
«Мы обнаружили, что есть определенные признаки того, что человек говорит правду», — говорит Марта Серра-Гарсия, ведущий автор исследования. «Например, если человек выглядит чуть счастливее, вероятно, он не лжет. Есть и другие визуальные, вербальные, голосовые сигналы, которыми мы, люди, делимся, когда говорим правду. Алгоритмы лучше справляются с выявлением этих признаков».


Если кто-то чуть счастливее, значит, он говорит правду.


Если кто-то чуть счастливее, значит, он говорит правду. Алгоритмы, использованные в исследовании, достигли впечатляющей точности. Они правильно предсказали поведение конкурсантов в 74% случаев, по сравнению с точностью 51%-53%, достигнутой более чем 600 участников эксперимента.

Добрый помощник​

Помимо сравнения способностей машинного обучения и человека по выявлению обмана, в исследовании проверялось, можно ли использовать алгоритмы, чтобы помочь людям лучше различать тех, кто лжет.

Участница игры «Золотые шары».


Участница игры «Золотые шары».

В одном из экспериментов две разные группы участников эксперимента смотрели один и тот же набор эпизодов «Золотых шаров». В одной группе перед просмотром некоторые изображенные на видео участники игры были помечены особым флажком, который поставил алгоритм. Флажок указывал на то, что, по мнению алгоритма, участник, скорее всего, лжет. Другая группа смотрела то же самое видео, и только после просмотра им сообщали, что значат флажки на видео. Участники с высокой вероятностью доверяли пометкам алгоритма и в итоге лучше предсказывали ложь, если получали сообщение о значении флажка до просмотра.

Как бороться с дезинформацией​

Соавтор исследования Ури Гнизи, профессор поведенческой экономики говорит: «Наше исследование показывает, что онлайн-платформы могут повысить эффективность своих систем, давая алгоритмические предупреждения о характере контента. Это может замедлить или даже исключить распространение дезинформации».
Ученые отмечают, что преимущество машинной разметки потенциально ложного контента в ее скорости и простоте. Сегодня некоторые платформы пытаются размечать или пессимизировать заведомо ложный контент, но, как правило, это дорого и долго, поскольку требует участия человека.
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
.
да я пиздабол со стажем
 
Назад
Зверху Знизу