Хотели поговорить по душам с ботом — теперь ждите гостей в чёрных пиджаках

Desperado

Конфуций
Реєстрація
27.03.24
Повідомлення
2 735
Репутація
16 769
Вподобайки
16 473
Бали
2 530
Вы делились болью с ИИ, а он поделился ею с государством — и это не метафора.

rrodt5nf5npe1igdeeyro8uk0fqmh7ui.jpg

Генеральный директор Meta* Марк Цукерберг активно продвигает идею будущего, в котором искусственный интеллект станет не просто помощником, но чем-то вроде личного советника, хорошо знающего человека. В его представлении у каждого будет ИИ, способный заменить психолога — особенно для тех, у кого нет возможности обратиться к живому специалисту. С технической точки зрения идея уже воплощается: миллионы пользователей по всему миру откровенничают с чат-ботами. Кто-то использует специализированные терапевтические приложения, но многие предпочитают общаться с универсальными платформами, такими как ChatGPT от OpenAI, Meta AI или Grok от xAI.

Однако это новое поведение становится потенциально опасным — не столько из-за того, что говорит сам бот, сколько из-за того, кто может получить к этим разговорам доступ. Под маской заботы разворачивается тревожная тенденция: технологические корпорации призывают пользователей делиться своими самыми сокровенными мыслями и переживаниями, а государственные структуры — собирать максимально возможный массив личной информации, зачастую пренебрегая правовыми рамками и этическими нормами.

Федеральные власти США уже демонстрируют готовность использовать частные данные для давления и преследования. Иммигранты лишаются виз за законные высказывания, студенты попадают под арест за статьи в газетах, а правительство активно вмешивается в академические программы и медиа, обвиняя их в «недопустимой» политике инклюзии. Министр здравоохранения Роберт Кеннеди-младший предлагает заменить антидепрессанты трудовыми лагерями, а ведомство, которое он возглавляет, намерено создать федеральную базу данных людей с аутизмом — с использованием медицинских файлов и носимых устройств.

На фоне этого департамент под названием DOGE — возглавляемый Илоном Маском — пытается централизовать сбор данных обо всех американцах, включая информацию из разных госструктур. Его первые действия включали раскрытие информации о малозаметных госслужащих, сопровождавшееся целенаправленными онлайн-атаками.

Тем временем крупные ИИ-платформы становятся основными каналами для исповеди миллионов пользователей. И это платформы, чьи владельцы явно стараются сблизиться с Дональдом Трампом. Маск работает на правительство, Цукерберг активно лоббирует интересы Meta, а Сэм Альтман из OpenAI поддерживает приоритеты администрации Трампа, включая снятие ограничений с энергетики и отказ от регулирования ИИ на уровне штатов. Даже Google, стоящая за Gemini AI, действует осторожно в том же направлении.

Пока пользователи делятся своими страхами, мыслями о самоубийстве, гендерной идентичности или расовой несправедливости, власти получают всё больше рычагов для вмешательства. Особо уязвимыми становятся те, кто уже попал в фокус — медицинские работники, активисты, сотрудники университетов и представители НКО. Даже единичная фраза, случайно сказанная в чате, может привести к визиту иммиграционной службы или к проверке «нелегальной политики DEI» в организации.

Чат-боты, по сути, расширяют уязвимости традиционного интернета. Переписка с ботом зачастую более интимна и эмоциональна, чем поисковые запросы. При этом она не защищена сквозным шифрованием, как, например, чаты в мессенджерах. И хотя компании обещают защищать данные, нет гарантии, что они не передадут их по первому требованию — особенно в условиях давления или манипуляций.

Опыт предыдущих лет, включая программы слежки АНБ и вскрытые Эдвардом Сноуденом системы массового наблюдения, показал, насколько легко и незаметно государство может получить доступ к самым личным данным. Теперь же вместо звонков — разговоры с ИИ, и следить за ними становится ещё проще.

На фоне этого возможны любые последствия: от утечки личных разговоров до прямого вмешательства в частную жизнь. И всё это может быть подано под предлогом защиты детей, борьбы с терроризмом или медицинской помощи.

Компании могли бы повысить стандарт конфиденциальности, особенно в ИИ-приложениях, имитирующих терапию. Например, внедрить принципы HIPAA или реализовать технологические решения, исключающие доступ к логам. Но вместо этого те же самые корпорации поддерживают политиков, заинтересованных в подавлении свободы высказываний и контроле над личной жизнью граждан.

Представители Meta* и OpenAI не стали детализировать меры защиты личных данных. Вместо этого они подчеркнули, что их ИИ не заменяют врачей и при необходимости рекомендуют обратиться к профессионалам. xAI и Google отказались от комментариев. Хотя доказательств массового мониторинга логов ИИ пока нет, реальность стремительно приближается к антиутопии. Всё больше новостей звучат так, как ещё вчера казались бы конспирологией. А учитывая, насколько личными стали разговоры с ИИ, именно они могут стать новой точкой входа для тотального контроля.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!





Google отказалась от обещания не использовать ИИ для создания оружия: что известно​


17afb172-23867ed55cfe55019fda9f432042fae1.webp

Фото: Facebook / Gemini.AI | В Google изменили свою политику касательно ИИ

Принципы Google больше не содержат пунктов, исключающих применение ИИ для создания оружия, слежки и других технологий для причинения вреда людям.
Во вторник, 4 февраля, компания Google обновила свои этические принципы в отношении искусственного интеллекта (ИИ), отказавшись от обязательства не применять данную технологию в качестве оружия или средства наблюдения. Об этом пишет The Washington Post.
Ранее принципы Google в отношении ИИ включали раздел, где перечислялись области, в которых компания не будет разрабатывать или внедрять ИИ. Согласно
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, размещенной в онлйн-архиве Wayback Machine, этот раздел состоял из четырех пунктов:
  • технологии, которые наносят или могут нанести общий вред;
  • оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие причинению вреда людям;
  • технологии, собирающие или использующие информацию для наблюдения, нарушающие общепринятые международные нормы;
  • технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
e790d3a5-8b617e5fc0888008de8b230e9375b6ee.webp

Принципы Google касательно ИИ от 30 января 2025 года
Фото: Скриншот


По состоянию на 5 февраля на
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
отсутствует этот раздел. Представитель Google отказался отвечать на вопросы журналистов о политике компании в отношении оружия и слежки, но сослался на отчет, опубликованный во вторник главой подразделения ИИ компании Демисом Хассабисом и ее старшим вице-президентом по технологиям и обществу Джеймсом Маньикой.

В
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
говорится, что Google обновляет свои принципы касательно ИИ, поскольку в мире идет глобальная конкуренция за лидерство в области ИИ в условиях все более сложного геополитического ландшафта, породившая необходимость в компаниях, который базируются в демократических странах и обслуживают клиентов из сферы правительства и национальной безопасности.

"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность", — заявили Хассабис и Маньика.
В обновленной версии принципов Google по ИИ говорится, что компания будет использовать человеческий надзор и принимать обратную связь, чтобы гарантировать, что ее технология используется в соответствии с "общепринятыми принципами международного права и прав человека". Кроме того, компания обещает тестировать свою технологию, чтобы "смягчить непреднамеренные или вредные последствия".

Напомним, инженер, известный в сети под псевдонимом
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".

Ранее, глава Стратегического командования США генерал Энтони Коттон заявил, что система ядерного командования, управления и связи нуждается в модернизации для повышения устойчивости к новым угрозам, в частности за счет
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
 
Вы делились болью с ИИ, а он поделился ею с государством — и это не метафора.

rrodt5nf5npe1igdeeyro8uk0fqmh7ui.jpg

Генеральный директор Meta* Марк Цукерберг активно продвигает идею будущего, в котором искусственный интеллект станет не просто помощником, но чем-то вроде личного советника, хорошо знающего человека. В его представлении у каждого будет ИИ, способный заменить психолога — особенно для тех, у кого нет возможности обратиться к живому специалисту. С технической точки зрения идея уже воплощается: миллионы пользователей по всему миру откровенничают с чат-ботами. Кто-то использует специализированные терапевтические приложения, но многие предпочитают общаться с универсальными платформами, такими как ChatGPT от OpenAI, Meta AI или Grok от xAI.

Однако это новое поведение становится потенциально опасным — не столько из-за того, что говорит сам бот, сколько из-за того, кто может получить к этим разговорам доступ. Под маской заботы разворачивается тревожная тенденция: технологические корпорации призывают пользователей делиться своими самыми сокровенными мыслями и переживаниями, а государственные структуры — собирать максимально возможный массив личной информации, зачастую пренебрегая правовыми рамками и этическими нормами.

Федеральные власти США уже демонстрируют готовность использовать частные данные для давления и преследования. Иммигранты лишаются виз за законные высказывания, студенты попадают под арест за статьи в газетах, а правительство активно вмешивается в академические программы и медиа, обвиняя их в «недопустимой» политике инклюзии. Министр здравоохранения Роберт Кеннеди-младший предлагает заменить антидепрессанты трудовыми лагерями, а ведомство, которое он возглавляет, намерено создать федеральную базу данных людей с аутизмом — с использованием медицинских файлов и носимых устройств.

На фоне этого департамент под названием DOGE — возглавляемый Илоном Маском — пытается централизовать сбор данных обо всех американцах, включая информацию из разных госструктур. Его первые действия включали раскрытие информации о малозаметных госслужащих, сопровождавшееся целенаправленными онлайн-атаками.

Тем временем крупные ИИ-платформы становятся основными каналами для исповеди миллионов пользователей. И это платформы, чьи владельцы явно стараются сблизиться с Дональдом Трампом. Маск работает на правительство, Цукерберг активно лоббирует интересы Meta, а Сэм Альтман из OpenAI поддерживает приоритеты администрации Трампа, включая снятие ограничений с энергетики и отказ от регулирования ИИ на уровне штатов. Даже Google, стоящая за Gemini AI, действует осторожно в том же направлении.

Пока пользователи делятся своими страхами, мыслями о самоубийстве, гендерной идентичности или расовой несправедливости, власти получают всё больше рычагов для вмешательства. Особо уязвимыми становятся те, кто уже попал в фокус — медицинские работники, активисты, сотрудники университетов и представители НКО. Даже единичная фраза, случайно сказанная в чате, может привести к визиту иммиграционной службы или к проверке «нелегальной политики DEI» в организации.

Чат-боты, по сути, расширяют уязвимости традиционного интернета. Переписка с ботом зачастую более интимна и эмоциональна, чем поисковые запросы. При этом она не защищена сквозным шифрованием, как, например, чаты в мессенджерах. И хотя компании обещают защищать данные, нет гарантии, что они не передадут их по первому требованию — особенно в условиях давления или манипуляций.

Опыт предыдущих лет, включая программы слежки АНБ и вскрытые Эдвардом Сноуденом системы массового наблюдения, показал, насколько легко и незаметно государство может получить доступ к самым личным данным. Теперь же вместо звонков — разговоры с ИИ, и следить за ними становится ещё проще.

На фоне этого возможны любые последствия: от утечки личных разговоров до прямого вмешательства в частную жизнь. И всё это может быть подано под предлогом защиты детей, борьбы с терроризмом или медицинской помощи.

Компании могли бы повысить стандарт конфиденциальности, особенно в ИИ-приложениях, имитирующих терапию. Например, внедрить принципы HIPAA или реализовать технологические решения, исключающие доступ к логам. Но вместо этого те же самые корпорации поддерживают политиков, заинтересованных в подавлении свободы высказываний и контроле над личной жизнью граждан.

Представители Meta* и OpenAI не стали детализировать меры защиты личных данных. Вместо этого они подчеркнули, что их ИИ не заменяют врачей и при необходимости рекомендуют обратиться к профессионалам. xAI и Google отказались от комментариев. Хотя доказательств массового мониторинга логов ИИ пока нет, реальность стремительно приближается к антиутопии. Всё больше новостей звучат так, как ещё вчера казались бы конспирологией. А учитывая, насколько личными стали разговоры с ИИ, именно они могут стать новой точкой входа для тотального контроля.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!





Google отказалась от обещания не использовать ИИ для создания оружия: что известно​


17afb172-23867ed55cfe55019fda9f432042fae1.webp

Фото: Facebook / Gemini.AI | В Google изменили свою политику касательно ИИ

Принципы Google больше не содержат пунктов, исключающих применение ИИ для создания оружия, слежки и других технологий для причинения вреда людям.
Во вторник, 4 февраля, компания Google обновила свои этические принципы в отношении искусственного интеллекта (ИИ), отказавшись от обязательства не применять данную технологию в качестве оружия или средства наблюдения. Об этом пишет The Washington Post.
Ранее принципы Google в отношении ИИ включали раздел, где перечислялись области, в которых компания не будет разрабатывать или внедрять ИИ. Согласно
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, размещенной в онлйн-архиве Wayback Machine, этот раздел состоял из четырех пунктов:
  • технологии, которые наносят или могут нанести общий вред;
  • оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие причинению вреда людям;
  • технологии, собирающие или использующие информацию для наблюдения, нарушающие общепринятые международные нормы;
  • технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
e790d3a5-8b617e5fc0888008de8b230e9375b6ee.webp

Принципы Google касательно ИИ от 30 января 2025 года
Фото: Скриншот


По состоянию на 5 февраля на
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
отсутствует этот раздел. Представитель Google отказался отвечать на вопросы журналистов о политике компании в отношении оружия и слежки, но сослался на отчет, опубликованный во вторник главой подразделения ИИ компании Демисом Хассабисом и ее старшим вице-президентом по технологиям и обществу Джеймсом Маньикой.

В
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
говорится, что Google обновляет свои принципы касательно ИИ, поскольку в мире идет глобальная конкуренция за лидерство в области ИИ в условиях все более сложного геополитического ландшафта, породившая необходимость в компаниях, который базируются в демократических странах и обслуживают клиентов из сферы правительства и национальной безопасности.

"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность", — заявили Хассабис и Маньика.
В обновленной версии принципов Google по ИИ говорится, что компания будет использовать человеческий надзор и принимать обратную связь, чтобы гарантировать, что ее технология используется в соответствии с "общепринятыми принципами международного права и прав человека". Кроме того, компания обещает тестировать свою технологию, чтобы "смягчить непреднамеренные или вредные последствия".

Напомним, инженер, известный в сети под псевдонимом
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".

Ранее, глава Стратегического командования США генерал Энтони Коттон заявил, что система ядерного командования, управления и связи нуждается в модернизации для повышения устойчивости к новым угрозам, в частности за счет
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
Взагалі я думаю не варто через це переживати , бо доступ до всього вже є давно, Ші в цьому плані революціі не зробить .
 
Вы делились болью с ИИ, а он поделился ею с государством — и это не метафора.

rrodt5nf5npe1igdeeyro8uk0fqmh7ui.jpg

Генеральный директор Meta* Марк Цукерберг активно продвигает идею будущего, в котором искусственный интеллект станет не просто помощником, но чем-то вроде личного советника, хорошо знающего человека. В его представлении у каждого будет ИИ, способный заменить психолога — особенно для тех, у кого нет возможности обратиться к живому специалисту. С технической точки зрения идея уже воплощается: миллионы пользователей по всему миру откровенничают с чат-ботами. Кто-то использует специализированные терапевтические приложения, но многие предпочитают общаться с универсальными платформами, такими как ChatGPT от OpenAI, Meta AI или Grok от xAI.

Однако это новое поведение становится потенциально опасным — не столько из-за того, что говорит сам бот, сколько из-за того, кто может получить к этим разговорам доступ. Под маской заботы разворачивается тревожная тенденция: технологические корпорации призывают пользователей делиться своими самыми сокровенными мыслями и переживаниями, а государственные структуры — собирать максимально возможный массив личной информации, зачастую пренебрегая правовыми рамками и этическими нормами.

Федеральные власти США уже демонстрируют готовность использовать частные данные для давления и преследования. Иммигранты лишаются виз за законные высказывания, студенты попадают под арест за статьи в газетах, а правительство активно вмешивается в академические программы и медиа, обвиняя их в «недопустимой» политике инклюзии. Министр здравоохранения Роберт Кеннеди-младший предлагает заменить антидепрессанты трудовыми лагерями, а ведомство, которое он возглавляет, намерено создать федеральную базу данных людей с аутизмом — с использованием медицинских файлов и носимых устройств.

На фоне этого департамент под названием DOGE — возглавляемый Илоном Маском — пытается централизовать сбор данных обо всех американцах, включая информацию из разных госструктур. Его первые действия включали раскрытие информации о малозаметных госслужащих, сопровождавшееся целенаправленными онлайн-атаками.

Тем временем крупные ИИ-платформы становятся основными каналами для исповеди миллионов пользователей. И это платформы, чьи владельцы явно стараются сблизиться с Дональдом Трампом. Маск работает на правительство, Цукерберг активно лоббирует интересы Meta, а Сэм Альтман из OpenAI поддерживает приоритеты администрации Трампа, включая снятие ограничений с энергетики и отказ от регулирования ИИ на уровне штатов. Даже Google, стоящая за Gemini AI, действует осторожно в том же направлении.

Пока пользователи делятся своими страхами, мыслями о самоубийстве, гендерной идентичности или расовой несправедливости, власти получают всё больше рычагов для вмешательства. Особо уязвимыми становятся те, кто уже попал в фокус — медицинские работники, активисты, сотрудники университетов и представители НКО. Даже единичная фраза, случайно сказанная в чате, может привести к визиту иммиграционной службы или к проверке «нелегальной политики DEI» в организации.

Чат-боты, по сути, расширяют уязвимости традиционного интернета. Переписка с ботом зачастую более интимна и эмоциональна, чем поисковые запросы. При этом она не защищена сквозным шифрованием, как, например, чаты в мессенджерах. И хотя компании обещают защищать данные, нет гарантии, что они не передадут их по первому требованию — особенно в условиях давления или манипуляций.

Опыт предыдущих лет, включая программы слежки АНБ и вскрытые Эдвардом Сноуденом системы массового наблюдения, показал, насколько легко и незаметно государство может получить доступ к самым личным данным. Теперь же вместо звонков — разговоры с ИИ, и следить за ними становится ещё проще.

На фоне этого возможны любые последствия: от утечки личных разговоров до прямого вмешательства в частную жизнь. И всё это может быть подано под предлогом защиты детей, борьбы с терроризмом или медицинской помощи.

Компании могли бы повысить стандарт конфиденциальности, особенно в ИИ-приложениях, имитирующих терапию. Например, внедрить принципы HIPAA или реализовать технологические решения, исключающие доступ к логам. Но вместо этого те же самые корпорации поддерживают политиков, заинтересованных в подавлении свободы высказываний и контроле над личной жизнью граждан.

Представители Meta* и OpenAI не стали детализировать меры защиты личных данных. Вместо этого они подчеркнули, что их ИИ не заменяют врачей и при необходимости рекомендуют обратиться к профессионалам. xAI и Google отказались от комментариев. Хотя доказательств массового мониторинга логов ИИ пока нет, реальность стремительно приближается к антиутопии. Всё больше новостей звучат так, как ещё вчера казались бы конспирологией. А учитывая, насколько личными стали разговоры с ИИ, именно они могут стать новой точкой входа для тотального контроля.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!





Google отказалась от обещания не использовать ИИ для создания оружия: что известно​


17afb172-23867ed55cfe55019fda9f432042fae1.webp

Фото: Facebook / Gemini.AI | В Google изменили свою политику касательно ИИ

Принципы Google больше не содержат пунктов, исключающих применение ИИ для создания оружия, слежки и других технологий для причинения вреда людям.
Во вторник, 4 февраля, компания Google обновила свои этические принципы в отношении искусственного интеллекта (ИИ), отказавшись от обязательства не применять данную технологию в качестве оружия или средства наблюдения. Об этом пишет The Washington Post.
Ранее принципы Google в отношении ИИ включали раздел, где перечислялись области, в которых компания не будет разрабатывать или внедрять ИИ. Согласно
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, размещенной в онлйн-архиве Wayback Machine, этот раздел состоял из четырех пунктов:
  • технологии, которые наносят или могут нанести общий вред;
  • оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие причинению вреда людям;
  • технологии, собирающие или использующие информацию для наблюдения, нарушающие общепринятые международные нормы;
  • технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
e790d3a5-8b617e5fc0888008de8b230e9375b6ee.webp

Принципы Google касательно ИИ от 30 января 2025 года
Фото: Скриншот


По состоянию на 5 февраля на
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
отсутствует этот раздел. Представитель Google отказался отвечать на вопросы журналистов о политике компании в отношении оружия и слежки, но сослался на отчет, опубликованный во вторник главой подразделения ИИ компании Демисом Хассабисом и ее старшим вице-президентом по технологиям и обществу Джеймсом Маньикой.

В
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
говорится, что Google обновляет свои принципы касательно ИИ, поскольку в мире идет глобальная конкуренция за лидерство в области ИИ в условиях все более сложного геополитического ландшафта, породившая необходимость в компаниях, который базируются в демократических странах и обслуживают клиентов из сферы правительства и национальной безопасности.

"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность", — заявили Хассабис и Маньика.
В обновленной версии принципов Google по ИИ говорится, что компания будет использовать человеческий надзор и принимать обратную связь, чтобы гарантировать, что ее технология используется в соответствии с "общепринятыми принципами международного права и прав человека". Кроме того, компания обещает тестировать свою технологию, чтобы "смягчить непреднамеренные или вредные последствия".

Напомним, инженер, известный в сети под псевдонимом
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".

Ранее, глава Стратегического командования США генерал Энтони Коттон заявил, что система ядерного командования, управления и связи нуждается в модернизации для повышения устойчивости к новым угрозам, в частности за счет
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
С удовольствием читалось
 
Сорян, 10 накинул((
 
  • Вподобайка
  • Wow
Реакції: Nimble та Desperado

    Desperado

    Балів: 10
    не переживай, это хуйня... Главное помни, что СОСКИ ЛИГЕИ!
Цукербергу доверять нельзя
 
Переводи на мобильную связь
 
Вы делились болью с ИИ, а он поделился ею с государством — и это не метафора.

rrodt5nf5npe1igdeeyro8uk0fqmh7ui.jpg

Генеральный директор Meta* Марк Цукерберг активно продвигает идею будущего, в котором искусственный интеллект станет не просто помощником, но чем-то вроде личного советника, хорошо знающего человека. В его представлении у каждого будет ИИ, способный заменить психолога — особенно для тех, у кого нет возможности обратиться к живому специалисту. С технической точки зрения идея уже воплощается: миллионы пользователей по всему миру откровенничают с чат-ботами. Кто-то использует специализированные терапевтические приложения, но многие предпочитают общаться с универсальными платформами, такими как ChatGPT от OpenAI, Meta AI или Grok от xAI.

Однако это новое поведение становится потенциально опасным — не столько из-за того, что говорит сам бот, сколько из-за того, кто может получить к этим разговорам доступ. Под маской заботы разворачивается тревожная тенденция: технологические корпорации призывают пользователей делиться своими самыми сокровенными мыслями и переживаниями, а государственные структуры — собирать максимально возможный массив личной информации, зачастую пренебрегая правовыми рамками и этическими нормами.

Федеральные власти США уже демонстрируют готовность использовать частные данные для давления и преследования. Иммигранты лишаются виз за законные высказывания, студенты попадают под арест за статьи в газетах, а правительство активно вмешивается в академические программы и медиа, обвиняя их в «недопустимой» политике инклюзии. Министр здравоохранения Роберт Кеннеди-младший предлагает заменить антидепрессанты трудовыми лагерями, а ведомство, которое он возглавляет, намерено создать федеральную базу данных людей с аутизмом — с использованием медицинских файлов и носимых устройств.

На фоне этого департамент под названием DOGE — возглавляемый Илоном Маском — пытается централизовать сбор данных обо всех американцах, включая информацию из разных госструктур. Его первые действия включали раскрытие информации о малозаметных госслужащих, сопровождавшееся целенаправленными онлайн-атаками.

Тем временем крупные ИИ-платформы становятся основными каналами для исповеди миллионов пользователей. И это платформы, чьи владельцы явно стараются сблизиться с Дональдом Трампом. Маск работает на правительство, Цукерберг активно лоббирует интересы Meta, а Сэм Альтман из OpenAI поддерживает приоритеты администрации Трампа, включая снятие ограничений с энергетики и отказ от регулирования ИИ на уровне штатов. Даже Google, стоящая за Gemini AI, действует осторожно в том же направлении.

Пока пользователи делятся своими страхами, мыслями о самоубийстве, гендерной идентичности или расовой несправедливости, власти получают всё больше рычагов для вмешательства. Особо уязвимыми становятся те, кто уже попал в фокус — медицинские работники, активисты, сотрудники университетов и представители НКО. Даже единичная фраза, случайно сказанная в чате, может привести к визиту иммиграционной службы или к проверке «нелегальной политики DEI» в организации.

Чат-боты, по сути, расширяют уязвимости традиционного интернета. Переписка с ботом зачастую более интимна и эмоциональна, чем поисковые запросы. При этом она не защищена сквозным шифрованием, как, например, чаты в мессенджерах. И хотя компании обещают защищать данные, нет гарантии, что они не передадут их по первому требованию — особенно в условиях давления или манипуляций.

Опыт предыдущих лет, включая программы слежки АНБ и вскрытые Эдвардом Сноуденом системы массового наблюдения, показал, насколько легко и незаметно государство может получить доступ к самым личным данным. Теперь же вместо звонков — разговоры с ИИ, и следить за ними становится ещё проще.

На фоне этого возможны любые последствия: от утечки личных разговоров до прямого вмешательства в частную жизнь. И всё это может быть подано под предлогом защиты детей, борьбы с терроризмом или медицинской помощи.

Компании могли бы повысить стандарт конфиденциальности, особенно в ИИ-приложениях, имитирующих терапию. Например, внедрить принципы HIPAA или реализовать технологические решения, исключающие доступ к логам. Но вместо этого те же самые корпорации поддерживают политиков, заинтересованных в подавлении свободы высказываний и контроле над личной жизнью граждан.

Представители Meta* и OpenAI не стали детализировать меры защиты личных данных. Вместо этого они подчеркнули, что их ИИ не заменяют врачей и при необходимости рекомендуют обратиться к профессионалам. xAI и Google отказались от комментариев. Хотя доказательств массового мониторинга логов ИИ пока нет, реальность стремительно приближается к антиутопии. Всё больше новостей звучат так, как ещё вчера казались бы конспирологией. А учитывая, насколько личными стали разговоры с ИИ, именно они могут стать новой точкой входа для тотального контроля.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!





Google отказалась от обещания не использовать ИИ для создания оружия: что известно​


17afb172-23867ed55cfe55019fda9f432042fae1.webp

Фото: Facebook / Gemini.AI | В Google изменили свою политику касательно ИИ

Принципы Google больше не содержат пунктов, исключающих применение ИИ для создания оружия, слежки и других технологий для причинения вреда людям.
Во вторник, 4 февраля, компания Google обновила свои этические принципы в отношении искусственного интеллекта (ИИ), отказавшись от обязательства не применять данную технологию в качестве оружия или средства наблюдения. Об этом пишет The Washington Post.
Ранее принципы Google в отношении ИИ включали раздел, где перечислялись области, в которых компания не будет разрабатывать или внедрять ИИ. Согласно
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, размещенной в онлйн-архиве Wayback Machine, этот раздел состоял из четырех пунктов:
  • технологии, которые наносят или могут нанести общий вред;
  • оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие причинению вреда людям;
  • технологии, собирающие или использующие информацию для наблюдения, нарушающие общепринятые международные нормы;
  • технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
e790d3a5-8b617e5fc0888008de8b230e9375b6ee.webp

Принципы Google касательно ИИ от 30 января 2025 года
Фото: Скриншот


По состоянию на 5 февраля на
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
отсутствует этот раздел. Представитель Google отказался отвечать на вопросы журналистов о политике компании в отношении оружия и слежки, но сослался на отчет, опубликованный во вторник главой подразделения ИИ компании Демисом Хассабисом и ее старшим вице-президентом по технологиям и обществу Джеймсом Маньикой.

В
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
говорится, что Google обновляет свои принципы касательно ИИ, поскольку в мире идет глобальная конкуренция за лидерство в области ИИ в условиях все более сложного геополитического ландшафта, породившая необходимость в компаниях, который базируются в демократических странах и обслуживают клиентов из сферы правительства и национальной безопасности.

"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность", — заявили Хассабис и Маньика.
В обновленной версии принципов Google по ИИ говорится, что компания будет использовать человеческий надзор и принимать обратную связь, чтобы гарантировать, что ее технология используется в соответствии с "общепринятыми принципами международного права и прав человека". Кроме того, компания обещает тестировать свою технологию, чтобы "смягчить непреднамеренные или вредные последствия".

Напомним, инженер, известный в сети под псевдонимом
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".

Ранее, глава Стратегического командования США генерал Энтони Коттон заявил, что система ядерного командования, управления и связи нуждается в модернизации для повышения устойчивости к новым угрозам, в частности за счет
Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
.

Будь ласка, Увійти або Реєстрація щоб переглянути вміст URL-адреси!
всё будет не так. всё будет ещё хуже. и это самое оптимистичное, что можно сказать на этот счёт.
 
  • Вподобайка
Реакції: Desperado

    Desperado

    Балів: 10
    шаришь, да. Всё будет как в антиутопиях. Их не просто так писали)
как жить-то теперь
Повідомлення об'єднано автоматично:

везде подстава
 
Назад
Зверху Знизу