29.08.2024

Сегодня состоялся брифинг начальника Объединенного штаба Организации Договора о коллективной безопасности генерал-полковника Андрея Николаевича Сердюкова по теме «О готовности органов управления и формирований сил и средств системы коллективной ОДКБ к проведению совместных учений».

В режиме видеоконференции в мероприятии приняли участие представители пресс-служб оборонных ведомств и средств массовой информации государств – членов ОДКБ.

16.08.2024

С 12 по 16 августа с.г. на полигоне «Горный» Сибирского округа Росгвардии (Новосибирская обл.) в соответствии с Планом совместной подготовки органов управления и формирований сил и средств системы коллективной безопасности ОДКБ на 2024 г., состоялось специальное учение со спецподразделениями органов внутренних дел, национальной безопасности, внутренних войск (национальной гвардии), специальных и антинаркотических служб, а также аварийно-спасательных и противопожарных структур, входящих в состав формирований сил специального назначения Коллективных сил оперативного реагирования (ФССН КСОР) ОДКБ под условным наименованием «Кобальт-2024».

14.08.2024

14 августа состоялась церемония открытия специального учения со спецподразделениями, входящими в состав формирований сил специального назначения Коллективных сил оперативного реагирования ОДКБ под условным наименованием «Кобальт-2024».

12.08.2024

12 августа 2024 года Генеральный секретарь ОДКБ Имангали Тасмагамбетов принял участие в открытии 10-го Международного военно-технического форума "Армия-2024", прошедшего в Конгрессно-выставочном центре "Патриот", г. Кубинка.

Новые возможности и вызовы безопасности в условиях развития искусственного интеллекта

Новые возможности и вызовы безопасности в условиях развития искусственного интеллекта 26.08.2024

В современном мире развитие технологий, включая искусственный интеллект (ИИ), открывает новые горизонты для общества и экономики. Однако, вместе с этим возникают и новые вызовы безопасности.

В первую очередь под искусственным интеллектом понимается система, созданная на основе машинного обучения. По сути, это комплекс программ, который способен имитировать человеческие навыки.

Если кратко, то машинное обучение похоже на обычное обучение.

Например, ИИ нужно научится отличать человека в камуфляже. В систему загружают тысячи, миллионы видео и фото с людьми в камуфляже и система сама учится искать закономерности. Далее Искусственному интеллекту показывают фото и просят найти на нём человека в камуфляже. С первого раза, она может этого человека не распознать, но с каждым разом делает это все лучше и лучше, потому что учитывает предыдущие шаги и прошлые ошибки.

Эта система была придумана в прошлом веке, но только сейчас у человечества появились технологические мощности, которые позволяют обрабатывать большие объёмы данных.

При этом, программы и алгоритмы ИИ ничего не знают о реальном мире и, в человеческом смысле, не знают о моральном или этическом значении данных, которые они обрабатывают.

ИИ полностью зависит от данных, на которых он был обучен. Соответственно, чем больше данных, тем больше ИИ превосходит человека в решении задач.

Особым успехом и популярностью сегодня пользуются генеративные нейросети.

Генеративный искусственный интеллект (или просто нейросети) — это технология ИИ, предназначенная для создания нового (уникального) контента, например, тексты, изображения, видео или музыка, который может быть неотличим от созданного человеком.

В Интернете сейчас более полутора тысячи нейросетей. Каждая из них специализирована под определённую задачу.

При чём, что речь уже идёт не только о создании текстов или картин нейросетью. Но сейчас нейросеть может создать образ человека (внешность, мимика, манера речи, голос), которого в реальности не существует.

Уже сейчас нейросети справляются со многими задачами лучше и быстрее, чем люди.

В частности, нейросети делают научные открытия:

Например, в прошлом году ИИ выявил 2,2 млн новых неорганических материалов, в 45 раз больше чем вся человеческая наука до появления нейросетей.

Естественно ИИ используют также в военной сфере. Тема того, как ИИ используется в современных военных конфликтах, особенно на Украине и на Ближнем Востоке (те же израильские системы Евангелие и Лавандер) – очень обширна.

Но в целом, наибольшую обеспокоенность вызывает так называемые смертоносные автономные системы.

Автономное оружие в его современном виде – это технология на стыке БПЛА и ИИ. По сути – это БПЛА, которое управляется ИИ (у него нет оператора) и способен искать цели и атаковать их без вмешательства человека.

Впервые использование автономного оружия было зафиксировано в Ливии (в 2020 году). Если кратко, то в докладе говорится, что армия Халифа Хафтара была выслежена и атакована смертоносными автономными системами вооружения. При этом там подчёркивается: система не только сама выследила цель, но и сама приняла решение об её уничтожении.

Но это было в 2020 году, с тех пор разработки пошли вперёд

В настоящее время перспективным направлением автономных средств является обеспечение возможности их группового взаимодействия, то есть создания так называемого «роя дронов» под управлением ИИ.

Ранее для контроля каждого отдельного БПЛА был необходим оператор. Но теперь специалисты объединяют множество дронов в единую сеть, которыми управлял ИИ, а человек лишь отдаёт команды и направлял их действия.

Что создаёт реальную угрозу безопасности, так это, что ИИ-сервисы дают сложные инструменты обычному человеку. Людям больше не нужно быть экспертами по программированию или мастерами видео, художниками чтобы генерировать цифровой продукт. В этом смысле любой может стать создателем, например, политического контента и попытаться повлиять на избирателей или СМИ или создать вредоносное программное обеспечение, не будучи при этом программистом.

Особенно остро стоит проблема дипфейков.

Дипфейк — это метод создания поддельного медиаконтента (аудио, изображения или видео), с помощью алгоритмов ИИ.

В гибридной войне дипфейки стали мощным оружием, которое может быть использовано для дискредитации оппонентов, создания хаоса и нестабильности в обществе, а также для подрыва доверия к СМИ и к лидерам страны. Благодаря своей реалистичности, дипфейки могут быть восприняты как настоящие записи, что делает их особенно опасными в контексте информационной войны.

Гибридная война и использование дипфейков открывают новую эпоху в современной борьбе. Важно осознать принцип работы таких технологий, чтобы обезопасить общество от дезинформации и манипуляции.

Тем не менее общество эволюционирует, и людей всё сложнее обмануть такими фотографиями. Однако видео всё ещё считается достаточно достоверным источником для подтверждения информации. Так как люди думают, что видео подделать, или создать заново в нейросети, сложнее, чем фото.

Это не правда. Сейчас есть нейросети, которые могут создать поддельное реалистичное видео с известными людьми, например, с президентами, с лидерами ядерных держав, и даже сгенерировать тембр их голоса и манеру поведения. Хакеры также потенциально могут взломать сайты госструктур и выложить фейковое видео на официальный ресурс.

Сейчас идёт год выборов по всему миру. И особенно часто эта технология применяется, чтобы создать негативный образ кандидата в глазах общественности или наоборот поднять его имидж.

Технологии ИИ уже оказали существенное влияние на исход парламентских выборов в Индии – самой большой демократии в мире.

С одной стороны ИИ помогал политикам создавать контент для избирателей на всех 22 официальных языках страны и тысячах региональных диалектов.

Но с другой – в ходе предвыборной компании активно распространялась дезинформация, созданная с помощью ИИ.

В итоге партия Моди победила, но получила самый низкий результат за 15 лет.

Специалисты выделяют три стадии развития Искусственного интеллекта:

·       Узкий ИИ – это который есть у нас сейчас

·       Общий ИИ

·       И искусственный сверхинтеллект

Сейчас программы на основе искусственного интеллекта, которые мы используем, — узкоспециализированные. Например, ИИ, предназначенный для игры в шахматы, не может генерировать изображения, диагностировать заболевания или открывать экзапланеты и т.д.

Такой искусственный интеллект может решать отдельные задачи в узких предметных областях под управлением человека.

Несмотря на то, что это только первая стадия, мы уже сейчас не до конца знаем, на что способен ИИ. Иногда он делает действия, которым его не учили, что ставит даже разработчиков этих нейросетей в тупик.

Тем не менее, так называемый «общий искусственный интеллект» — универсальный ИИ, способный выполнять умственную работу на человеческом уровне или даже выше, и сможет решать широкий круг задач, до сих пор не создан.

Ожидается, что следующим этапом развития ИИ станет как раз создание универсальной системы.

Тенденция в развитии нейросетей позволяет прогнозировать, что универсальный интеллект появится, по самым оптимистичным прогнозам, к 2040 году. Это вероятнее всего спровоцирует массовые увольнения и безработицу по всему миру, что естественно создаст новые угрозы безопасности. – Как говорят, искусственному интеллекту не нужно быть идеальным, чтобы заменить человека, ему просто нужно быть немного лучше.

Хотя общего/универсального ИИ пока не существует, специалисты уже придумали название для вида интеллектуальных систем, которые будут на следующем этапе. Супер ИИ (ASI, super AI) сможет выполнять любые интеллектуальные задачи не просто на уровне человека, а во много превосходить его.


Вернуться назад

Возврат к разделу

Все новости