Как исследователь с опытом работы в области технологий и этики, я считаю, что Закон COPIED является важным шагом вперед в решении растущей проблемы дипфейков, создаваемых ИИ. Возможность создавать убедительный фейковый контент с помощью ИИ вызывает серьезные этические проблемы, особенно в отношении согласия и искажения фактов.
Законопроект, предложенный группой законодателей Сената от обеих политических партий, направлен на решение проблемы дипфейков, создаваемых искусственным интеллектом, путем требования, чтобы такой контент был помечен отличительными водяными знаками.
Законодательное предложение, выдвинутое сенаторами Марией Кэнтуэлл (демократ от штата Вашингтон), Маршей Блэкберн (республиканец от штата Теннесси) и Мартином Генрихом (демократ от штата Нью-Мексико), выступает за единый подход к нанесению водяных знаков на контент, созданный в цифровой форме, с использованием искусственного интеллекта.
Закон о защите происхождения контента и целостности от отредактированных и глубоко подделанных медиа, или сокращенно COPIED, направлен на усиление прав создателей и введение правил в отношении видов контента, используемого для обучения искусственного интеллекта (ИИ).
По мнению Кантвелла, предлагаемый закон призван внести «существенную ясность» в отношении контента, создаваемого ИИ, позволяя «таким авторам, как местные журналисты, художники и музыканты», восстановить контроль над своей работой.
Если закон будет одобрен, создатели ИИ-контента, такие как OpenAI, будут обязаны включать информацию об источнике сгенерированного материала в свои услуги. Это требование должно быть представлено в формате, который будет легко понятен машинам, что сделает его устойчивым к манипуляциям или удалению с помощью передовых методов искусственного интеллекта.
За соблюдением закона COPIED будет следить Федеральная торговая комиссия (FTC). Федеральная торговая комиссия будет классифицировать нарушения как эквивалентные недобросовестной или вводящей в заблуждение практике в соответствии со своей существующей компетенцией в соответствии с Законом о Федеральной торговой комиссии.
Как аналитик данных, я заметил, что с появлением искусственного интеллекта (ИИ) начались интенсивные дискуссии об этических последствиях этой технологии. В частности, обеспокоенность вызывает его способность собирать огромные объемы информации из Интернета.
Как аналитик, я заметил, что решение Microsoft не обеспечивать себе места в совете директоров OpenAI вызвало некоторую обеспокоенность. Этот шаг предполагает потенциальный сдвиг в их стратегическом сотрудничестве или партнерстве с исследовательской лабораторией искусственного интеллекта.
Как исследователь, изучающий влияние искусственного интеллекта (ИИ) на общество, я столкнулся с тревожным событием: злоумышленники теперь имеют возможность создавать дипфейки любого человека, даже тех, кто работает в творческих областях, без его согласия. Эти дипфейки могут быть использованы для получения прибыли от контрафактного контента, подрывающего репутацию и причиняющего вред.
Как аналитик, я заметил тревожную корреляцию между принятием предлагаемого законопроекта и ошеломляющим увеличением на 245% случаев мошенничества и мошенничества, связанных с дипфейками. Согласно последнему отчету Bitget, к 2025 году эти мошеннические схемы принесут финансовые потери на сумму около 10 миллиардов долларов.
В динамичном мире криптовалют я столкнулся с тревожной проблемой. Мошенники используют передовые технологии искусственного интеллекта (ИИ), чтобы имитировать личности таких влиятельных фигур, как Илон Маск и Виталик Бутерин. Их цель — обмануть ничего не подозревающих пользователей, рассылая мошеннические сообщения или ссылки, часто требуя инвестиций в несуществующие проекты или криптовалюты. Всегда перепроверяйте любые сообщения, предположительно исходящие от этих лиц, особенно если они связаны с финансовыми операциями. Будьте бдительны и защищайте свои криптоактивы.
В июне 2024 года пользователь криптобиржи OKX понес значительные убытки, превышающие 2 миллиона долларов, в результате того, что злоумышленники воспользовались безопасностью платформы с помощью дипфейковых видеороликов, обманчиво изображающих жертву. До этого инцидента власти Гонконга в мае 2024 года приняли меры против мошеннической схемы, которая манипулировала имиджем Илона Маска с целью ввести в заблуждение потенциальных инвесторов.
Как исследователь, изучающий технологические тенденции, я столкнулся с критикой со стороны Майкла Маркотта, основателя Национального центра кибербезопасности (NCC), в адрес Google за недостаточные меры защиты от дипфейков, специально нацеленных на криптовалюты.
Смотрите также
- Аудитор блокчейна Hacken запускает инструмент соответствия MiCA на базе искусственного интеллекта для криптофирм
- Будущее Neiro: прогнозы цены на криптовалюту NEIRO
- Будущее Algorand: прогнозы цены на криптовалюту ALGO
- Какая криптовалюта взорвется в 2025 году? Лучшие монеты готовы к огромному росту
- Будущее Pepe: прогнозы цены на криптовалюту PEPE
- Будущее Dogecoin: прогнозы цены на криптовалюту DOGE
- HAPPY/USD
- Мемкоин Solana Catwifhat бросает вызов рыночным тенденциям, поднявшись на 40%
- Будущее Memecoin: прогнозы цены на криптовалюту MEME
- Акции MVID. М.видео: прогноз акций.
2024-07-12 12:12