Несколько лет назад дипфейки практически не появлялись в новостях. Сегодня ситуация кардинально изменилась. С развитием генеративного искусства цифровые реплики создаются и злоупотребляются на невероятном масштабе, чтобы нацелиться на людей из всех сфер жизни, включая высокопоставленных знаменитостей, таких как Тейлор Свифт и Гэл Гадот, и политиков, таких как Джо Байден. Им приписывают действия или высказывания, которые они никогда бы не совершили в реальной жизни.
Однако самое тревожное в том, что история дипфейков только начинает разворачиваться. Поскольку технологии, помогающие их созданию, продолжают развиваться и становиться более доступными, мы увидим, как цифровые контрафакты начнут атаковать критические сектора. Банковский и финансовый сектор уже оказались под ударом, и другие отрасли начинают ощущать давление, особенно здравоохранение.
Несмотря на то, что это одна из самых регулируемых отраслей, укорененная в принципах доверия и точности, здравоохранение не осознает риски дипфейков. Цифровые контрафакты в их текущей форме могут легко привести пациентов к принятию решений, которые могли бы стоить жизни. Поэтому необходимо срочно понять и решить проблемы, вытекающие из использования дипфейков в здравоохранении, чтобы предотвратить путаницу, недоверие и ущемленные результаты для здоровья.
Суть дипфейка заключается в том, что это искусственное изображение/видео/аудио любого человека, созданное с помощью технологии глубокого обучения. Изначально дипфейки в основном включали обмен лицами, когда облик одного человека наложен на существующие видео или изображения. Однако за последний год или около того появление и распространение текстовой генеративной технологии искусственного интеллекта преобразили этот процесс. Теперь любой может создавать практически реалистичный контент с нуля, изображая врачей, актеров и политиков в вводящих в заблуждение способах для обмана интернет-пользователей.
Что более важно, с развитием технологии стало сложно для людей отличить подлинный контент от подделанного, созданного дипфейками. Даже эксперты порой находят сложности в различении. Это облегчает действия злоумышленников, позволяя им оперативно действовать и оставаться под прикрытием дольше.
Эффективное здравоохранение опирается на идею доверия и точности информации. Если человек посещает врача, он доверяет свою медицинскую историю этому профессионалу и следует предписанию в надежде, что профессионал знает, что делает. Дипфейки могут легко нарушить эту экосистему, вводя в заблуждение пациентов и разрушая их доверие к информации, предоставленной врачом.
Проблема довольно прямолинейна: что, если видео-дипфейк известного врача или знаменитости станет вирусным? Подделанный клип может изображать врача/знаменитость, как бы он одобрял незаконное лечение или продукт для конкретного заболевания, уговаривая сотни или тысячи людей следовать этим инструкциям. Подобные атаки также могут быть осуществлены путем подделки встречи лицом к лицу с пациентами.
Теперь такой контент может показаться фальшивым образованным и технически грамотным людям, но неподозрительные люди, страдающие от определенного заболевания, могут в него поверить. Это легко может повлиять на их решения и поставить под угрозу жизни. Фактически, согласно исследованию, проведенному Группой по борьбе с дипфейками и дезинформацией в 2023 году, поддельные знаменитостей-рекламодатели непроверенных лечебных средств эксплуатируют доверие общественности.
Это делает более важным, чем когда-либо, чтобы заинтересованные лица оценили всю ситуацию и разработали методы, которые могли бы сохранить основу доверия в здравоохранении.
Чтобы бороться с дипфейками в здравоохранении, заинтересованным сторонам на всех уровнях необходимо объединиться и предпринять действия, такие как:
Чем раньше дипфейк будет обнаружен, тем меньше будет его воздействие. Эта идея должна определять политику всех социальных медиа-платформ. В основном, платформы должны искать и адаптировать технологии, способные обнаруживать и автоматически удалять изображения и видео дипфейков, которые могли бы ввести пользователей в заблуждение. Алгоритмы искусственного интеллекта, разработанные для идентификации дипфейкового контента в медицинских изображениях, текстах, аудио и видео, могут значительно помочь в этом.
Образовательные и просветительские кампании играют ключевую роль. Здравоохранение должно понимать, что такое дипфейки и как ими можно избежать. Информация ключева, и распространение осведомленности о опасностях и методах обнаружения дипфейков может помочь смягчить их воздействие.
Здравоохранение должно также придерживаться международных этических стандартов в области искусственного интеллекта, таких как Монреальская декларация о развитии ответственного искусственного интеллекта. Этот подход может помочь им использовать искусственный интеллект внутри себя, с фокусом на справедливости, прозрачности и общественном благосостоянии. Не говоря уже о том, что это также побуждает отрасль в целом обеспечить этичное использование искусственного интеллекта и снизить риск злоупотребления дипфейков.
Наконец, правительство должно вмешаться для того, чтобы сдержать распространение дипфейков в здравоохранении. Законодатели должны установить строгие правила для распространения медицинского контента и налагать наказание на тех, кто использует дипфейки в злонамеренных целях. Эффективное регулирование может помочь сохранить интегритет медицинской информации.
В общем, дипфейки представляют собой значительную и насущную угрозу для здравоохранения. В то время как заинтересованные стороны остаются заинтересованными в решении отрицательных последствий данной технологии, координированные усилия необходимы для предотвращения роста проблемы.
При совместной работе здравоохранение, технологические разработчики, регуляторы и общественность могут обеспечить целостность системы здравоохранения, обеспечив благополучие пациентов везде.