86 views 22 secs 0 comments

Искусственный интеллект: стоит ли шумиха вокруг него для мировых брендов класса люкс?

In Forbeslife
04 июня, 2024

В предыдущей статье я объяснил, почему генеративный искусственный интеллект (ГенИИ) завоевал мир и, действительно, рынок роскоши. Я структурировал текущие эксперименты luxury-брендов на четыре отдельных, взаимодополняющих друг друга типа применения. Я объяснил, что, как и любая технология, ГенИИ сам по себе не является конечной целью. Важно определить стратегическую цель и видение, прежде чем приступать к экспериментам с этой технологией.

Однако вот самый главный вопрос: стоит ли суетиться из-за ГенИИ, учитывая особенности управления luxury-брендами? Роскошь – это воплощение человеческого гения и внимания к деталям, от мастерства до обслуживания. Это бизнес, где художественные директора устанавливают тренды, а не следуют за ними. Его художественные творения и бренды тщательно охраняются авторскими правами, чтобы ограничить подделки. Этот бизнес требует создания определенной мистики для процветания.

ГенИИ может потенциально изменить все это. Но действительно ли? Существуют ограничения и даже недоверие к технологии. Поэтому может быть ошибкой для luxury-брендов переключить большинство своих ресурсов на ГПТ из-за его последней популярности и отказаться от многолетних усилий по улучшению аналитики и возможностей машинного обучения.

То, что можно сказать с уверенностью, это то, что многое будет зависеть от того, как будет использоваться ГенИИ и что произойдет в обществе в результате этого. Luxury-фирмам не следует терять времени на эксперименты с ним, но им также следует уделить время для анализа широких стратегических, экологических и социальных последствий использования ГенИИ. В противном случае ГенИИ может пойти по пути метавселенной в начале этого десятилетия: французский суфле, который быстро, хотя и временно, обрушился, или даже хуже, нанести ущерб брендам.

Существуют по крайней мере три типа проблем с ГенИИ: технологические, этические и экологические. Эти проблемы касаются любой отрасли и должны беспокоить каждого гражданина. Одно утешительное: раньше любое технологическое новшество принималось безоговорочно как хорошее. Сегодня общество и регуляторы все более критически взирают на каждую новую волну.

Технологические вызовы. То, что многие упускают из виду, объясняет профессор Амит Джоси, директор программы цифрового совершенства в IMD – ГПТ не является поисковой системой, реагирующей на факты и точность. Инструменты ГПТ работают на основе вероятностных ассоциаций. Поэтому, хотя исследования показывают, что инструмент, наподобие ЧатГПТ, может диагностировать заболевания глаз лучше, чем начинающие специалисты, технология также может «галлюцинировать», предоставляя результаты, которые не пригодны для практического применения, или морально неприемлемы. Некоторые из этих галлюцинаций могут остаться незамеченными, поэтому требуется тщательное человеческое суждение и опыт для их выявления.

К счастью, появляются некоторые решения. Лидирующий итальянский стартап по искусственному интеллекту Vedrai имеет процедуру на основе агентов для перекрестной проверки вывода, который производит его алгоритм, прежде чем предоставлять результаты, позволяющие менеджерам принимать лучшие решения. По словам Микеле Грациоли, основателя и генерального директора, подход Vedrai может снизить галлюцинации до ошибки в 1%. Таким образом, хотя человеческие проверки и суждения по-прежнему будут необходимы, ГенИИ вряд ли в ближайшее время займет все сферы деятельности и заменит человека.

Как уже обсуждалось в моей предыдущей статье, поскольку наибольшие возможности кроются в обучении моделей ГенИИ с использованием данных компаний и источников для облегчения разговоров с клиентами, внешними заинтересованными сторонами или между сотрудниками по конкретным бизнес-проблемам, эти технологические достижения стимулирующи.

Во-вторых, ЧатГПТ загрязнил интернет тем, что называется «синтетическим» (читайте: измененным и искаженным) контентом. Исправление уже произошло. Обратив внимание на то, что эта проблема развращала некоторые характеристики и обучение ЧатГПТ, OpenAI прекратила эту практику в 2021 году. Поэтому, если вы запросите у него финансовые результаты LVMH, они будут относиться к этому году. Но потенциально ГПТ дополнительно подорвал доверие к информации, которая циркулирует в интернете. Что приводит нас к следующему ограничению.

Этические вызовы. Публичные версии последних приложений ГенИИ обучены на доступных в глобальной общедоступной интернете данных. Поскольку не установлены юридические нормы по всему миру, возникли вопросы интеллектуальной собственности: кому принадлежат входные и произведенные результаты? Например, в США нет авторского права на полностью машинно сгенерированные изображения – только на изображения, созданные человеком или изображения, которые были хотя бы немного изменены человеком. По мнению Jing Daily, в Китае генеративный ИИ должен использовать «данные и базовые модели с законными источниками». Созданный генеративным ИИ контент также должен иметь голосовую подсказку или водяной знак, указывающий на то, что это генеративный ИИ.

Дизайнеров сегодня часто публично обвиняют бренды за дизайны, которые, возможно, не являются их полностью, как в случае с NFT, о которых я упоминал в предыдущей статье. Другие, как создатель AI-видео Harry Potter от Balenciaga, которое на сегодняшний день набрало более десяти миллионов просмотров, остаются без внимания брендом как мемы.

Большие технологические компании пытаются исправить свой путь. В духе прозрачности Meta убедилась, что у нее есть архив каждого этапа процессов ГенИИ, использованных на заднем плане, так называемая аудит действий, которые их приложение предприняло для достижения конечного продукта, будь то рекламная кампания бренда или реальное одежды.

Наконец, этические вопросы также связаны с правами человека и справедливым трудом. Амит Джоси также утверждает, что мы должны помнить о количестве людей, которые работают на заднем плане искусственного интеллекта в Азии. Эти люди «аннотируют массивы данных, необходимых американским компаниям для обучения своих моделей искусственного интеллекта», как сообщает Washington Post. Многие из двух миллионов людей на Филиппинах, работающих в этих «цифровых потах», не получили обещанные зарплаты; некоторые получают менее одного американского цента в день.

Экологические вызовы. ЧатГПТ вышел на первый план из-за своей вычислительной мощности. Но это происходит за счет экологической стоимости через потребление воды и выбросы парниковых газов.

После многих лет отрицания основатель Open AI Сэм Альтман признал на Давосе 2024 года, что если не произойдет серьезного прорыва (читайте – ядерного синтеза), его отрасль идет к энергетическому кризису. Ядерный синтез не будет готов к массовому использованию еще как минимум 25 лет. Таким образом, если недостаточно доступной возобновляемой энергии для питания искусственного интеллекта, это может стать еще одной отраслью, усугубляющей угрозу изменения климата.

Кроме того, когда Microsoft обучала Bing для искусственного интеллекта, ее потребление воды увеличилось на 34% за год для охлаждения данных центров. К 2027 году спрос на воду, связанный с питанием искусственного интеллекта, может достичь половины потребления воды Соединенного Королевства. Отрасль уже говорит о переносе центров обработки данных на море и увеличении усилий по внедрению методов захвата углекислого газа.

Еще одним некоторым парадоксальным следствием является то, что отрасль может быть вынуждена замедлить темп с вычислительными достижениями. Некоторые аналитики называют это «пик AI». «То, что мы видим сегодня, возможно, является все тем, что есть в генеративном ИИ», – сказал Джоси. Действительно, для снижения потребления энергии и воды и выбросов может потребоваться более тщательно тонкая настройка существующих моделей машинного обучения (подумайте о небольших языковых моделях обучения) и не создание новых прорывов. Точно так же для достижения своих целей в области устойчивости компании, включая luxury-фирмы, также могут вынуждены воздерживаться от обучения своих собственных моделей с нуля. Поведение ответственно для положительного воздействия также означало бы, что все фирмы должны стремиться к драконовскому отбору при выборе своих приложений ГенИИ.

Достигнет ли это этапа? Как обычно, соображения устойчивости ставятся на второй план: Meta и Open AI собираются выпустить новые поколения своих Лама и ЧатГПТ5, способных имитировать реальный человеческий интеллект, модели «не просто для общения, но фактически для размышлений, для планирования… имеющие память», сказала Джоэль Пиньо, вице-президент исследования по искусственному интеллекту в Meta, открывая путь к настоящим, обобщенным персональным ассистентам.

В итоге обсуждаемые вызовы требуют баланса осторожности с созданием возможностей для движения в ногу со временем. При этом руководители luxury-брендов должны обдумать следующие три специфические соображения.

Аутентичность, дифференциация и роль человека в мире, который все больше управляется машинами. Luxury-индустрия продает обещание изысканных созданий, созданных в соответствии с традициями старинного мастерства. Поэтому кажется, что что-либо, заменяющее это, нарушило бы правило подлинности, лежащее в основе обещания роскоши. ГенИИ поэтому будет наиболее полезен для усиления человеческого гения.

Мы определенно увидим