Объяснимый ИИ (XAI)

Объяснимый ИИ (XAI)

Что такое объяснимый ИИ (XAI)?

XAI включает в себя разработку систем искусственного интеллекта, которые могут объяснить процесс принятия решений с помощью различных методов. XAI должен позволить внешним наблюдателям лучше понять, как возникают выходные данные системы ИИ и насколько они надежны. Это важно, потому что ИИ может вызывать прямые и косвенные неблагоприятные последствия, которые могут повлиять на отдельных людей и общество.

Точно так же, как объяснение того, что понимается под ИИ, объяснение его результатов и функционирования также может быть сложной задачей, особенно когда в игру вступают системы ИИ с глубоким обучением. Чтобы не инженеры могли представить себе, как ИИ учится и находит новую информацию, можно предположить, что эти системы используют сложные схемы в своем внутреннем ядре, которые имеют форму, аналогичную нейронным сетям в человеческом мозгу.

Нейронные сети, которые облегчают принятие решений ИИ, часто называют «глубоким обучением». системы. Обсуждается, в какой степени решения, принимаемые системами глубокого обучения, непрозрачны или непостижимы, а в какой степени искусственный интеллект и его «мышление» эффективны. могут и должны быть объяснимы обычным людям.

Среди ученых ведутся споры о том, являются ли системы глубокого обучения действительно черными ящиками или полностью прозрачными. Однако общее мнение состоит в том, что большинство решений должны быть в какой-то степени объяснимы. Это важно, потому что развертывание систем искусственного интеллекта государственными или коммерческими организациями может негативно сказаться на людях, поэтому крайне важно обеспечить подотчетность и прозрачность этих систем.

Например, дело голландской Systeem Risico Indicatie (SyRI) является ярким примером, иллюстрирующим необходимость объяснимого ИИ в процессе принятия государственных решений. SyRI была автоматизированной системой принятия решений с использованием искусственного интеллекта, разработанной голландскими полугосударственными организациями, которые использовали личные данные и другие инструменты для выявления потенциального мошенничества с помощью непрозрачных процессов, позже классифицированных как черные ящики.

Система подверглась тщательной проверке из-за отсутствия прозрачности и подотчетности, а национальные суды и международные организации заявили, что она нарушает неприкосновенность частной жизни и различные права человека. Случай SyRi показывает, как правительственные приложения ИИ могут влиять на людей, воспроизводя и усиливая предубеждения и дискриминацию. Сирия несправедливо нацелилась на уязвимых лиц и сообщества, например на малообеспеченные слои населения и меньшинства.

SyRi стремилась найти потенциальных мошенников в сфере социального обеспечения, пометив определенных людей как группы высокого риска. SyRi, как система обнаружения мошенничества, была развернута только для анализа людей в районах с низким доходом, поскольку такие районы считались «проблемными». зоны. Поскольку государство развернуло анализ рисков SyRI только в сообществах, которые уже были признаны районами с высоким уровнем риска, неудивительно, что там было обнаружено больше граждан с высоким уровнем риска (по сравнению с другими районами, которые не считаются «высокорисковыми»).

Этот ярлык, в свою очередь, способствовал бы формированию стереотипов и укрепил бы негативный образ жителей, проживающих в этих районах (даже если они не были упомянуты в отчете о рисках или квалифицированы как «неблагополучные») из-за всестороннего межорганизационного анализа. базы данных, в которые такие данные вводятся и перерабатываются в государственных учреждениях. Этот случай показывает, что когда системы ИИ приводят к нежелательным неблагоприятным последствиям, таким как предубеждения, они могут остаться незамеченными, если отсутствует прозрачность и внешний контроль.

Помимо государства, частные компании разрабатывают или внедряют множество систем ИИ, прозрачность и объяснимость которых перевешивают другие интересы. Хотя можно утверждать, что современные структуры, обеспечивающие ИИ, не существовали бы в их нынешних формах, если бы не прошлое государственное финансирование, значительная часть прогресса, достигнутого в области ИИ сегодня, финансируется из частных источников и неуклонно растет. Фактически частные инвестиции в ИИ в 2022 году были в 18 раз выше, чем в 2013 году.

Коммерческие «производители» искусственного интеллекта в первую очередь несут ответственность перед своими акционерами, поэтому могут быть в значительной степени сосредоточены на получении экономической прибыли, защите патентных прав и предотвращении регулирования. Следовательно, если коммерческие системы ИИ’ функционирование недостаточно прозрачно, и огромные объемы данных хранятся в частном порядке для обучения и улучшения ИИ, важно понимать, как работает такая система.

В конечном счете, важность XAI заключается в его способности давать представление о процессе принятия решений по его моделям, позволяя пользователям, производителям и агентствам по мониторингу понять, как и почему был создан тот или иной результат.

Возможно, это помогает укрепить доверие к государственным и частным системам искусственного интеллекта. Это повышает подотчетность и гарантирует, что модели ИИ не будут предвзятыми или дискриминационными. Это также помогает предотвратить переработку некачественных или незаконных данных в государственных учреждениях из неблагоприятных или всеобъемлющих межорганизационных баз данных, пересекающихся с алгоритмическими системами обнаружения мошенничества.

Объяснимый ИИ: делаем черный ящик прозрачным

Объяснимый ИИ (XAI) набирает популярность среди технических энтузиастов, специалистов по данным и инженеров-программистов в мире, где ИИ становится все более распространенным.

В мире, который все больше движим искусственным интеллектом, внимание технических энтузиастов, специалистов по обработке данных и инженеров-программистов привлекает новый термин: «Объяснимый ИИ» (XAI). Но что именно? По данным DARPA, «Объяснимый ИИ» относится к системам искусственного интеллекта, действия которых могут быть поняты экспертами-людьми. Другими словами, XAI стремится пролить свет на внутреннюю работу сложных моделей ИИ, сделав их более прозрачными и менее похожими на «черный ящик».

Важность и актуальность этой темы в современном мире искусственного интеллекта

За последнее десятилетие искусственный интеллект претерпел трансформацию, переместившись с периферии в центр нашей жизни, обеспечивая работу всего: от наших цифровых помощников до рекомендуемых нами шоу Netflix. В связи с этим сдвигом возник новый вопрос: как мы можем доверять решениям, принимаемым машинами, если мы не можем понять, как они к ним пришли? Именно здесь на помощь приходит объяснимый ИИ, устраняющий разрыв между расширенными возможностями ИИ и нашей потребностью понимать процесс принятия им решений.

Действительно, значение XAI невозможно переоценить. Это не только удовлетворяет наше любопытство и нашу потребность в контроле, но также имеет реальные последствия для различных секторов. От здравоохранения и финансов до автономных транспортных средств и кибербезопасности спрос на объяснимый ИИ растет.

В этой статье разработчики компании DST Global углубятся в тонкости XAI и рассмотрят его преимущества, методы, варианты использования и будущие направления. Итак, независимо от того, являетесь ли вы энтузиастом искусственного интеллекта, опытным инженером-программистом или просто человеком, заинтригованным потенциалом искусственного интеллекта, оставайтесь рядом. Это путешествие в мир XAI обязательно даст вам более глубокое понимание этой увлекательной области.

Проблема «черного ящика» в искусственном интеллекте

Краткое объяснение концепции «черного ящика» в ИИ

Когда мы говорим об ИИ, мы часто используем термин «черный ящик» для описания сложных моделей, внутреннюю работу которых трудно, а то и невозможно интерпретировать. Представьте себе настоящий черный ящик: вы можете видеть, что входит (входы) и что выходит (выходы), но то, что происходит внутри, остается загадкой.

В контексте ИИ входными данными являются ваши данные, выходными данными — ваши прогнозы или классификации, а блоком — ваша модель машинного обучения. Модели глубокого обучения с их сложной архитектурой и миллионами параметров являются классическими примерами таких «черных ящиков».

Примеры проблем в реальных приложениях искусственного интеллекта

Представьте себе систему искусственного интеллекта здравоохранения, которая определила, что у пациента высокий риск определенного заболевания, но не может объяснить, почему. Или рассмотрим инструмент найма на основе искусственного интеллекта, который, кажется, отдает предпочтение определенным кандидатам, но компания не может выяснить причину. Это всего лишь пара реальных примеров проблемы «черного ящика».

Потенциальные риски и проблемы, связанные с проблемой «черного ящика»

Отсутствие прозрачности в системах искусственного интеллекта может привести к значительным рискам и проблемам. Ошибки и предвзятости могут остаться незамеченными, что потенциально может привести к несправедливым или даже вредным результатам. Более того, когда ИИ используется при принятии важных решений, например, в здравоохранении или юридической системе, неспособность понять, как система пришла к решению, может привести к отсутствию доверия, неправильному использованию или отказу от технологии.

Поскольку мы ориентируемся в мире, в котором все больше внимания уделяется искусственному интеллекту, становится ясно, что нам нужно больше, чем просто интеллектуальные машины — нам нужны машины, которые мы можем понять и которым можно доверять. И именно здесь на сцену выходит «Объяснимый ИИ».

Обзор объяснимого ИИ

Цель объяснимого ИИ

Как мы установили, проблема «черного ящика» ИИ является серьезной проблемой. Но именно здесь на помощь приходит объяснимый ИИ (XAI). Цель XAI — не просто сделать ИИ более прозрачным, но и создать систему, которая сможет эффективно сообщать о процессе принятия решений. Речь идет о том, чтобы сделать сложные алгоритмы ИИ интерпретируемыми и понятными для пользователей, позволяя им видеть, почему и как были приняты решения.

Как XAI может решить проблему «черного ящика»?

XAI стремится взломать «черный ящик» и пролить свет на его внутреннюю работу. Используя различные методы и подходы, XAI позволяет нам понимать ИИ и его результаты, доверять им и эффективно управлять ими. Этот процесс подобен тому, как учитель объясняет ученику сложную концепцию, разбивая ее на понятные части. XAI стремится сделать то же самое с системами искусственного интеллекта: сделать их не только мощными, но и понятными.

Различные подходы к XAI

В целом, существует два основных подхода к XAI. Во-первых, необходимо разработать системы искусственного интеллекта, которые по своей сути являются интерпретируемыми, например, деревья решений или модели линейной регрессии. Второй подход заключается в создании методов, которые смогут интерпретировать решения сложных моделей post hoc, используя такие методы, как LIME или SHAP. Оба подхода направлены на то, чтобы сделать ИИ более понятным и удобным для пользователя, удовлетворяя растущий спрос на ответственный и этичный ИИ.

Углубляясь в мир XAI, помните: цель не в том, чтобы слишком упростить ИИ или поставить под угрозу его возможности. Вместо этого речь идет о достижении баланса и создании мощных систем искусственного интеллекта, которые также доступны и понятны. Потому что, в конце концов, ИИ — это инструмент, и он полезен настолько, насколько наша способность эффективно им пользоваться.

Методы реализации объяснимого ИИ

Методы интерпретации (например, LIME, SHAP)

Один из подходов к объяснимому ИИ предполагает использование методов интерпретации, которые могут помочь объяснить предсказания любой модели машинного обучения, независимо от ее сложности. Такие методы, как LIME (локальные интерпретируемые модельно-агностические объяснения) и SHAP (аддитивные объяснения Шепли), в последние годы становятся все более популярными.

Например, LIME локально аппроксимирует выходные данные модели интерпретируемой моделью, основанной на прогнозе, который необходимо объяснить. Это можно визуализировать и предоставить ценную информацию о том, как ведет себя модель.

Аналогичным образом, SHAP использует концепцию теории игр, чтобы распределить вклад каждой функции в модель для создания конкретного прогноза. Он предлагает унифицированную меру важности и вклада функций, предоставляя глобальный обзор модели и локальные пояснения.

Прозрачный дизайн модели (например, деревья решений, системы, основанные на правилах)

Другой подход к XAI предполагает разработку моделей, которые по своей сути интерпретируемы. Деревья решений и системы, основанные на правилах, являются хорошими примерами такого подхода. Эти модели принимают решения в соответствии с рядом явных правил или критериев, которым легко следовать и которые могут понять пользователи-люди.

Например, деревья решений разделяют данные в зависимости от конкретных условий, образуя древовидную модель решений. Этот процесс интуитивно понятен и визуально интерпретируем, что делает его популярным выбором для задач, требующих интерпретируемости.

Интерпретируемые по своей сути модели

Интерпретируемые по своей сути модели, такие как линейная регрессия и логистическая регрессия, также широко используются из-за их простоты и интерпретируемости. Эти модели основаны на статистических методах, которые делают их внутреннюю работу прозрачной и понятной. Влияние каждой функции на результат четко определено, что делает эти модели хорошим выбором, когда интерпретируемость является основной проблемой.

В конечном итоге выбор метода будет зависеть от конкретных требований и ограничений вашего проекта ИИ. Но будь то методы интерпретации, прозрачный дизайн модели или модели, которые по своей сути интерпретируются, цель остается той же: сделать решения ИИ понятными и заслуживающими доверия.

Варианты использования объяснимого ИИ

Здравоохранение: интерпретация диагностического ИИ

Объяснимый ИИ имеет множество применений, ярким примером которых является здравоохранение. Поскольку ИИ все чаще используется для диагностики и рекомендаций по лечению, необходимость прозрачности имеет первостепенное значение. Например, система искусственного интеллекта может предсказать риск развития определенного заболевания у пациента. Но врачи, да и сами пациенты, должны понять, «почему» стоит за этим прогнозом. Используя XAI, медицинские работники могут лучше понять эти прогнозы, что приведет к улучшению ухода за пациентами и улучшению результатов.

Финансы: понимание искусственного интеллекта в области кредитного скоринга и одобрения кредитов

В финансовом секторе XAI может помочь как клиентам, так и финансовым учреждениям понять решения, связанные с кредитным скорингом и одобрением кредитов. Эти решения могут иметь серьезные последствия, поэтому крайне важно иметь возможность объяснить их причины. Кроме того, XAI может выяснить факторы, которые система искусственного интеллекта учитывает при определении кредитного рейтинга или одобрении кредита, способствуя более справедливым и прозрачным финансовым услугам.

Автономные транспортные средства: понимание процессов принятия решений

Автономные транспортные средства — еще одна область, где XAI имеет жизненно важное значение. Системы автономного вождения должны принимать решения за доли секунды, которые могут иметь последствия для жизни и смерти. Понимание того, как принимаются эти решения, может укрепить доверие к этой технологии и потенциально выявить области для улучшения. XAI может предложить понимание процесса принятия решений по транспортному средству, обеспечивая уровень прозрачности, который имеет решающее значение для безопасности и общественного признания.

Другие соответствующие примеры

Другие области, где XAI оказывает влияние, включают кибербезопасность, где понимание того, как система ИИ обнаруживает угрозы, может улучшить меры безопасности, а также в судебной системе, где ИИ используется для прогнозирования уровня рецидивизма и помощи в вынесении приговоров, где необходимы справедливость и прозрачность. имеет первостепенное значение.

В каждом из этих вариантов использования общей чертой является необходимость прозрачности, доверия и понимания в системах ИИ. Поскольку мы становимся более зависимыми от ИИ, спрос на объяснимый ИИ будет только расти.

Проблемы внедрения объяснимого ИИ

Компромисс между точностью и интерпретируемостью

Одной из самых больших проблем при внедрении XAI является часто наблюдаемый компромисс между точностью и интерпретируемостью. Хотя сложные модели, такие как глубокие нейронные сети, могут обеспечить впечатляющую прогностическую эффективность, их интерпретируемость обычно низкая. С другой стороны, более простые и интерпретируемые модели могут не так хорошо справляться с некоторыми задачами. Достижение баланса между этими двумя аспектами является ключевой задачей XAI.

Текущие ограничения методов XAI

Хотя мы добились значительных успехов в разработке методов XAI, они все еще имеют свои ограничения. Например, некоторые методы интерпретации могут дать слишком общую информацию, чтобы быть полезной, или же им может быть трудно точно интерпретировать более сложные модели. Другие проблемы включают вычислительную эффективность, надежность и риск предоставления вводящих в заблуждение объяснений.

Нормативные и этические соображения

С точки зрения регулирования обеспечение прозрачности и объяснимости систем искусственного интеллекта становится все более важным. Например, Общий регламент по защите данных Европейского Союза (GDPR) включает «право на объяснение», когда люди могут запрашивать объяснения автоматических решений. Однако реализация таких правил в контексте сложных систем искусственного интеллекта сопряжена с рядом проблем.

Кроме того, в игру вступают этические соображения. Например, как мы можем гарантировать, что объяснения, предоставленные XAI, правдивы и не вводят в заблуждение? Как мы определяем, что представляет собой «хорошее» объяснение, и кто должен это решать?

Хотя эти проблемы могут показаться пугающими, они также открывают возможности для инноваций и прогресса в области XAI.

Будущее объяснимого ИИ

Растущая важность XAI в мире, управляемом искусственным интеллектом

Поскольку ИИ продолжает проникать во все аспекты нашей жизни, важность объяснимого ИИ будет только расти. Потребность в прозрачности и доверии к системам искусственного интеллекта имеет первостепенное значение, и XAI является ключевым инструментом для достижения этой цели. Более того, поскольку регулирующие органы все чаще требуют прозрачности в системах искусственного интеллекта, ожидается, что внедрение XAI ускорится.

Продолжение исследований и разработок в XAI

Область XAI созрела для продолжения исследований и разработок. Преодоление проблем внедрения XAI, таких как компромисс между точностью и интерпретируемостью, требует инновационных решений. Более того, по мере разработки новых технологий и приложений искусственного интеллекта, вероятно, возникнут новые требования к объяснимости.

Новые тенденции в XAI

В XAI появляется несколько интересных тенденций. Например, исследователи изучают, как интегрировать человеческую интуицию и предметные знания в системы XAI, чтобы улучшить их интерпретируемость. Кроме того, использование визуальных объяснений в XAI набирает обороты. Визуализируя, как система ИИ принимает решения, пользователи могут лучше понять ее работу.

Важная роль XAI в будущем искусственного интеллекта

Понимание объяснимого ИИ привело нас от основных принципов ИИ и проблемы «черного ящика» к различным методам реализации XAI, вариантам его использования, проблемам и будущему. Важность XAI в современном мире, управляемом искусственным интеллектом, невозможно переоценить. Поскольку ИИ продолжает развиваться, обеспечение прозрачности, надежности и понятности становится все более важным.

Инженеры-программисты играют ключевую роль в развитии XAI. Их работа по разработке и внедрению систем искусственного интеллекта ставит их в авангарде решения этой проблемы. Отдавая приоритет прозрачности и объяснимости создаваемых ими систем искусственного интеллекта, инженеры-программисты могут внести значительный вклад в продвижение дела XAI.

По мнению разработчиков компании DST Global, хотя путь к объяснимому ИИ полон проблем, он также полон возможностей. Продолжая уделять первоочередное внимание XAI и инвестировать в него, мы сможем построить будущее, в котором системы искусственного интеллекта будут не только мощными и эффективными, но также прозрачными и заслуживающими доверия. Сейчас, когда мы стоим на пороге этой захватывающей новой эры, ясно одно: объяснимый ИИ будет играть важную роль в формировании будущего ИИ.

Объяснимый ИИ (XAI): как разработчики создают доверие и прозрачность в системах ИИ

XAI необходим для того, чтобы сделать системы искусственного интеллекта прозрачными, надежными и этически совместимыми, при этом разработчики играют решающую роль.

Разработчики, работающие над объяснимым ИИ (XAI), должны учитывать несколько ключевых аспектов, таких как проблема, границы области применения и потенциальные решения XAI, а также некоторые конкретные варианты использования и преимущества, которые могут повысить доверие к организации при внедрении или использовании этой технологии.

Чем больше ИИ внедряется в различные сектора, тем решающую роль в обеспечении интерпретируемости и прозрачности этих систем играют разработчики. XAI имеет решающее значение для обеспечения легкости интерпретации и отладки моделей ИИ; он также гарантирует ответственное использование весьма сложных технологий искусственного интеллекта, которые должны быть справедливыми, прозрачными и подотчетными перед пользователями и заинтересованными сторонами общества.

Важность объяснимости в ИИ

Первая задача развития ИИ — сделать эту технологию прозрачной и объяснимой. Согласно отчету Глобального института McKinsey , ИИ может ежегодно приносить глобальную корпоративную прибыль на сумму 2,6–4,4 триллиона долларов США, а Всемирный экономический форум оценивает экономический вклад этого процесса в 15,7 триллиона долларов США к 2030 году. Это хорошее напоминание о постоянно растущее влияние на наше общество и почему абсолютно необходимо создавать мощные, но в то же время объяснимые и заслуживающие доверия системы.

Взгляд разработчиковна объяснимый ИИ

Сложность против интерпретируемости

Самая большая проблема, с которой разработчикам нужна помощь в отношении XAI, — это взаимосвязь между сложностью (точностью моделей) и целями интерпретируемости. Глубокое обучение, ансамблевые методы и машины опорных векторов (SVM) — одни из наиболее точных моделей AI/ML.

С другой стороны, эти модели часто называют «черными ящиками», и принимаемые на их основе решения становятся трудными для понимания. Из-за этого разработчикам становится еще сложнее учесть эту сложность и предоставить содержательные объяснения их функционирования, не снижая при этом производительность модели.

Зарождающиеся методы

Инструменты XAI еще незрелы, поскольку практика объяснительности является новой. Им необходимо добиться большей прозрачности, чтобы внедрить механизмы доверия в системах ИИ. Однако некоторые методы апостериорного объяснения, такие как SHAP и LIME, позволяют понять процессы принятия решений с помощью модели.

Адаптация объяснений к контексту

Еще одна проблема для разработчиков — поместить объяснение в контекст. Модели машинного обучения обычно развертываются в различных средах, ориентированных на разные группы пользователей: от самых эрудированных технических специалистов до пользователей, которым требуется максимальная простота. Система XAI будет различаться в зависимости от типа пользователя, запрашивающего объяснения.

Объем

Интерпретируемые модели

Разработчики используют некоторые интерпретируемые модели , такие как деревья решений , линейные модели или системы, основанные на правилах. Даже если эти модели менее сложны и содержат меньше функций, они предоставляют четкие пути принятия решений.

Апостериорная объяснимость

Он сохраняет структуру моделей черного ящика , но разработчики могут объяснять прогнозы, используя такие методы, как SHAP, LIME или визуализацию важности функций. Например, при создании автономного транспортного средства решения, принимаемые моделью, установленной в каждом автомобиле, должны быть разумными (потому что это связано с безопасностью!). Модели глубокого обучения можно использовать для задач восприятия, но с последующими пояснениями.

Алгоритмическая прозрачность

Это особенно важно для XAI, где на этот сектор ляжет огромная юридическая или этическая ответственность из-за решения, принятого непрозрачным ИИ. Везде, где решения ответственны, алгоритм тоже должен быть ответственным! Управление ИИ требует, чтобы разработчики обеспечивали соответствие своих моделей ИИ нормативным и этическим стандартам, предоставляя четкие и понятные объяснения того, как принимаются решения.

Преимущества

Таким образом, XAI укрепляет доверие пользователей и заинтересованных сторон в усилиях по развитию. Кроме того, что касается принятия важных решений, XAI самостоятельно способствует укреплению доверия между системами ИИ. Задача XAI в этот век — информировать своих пользователей о том, как их ИИ управляет прогнозами контрастности. Это еще более заметно в такой области, как финансы, где необходимость может связать результаты вашей модели с инвестиционным состоянием и позволить вам принимать более правильные решения или прогнозировать риски, чтобы не проиграть.

В конечном итоге XAI укрепляет общественное доверие, демонстрируя, что организации имеют очень четкие и объяснимые системы искусственного интеллекта. Например, в отраслях, где ИИ может принимать решения в области финансов, здравоохранения или юридических услуг, и это лишь некоторые из них, этот факт определяет другие концептуальные моменты в XAI. Однако, по крайней мере, они имеют объяснимые и локализованные результаты. XAI призван укрепить доверие потребителей к ИИ, которое, в свою очередь, необходимо преодолеть, прежде чем можно будет ожидать, что кто-либо из населения выйдет и начнет использовать технологии с ИИ в целом.

Этика и ответственность являются основными предметами любого современного внедрения ИИ, которое требуется. Объяснимый ИИ — это один из способов обеспечить этичное и ответственное внедрение модели AV, гарантируя, что наш алгоритм не будет вести себя как черный ящик, в котором застряли предубеждения.

Заключение

Таким образом, разработчики играют ключевую роль в развитии XAI, решая проблему разработки мощных и интерпретируемых систем ИИ. Это повышает удобство использования и внедрение технологий искусственного интеллекта и помогает организациям завоевать доверие на рынке. XAI — это техническая необходимость и заметное преимущество, которое позволит развертывать больше систем искусственного интеллекта в условиях доверия, соблюдения правил и этики, оставляя место для дальнейшего роста и более широкого влияния в различных отраслях.

Комментарии
Вам может быть интересно
Узнайте от разработчиков компании DST Global, как использование тестирования программного обеспечения на базе искусственного интеллекта для сферы здравоохранения может существенно повлиять на качество...
По результатам исследования, которое мы провели среди пользователей облачного Би...
Ученые, которые стояли у истоков создания искусств...
Проекты искусственного интеллекта могут оказаться ...
Интерактивное чтение с помощью MEMWALKER расширяет...
Исследователи из Университета Неймегена (Нидерлан...
Эта статья представляет собой анализ того, как мет...
Службы данных и генеративного искусственного интел...
Перейти вверх