Что такое Microsoft 365 Copilot? – новый генеративный инструмент с искусственным интеллектом

Что такое Microsoft 365 Copilot? - новый генеративный инструмент с искусственным интеллектом - rdd.media 2025

С момента объявления о партнерстве с создателем ChatGPT, OpenAI, в начале этого года, Microsoft развертывает своего генеративного ИИ-помощника Copilot, в своем наборе приложений Microsoft 365. Целью такого развертывания является повышение производительности бизнеса и совместной работы. Помощник ИИ будет интегрирован в приложения, такие как Word, Outlook, Teams, Excel, PowerPoint и другие, и сможет автоматизировать задачи и создавать контент, что потенциально поможет пользователям сэкономить время и увеличить производительность.

M365 Copilot разрабатывается Microsoft с целью создания «более удобного и функционального помощника» для работы, по словам Дж. П. Гаундера, вице-президента и главного аналитика группы Forrester Future of Work. Он отметил, что идея заключается в том, что пользователь является «пилотом», но второй пилот, а именно Copilot, берет на себя задачи, которые могут существенно облегчить жизнь.

M365 Copilot является частью более широкого движения генеративного ИИ, которое в значительной степени изменит способ, которым мы выполняем вычисления. Эта технология уже применяется к различным рабочим функциям, начиная от написания контента до создания кода, с момента запуска ChatGPT-3 в конце 2022 года. Но по словам Гаундера, еще не ясно, станет ли Copilot катализатором изменений в работе приложений для совместной работы и повышения производительности.

На данный момент инструмент Microsoft находится на стадии демонстрации и тестирования с ограниченным числом клиентов. Ожидается, что он станет доступен в конце текущего года.

Несмотря на широкое распространение генеративных инструментов искусственного интеллекта в последние месяцы, по-прежнему существуют серьезные вопросы о том, как предприятия могут использовать эту технологию, не рискуя сохранностью своих данных.

Согласно Авиве Литан, выдающемуся вице-президенту и аналитику Gartner, M365 Copilot «не полностью готов к корпоративному использованию, особенно в регулируемых отраслях». Она указала на различные риски, связанные с конфиденциальностью данных и безопасностью, которые сопутствуют использованию больших языковых моделей (LLM), лежащих в основе генеративных инструментов ИИ. Она также отметила их склонность к «галлюцинациям», когда система предоставляет пользователям неверную информацию.

Что такое Microsoft 365 Copilot?

«Система» M365 Copilot состоит из трех элементов. В приложениях Microsoft 365, таких как Word, Excel и Teams, пользователи взаимодействуют с помощником ИИ. Microsoft Graph включает файлы, документы и данные в среде Microsoft 365. Модели OpenAI, такие как ChatGPT-3, ChatGPT-4, DALL-E, Codex и Embeddings, обрабатывают запросы пользователя. Все эти модели размещены в облачной среде Microsoft Azure.

Copilot — это лишь часть общей инициативы Microsoft в области генеративного искусственного интеллекта. Есть планы на адаптацию Copilots к бизнес-приложениям Microsoft Dynamics 365, PowerPlatform, пакету безопасности компании и ее операционной системе Windows. Несколько лет назад GitHub, дочерняя компания Microsoft, разработала GitHub Copilot с помощью OpenAI, предоставляя инструмент автозаполнения для программистов.

Ключевым компонентом Copilot, также как и других инструментов генеративного ИИ, является LLM. Эти языковые модели лучше всего рассматривать как сеть машинного обучения, обучаемую с помощью наборов данных ввода/вывода. Модель использует методологию обучения с самостоятельным или полууправляемым обучением. По сути, данные принимаются, и LLM выдает ответ, основанный на том, как алгоритм предсказывает следующее слово. Информация в LLM может быть ограничена проприетарными корпоративными данными или, как в случае с ChatGPT, может включать любые данные, которые он загружает или извлекает непосредственно из Интернета.

Цель Copilot — повысить производительность труда, автоматизируя задачи, такие как составление электронных писем или создание слайд-шоу. В сообщении в блоге, анонсирующем этот инструмент, Сатья Наделла, председатель и главный исполнительный директор Microsoft, описал его как «следующий важный шаг в эволюции того, как мы взаимодействуем с компьютерами… С нашим новым вторым пилотом для работы мы даем людям больше свободы и делаем технологии более доступными благодаря самому универсальному интерфейсу — естественному языку».

Существует много оптимизма по поводу потенциала ИИ для экономии времени на рабочем месте. В исследовании Стэнфордского университета и Массачусетского технологического института, проведенном ранее в этом году, было отмечено повышение производительности труда работников колл-центра на 14% при использовании (неназванного) генеративного инструмента искусственного интеллекта; Между тем, по оценкам Goldman Sachs Research, бум производительности, основанный на генеративном искусственном интеллекте, может добавить мировой экономике 7 триллионов долларов в течение 10 лет.

Однако компаниям следует умерить большие надежды на немедленные выгоды, сказал Рауль Кастаньон, старший аналитик 451 Research, входящей в состав S&P Global Market Intelligence. «Существует значительный потенциал для повышения производительности. Однако я ожидаю, что это будет происходить волнами», — сказал он. «В ближайшее время мы, вероятно, увидим небольшие улучшения в повседневной работе сотрудников за счет автоматизации повторяющихся задач».

Хотя Copilot может сэкономить рабочее время за счет объединения информации из разных источников или создания черновиков, любой прирост производительности будет происходить «незначительно».

«Более того, — сказал Кастаньон, — эти примеры представляют собой виды деятельности, не добавляющие ценности, т. е. это служебные задачи, которые по большей части не влияют напрямую на деятельность, создающую ценность. Это придет со временем».

Стоимость и доступность Microsoft Copilot

Microsoft Copilot теперь доступен для ограниченной группы клиентов Microsoft 365 в рамках пробной версии с ранним доступом. Среди тех, кто в настоящее время тестирует ИИ-помощника, находятся компании Chevron, Goodyear и General Motors.

Хотя у Microsoft пока нет установленной даты выпуска, ожидается, что Copilot станет широко доступен к концу текущего года. В дорожной карте Microsoft 365 указано, что Copilot в SharePoint будет развернут для пользователей начиная с ноября, однако Microsoft отказалась сообщить, будет ли это означать дату общего доступа для остальных компонентов пакета.

Цена также остается неизвестной. Запуск уровня Premium для Teams, который требуется для доступа к функциям ИИ, таким как «интеллектуальное» подведение итогов собрания, маркеры на временной шкале выступающих и ведение заметок ИИ, может указывать на то, что Copilot будет доступен только для клиентов M365 более высокого уровня. Microsoft отказалась комментировать доступность.

Выбор стратегии является ключом к успеху. “Лучшие продукты могут быть задушены в кроватке плохим лицензированием и ограниченным доступом”, – сказал Гаундер.

Например, если Microsoft включит Copilot в свое корпоративное предложение E5, многие малые предприятия могут не получить доступа к этой технологии, что замедлит ее общий рост.

“На мой взгляд, это большой риск для Microsoft, потому что, с одной стороны, они хотят, чтобы Copilot использовали все – если он не будет широко доступен, то он не станет стандартом де-факто, которым пользуются все”, – сказал Гаундер. “Но они также хотят монетизировать его”.

Как вы используете Copilot?

Существуют два основных способа взаимодействия пользователей с Copilot. Его можно использовать непосредственно в конкретном приложении, например, для создания слайдов PowerPoint или черновика электронной почты. Также возможен доступ через чат-бот на естественном языке, который доступен в Teams и известен как Business Chat.

Второй пилот Word черновик
Copilot может помочь пользователю Word составить предложение из заметок.

Взаимодействие внутри приложений может иметь различные формы. Когда вызывается Copilot, например, в документе Word, он может предложить улучшения существующего текста или даже создать первый черновик.

Для создания черновика пользователь может запросить у Copilot на естественном языке создание текста на основе определенного источника информации или из комбинации источников. Например, можно создать проектное предложение на основе заметок о собрании из OneNote и дорожной карты продукта из другого документа Word. После создания черновика пользователь может его отредактировать, настроить стиль или попросить инструмент AI переработать весь документ. Боковая панель Copilot предоставляет пространство для дальнейшего взаимодействия с ботом, который также предлагает подсказки по улучшению черновика, например, добавление изображений или раздела часто задаваемых вопросов.

Во время видеозвонка в Teams участник может запросить краткое обозрение того, что было обсуждено до этого, и Copilot предоставит краткую сводку тем для обсуждения в режиме реального времени через боковую панель Copilot. Также можно попросить помощника ИИ поделиться мнением участников во время звонка или узнать, какие вопросы остались нерешенными. Те, кто не может присутствовать на конкретной встрече, могут отправить помощника ИИ в своем лице, чтобы предоставить сводку о том, что ими было пропущено и какие действия им необходимо выполнить.

В PowerPoint Copilot может автоматически превращать документ Word в черновые слайды, которые затем можно адаптировать с помощью естественного языка на боковой панели Copilot. Copilot также может генерировать рекомендуемые заметки докладчика к слайдам и добавлять изображения.

Другой способ взаимодействия с Copilot — через бизнес-чат, доступный как чат-бот в Teams. Здесь Business Chat функционирует как инструмент поиска, который отображает информацию из различных источников, включая документы, календари, электронные письма и чаты. Например, сотрудник может запросить обновленную информацию о проекте и получить сводку соответствующих сообщений команды и уже созданных документов с ссылками на источники.

второй пилот бизнес-чат
Copilot может синтезировать информацию о проекте из разных источников.

Как Copilot сравнивается с другими инструментами генеративного ИИ для повышения производительности и совместной работы?

Большинство поставщиков на рынке программного обеспечения для повышения производительности и совместной работы добавляют генеративный ИИ в свои предложения, хотя они все еще находятся на ранних стадиях. Google, главный конкурент Microsoft на арене программного обеспечения для повышения производительности, объявил о планах по включению генеративного ИИ в пакет Workspace. Duet AI для Workspace, анонсированный в прошлом месяце и в настоящее время находящийся в закрытой предварительной версии, может, например, предоставлять сводки разговоров Gmail, черновики текста и генерировать изображения в Документах и ​​Слайдах.

Slack, компания по разработке программного обеспечения для совместной работы, принадлежащая Salesforce и являющаяся конкурентом Microsoft Teams, также работает над внедрением LLM в свое программное обеспечение. Другие фирмы, которые конкурируют с элементами портфеля Microsoft 365, такие как Zoom, Box и Cisco, также рекламируют планы генеративного ИИ.

“Со стороны поставщиков многие присоединяются к волне генеративного искусственного интеллекта, как это видно из множества объявлений в первой половине года”, сказал Кастаньон. “Несмотря на чрезмерную рекламу [генеративного искусственного интеллекта], это указывает на то, что технология быстро интегрируется в дорожные карты продуктов поставщиков”.

Хотя на данном этапе сложно сравнивать продукты, у Copilot есть некоторые преимущества перед конкурентами. Одним из них является доминирующее положение Microsoft на рынке программного обеспечения для повышения производительности и совместной работы. В то время как конкуренты, такие как Cisco Webex и Grammarly, могут быть сопоставимы с Copilot с точки зрения точности, сказал Кастаньон, способность Microsoft применять своего помощника ИИ к пакету, который уже имеет большую клиентскую базу, будет способствовать лучшему внедрению ИИ.

«Ключевое преимущество Microsoft 365 Copilot заключается в том, что — как и в других предыдущих инициативах, таких как Teams, — у него есть «готовая» возможность благодаря портфолио Microsoft для совместной работы и повышения производительности, а также его обширному глобальному присутствию», — сказал он.

Тесное партнерство Microsoft с OpenAI (Microsoft несколько раз инвестировала в компанию миллиарды долларов с 2019 года и имеет большую неконтролирующую долю в бизнесе), вероятно, помогло ей создать генеративный ИИ в своих приложениях быстрее, чем конкуренты.

«Его инвестиции в OpenAI уже оказали влияние, позволив ускорить использование генеративного ИИ/LLM в своих продуктах, опередив Google Cloud и других конкурентов», — сказал Кастаньон.

Какие есть риски генеративного ИИ для бизнеса?

Наряду с потенциальными преимуществами генеративного ИИ предприятия должны учитывать риски. Существуют опасения по поводу использования LLM на рабочем месте в целом, и особенно в отношении второго пилота.

«На данный момент Microsoft 365 Copilot, по мнению Gartner, не является полностью «готовым для предприятий» — по крайней мере, не для предприятий, работающих в регулируемых отраслях или подпадающих под действие правил конфиденциальности, таких как GDPR ЕС или предстоящий Закон об искусственном интеллекте».  — написали аналитики Gartner в недавнем отчете (требуется подписка).

По словам Gartner, хотя Copilot наследует существующие средства управления доступом и корпоративные политики Microsoft 365, их не всегда достаточно для устранения рисков, связанных с использованием LLM. По словам Литана, одного из авторов отчета Gartner, при развертывании Copilot в его нынешнем виде может возникнуть несколько рисков.

Она утверждала, что перед запуском Copilot, вероятно, потребуются дополнительные средства контроля.

Контент-фильтры, чтобы избежать «галлюцинаций»

Одной из проблем для бизнеса является возможность фильтровать информацию, введенную пользователями в LLM, и результаты, которые генерируют инструменты ИИ. Фильтры содержимого необходимы, например, для предотвращения передачи пользователям нежелательной информации, включая «галлюцинации», когда LLM оперируют неверной информацией.

«Галлюцинации могут привести к тому, что плохая информация будет передана другим партнерам, вашим сотрудникам, вашим клиентам, а в худшем случае это может привести к распространению вредоносной активности по всей вашей экосистеме», — сказал Литан. «Поэтому вам нужно фильтровать эти выходные данные на предмет нарушений политики, галлюцинаций и вредоносной активности. Многое может пойти не так».

Хотя служба Azure OpenAI от Microsoft предлагает варианты фильтрации контента для определенных тем («ненависть», «сексуальное поведение», «насилие» и «самоповреждение»), по словам Литана, их недостаточно для устранения ошибок галлюцинаций, присвоения информация, защищенная авторским правом, или предвзятые результаты. По ее словам, клиентам необходимо создавать фильтры, адаптированные к их собственной среде и бизнес-потребностям.

Но «нет возможности [в Copilot] ввести собственные корпоративные политики, чтобы посмотреть на содержимое и сказать: «Это нарушает допустимое использование». Также нет возможности отфильтровать галлюцинации, отфильтровать авторские права. Эти политики нужны предприятиям».

По словам Литана, несмотря на то, что сторонние инструменты фильтрации контента начали появляться, они еще не готовы к использованию. Некоторыми примерами являются AIShield GuArdian и Calypso AI Moderator.

Представитель Microsoft сказал, что компания работает над устранением проблем, связанных с результатами Copilot: «У нас есть большие команды, работающие над решением таких проблем, как дезинформация, фильтрация контента и предотвращение продвижения вредоносного или дискриминационного контента в соответствии с нашими принципами искусственного интеллекта» – сказал представитель.

«Например, мы сотрудничаем и будем продолжать сотрудничать с OpenAI в их работе по согласованию, и мы разработали систему безопасности, которая предназначена для смягчения сбоев и предотвращения неправильного использования таких вещей, как фильтрация контента, оперативный мониторинг и обнаружение злоупотреблений, а также другие меры безопасности».

Платная предварительная версия Copilot будет использоваться для выявления и решения проблем, возникающих перед более широким запуском. «Мы стремимся со временем улучшить качество этого опыта и сделать его полезным и всеобъемлющим инструментом для всех», — сказал представитель.

Защита данных

Защита данных — еще одна проблема из-за возможности утечки конфиденциальных данных в LLM. Это произошло, когда у сотрудников Samsung случайно утекли конфиденциальные данные при взаимодействии с ChatGPT, что привело к запрету компанией на чат-бот от OpenAI, Google Bard и Microsoft Bing.

Microsoft заявила, что Copilot может позволить сотрудникам использовать генеративный ИИ без ущерба для конфиденциальной информации. По данным компании, история подсказок пользователя удаляется после доступа к Copilot, и никакие данные клиентов не используются для обучения или улучшения языковой модели.

Тем не менее, компаниям потребуются «юридически обязывающие гарантии защиты данных», говорится в отчете Gartner.

Модель совместной ответственности Microsoft Azure  означает, что клиенты берут на себя ответственность за защиту своих данных, но это проблематично, когда данные отправляются LLM. «Пользователи несут полную ответственность за свои данные, но они не могут контролировать то, что находится внутри среды LLM, — сказал Литан.

Существуют также соображения соответствия для тех, кто работает в регулируемых секторах, из-за сложного характера Copilot LLM. Поскольку о LLM известно так мало, компаниям трудно гарантировать безопасность данных.

Возможны атаки с внедрением PROMT

Использование LLM также открывает возможность оперативных инъекций, когда злоумышленник перехватывает и контролирует выходные данные языковой модели, а также получает доступ к конфиденциальным данным. Хотя Microsoft 365 имеет корпоративные средства управления безопасностью, «они не направлены на новые функции и контент ИИ», — сказал Литан. «Конечно, устаревшие элементы управления безопасностью необходимы, но вам также нужны вещи, которые смотрят на входы и выходы ИИ. Модель представляет собой отдельный вектор. Это другой вектор атаки и вектор компрометации.

«Безопасность почти никогда не закладывается в продукты во время разработки, пока не произойдет нарушение», — отметила она.

Microsoft заявила, что ее команда работает над решением этих проблем. «В рамках этих усилий мы идентифицируем и фильтруем эти типы подсказок на нескольких уровнях, прежде чем они попадут в модель, и постоянно совершенствуем наши системы в этом отношении», — сказал представитель компании.

«Поскольку система Copilot основана на наших существующих обязательствах по обеспечению безопасности и конфиденциальности данных на предприятии, оперативная инъекция не может использоваться для доступа к информации, к которой пользователь иначе не имел бы доступа. Copilot автоматически наследует политики безопасности, соответствия требованиям и конфиденциальности вашей организации для Microsoft 365».

Как будет развиваться Copilot?

В преддверии полного запуска компания планирует развернуть своего помощника по искусственному интеллекту в максимально возможном количестве приложений Microsoft. Это означает, что функции генеративного ИИ также будут доступны в различных инструментах, включая OneNote, OneDrive, SharePoint и Viva, среди прочих.

Copilot также будет изначально доступен в браузере Edge и может использовать контент веб-сайта в качестве контекста для пользовательских запросов. «Например, когда вы просматриваете файл, которым поделился ваш коллега, вы можете просто спросить: «Каковы основные выводы из этого документа?», — сказала Линдсей Кубасик, менеджер группы продуктов Edge Enterprise, в сообщении блога, объявляющем о особенность.

Microsoft также планирует распространить охват Copilot на другие приложения, которые используют работники, с помощью «плагинов» — по сути, интеграции сторонних приложений. Это позволит помощнику использовать данные, хранящиеся в приложениях других поставщиков программного обеспечения, включая Atlassian, ServiceNow и Mural. По словам Microsoft, для клиентов с ранним доступом доступно 50 таких плагинов, и в конечном итоге ожидается еще «тысячи».

Чтобы помочь предприятиям развернуть помощника ИИ в своих данных, Microsoft создала семантический индекс для Copilot, «сложную карту ваших личных данных и данных вашей компании» и «необходимое условие» для внедрения Copilot в организации. По словам Microsoft, использование индекса должно обеспечить более точный поиск корпоративных данных. Например, когда пользователь запрашивает «Отчет о продажах за март», Semantic Index будет искать не только документы, содержащие эти конкретные термины; он также будет учитывать дополнительный контекст, например, какой сотрудник обычно составляет отчеты о продажах и какое приложение он, вероятно, использует.

Как клиенты M365 могут подготовиться к появлению Copilot?

«Прежде всего, они должны провести проверку концепций и изучить фильтрующие продукты, чтобы попытаться свести к минимуму риски, связанные с ошибками, галлюцинациями и нежелательными результатами. Они должны экспериментировать с ними и использовать их», — сказал Литан.

Гаундер предложил предприятиям рассмотреть возможность предоставления сотрудникам инструкций по использованию генеративных инструментов искусственного интеллекта. Это необходимо независимо от того, внедряют ли они Copilot или нет, поскольку всем предприятиям и ИТ-отделам придется бороться с использованием сотрудниками генеративных инструментов искусственного интеллекта.

«ИТ [могут] сказать: «Мы запрещаем ChatGPT в корпоративной сети», но у всех есть телефоны, поэтому, если вы заняты, вы будете использовать их», — сказал Гаундер. — Значит, есть некий стимул разобраться в этом.

Один из способов подготовить сотрудников — рассказать им о подводных камнях технологии. Это верно для Copilot, потребительской версии ChatGPT или любого другого чат-бота, который может использовать сотрудник.

«Если вы просите ChatGPT дать вам ответ на что-то, это будет отправной точкой, а не конечной точкой», — сказал Гаундер. «Не публикуйте и не используйте что-либо прямо из ChatGPT. Любое утверждение о фактах, сделанное выводом ChatGPT, необходимо перепроверить по источникам, потому что оно может быть сфабриковано.

«Все меняется так быстро, поэтому постоянные программы, которые помогут людям понять основы генеративного ИИ, а также ограничения, будут хорошей подготовкой, что бы ни случилось с Copilot», — сказал он. «Ящик Пандоры открыт: генеративный ИИ скоро придет к вам, даже если вы решите не развертывать его, BYO [‘принесите свой собственный ИИ’]. Так что вам лучше заранее разработать стратегию на этот счет».

Tags:

Добавить комментарий