Един от най-големите поддръжници на ИИ предупреждава служителите си да внимават с технологията
Alphabet Inc предупреждава служителите си за това как използват чатботове, включително собствения си Bard, като същевременно с това прави приложението достъпно по света, предаде Ройтерс, позовавайки се на запознати източници.
Компанията майка на Google е посъветвала служителите си да не въвеждат поверителни материали в чатботове с изкуствен интелект, твърдят източниците, цитирайки дългогодишна политика на компанията за защита на информацията.
Чатботовете, сред които Bard и ChatGPT, са програми, които използват т.нар. генеративен изкуствен интелект, за да водят разговори с потребителите и да отговарят на безброй питания. Освен че човешките рецензенти могат да четат чатовете, виждайки споделената информация, изследователите откриха, че такъв тип ИИ може да възпроизведе данните, които е усвоил по време на обучение, създавайки риск от изтичане на информация.
Alphabet също така е предупредила своите инженери да избягват директното използване на компютърен код, който чатботовете могат да генерират, твърдят източниците.
От Ройтерс са потърсили компанията за коментар, като тя е отговорила, че макар Bard да може да прави нежелани предложения за код, той помага програмистите. От Google също така отбелязват, че се стремят да бъдат прозрачни относно границите на технологията.
Притесненията показват как Google иска да избегне вредата за бизнеса от софтуера, който стартира в конкуренция с ChatGPT. Залогът в надпреварата на Google срещу поддръжниците на ChatGPT - OpenAI и Microsoft Corp, са инвестиции за милиарди долари и несметни приходи от реклама и облачни услуги, свързани с новите ИИ програми.
Предпазливостта на Google също отразява и превръщащото се в стандартно за корпорациите предупреждение срещу използването на публично достъпни програми за чат.
Все по-голям брой компании по света приемат ограничителни мерки срещу използването на чатботове с изкуствен интелект, включително Samsung, Amazon и Deutsche Bank.
Около 43% от професионалистите са използвали ChatGPT или други ИИ инструменти към януари, често без да казват на шефовете си, според проучване на социалната мрежа Fishbowl сред близо 12 000 респонденти, включително от водещи компании, базирани в САЩ.
През февруари Google каза на персонала, който тества Bard преди стартирането му, да не му предоставя вътрешна информация, съобщи Insider. Сега Google пуска Bard в повече от 180 държави и на 40 езика като трамплин за креативност, като предупрежденията се разпростират и върху предложенията за код.
От Google са заявили пред Ройтерс, че са провели задълбочени разговори с Комисията за защита на данните на Ирландия и са отговорили на въпроси на регулаторите, след като във вторник Politico съобщи, че компанията отлага пускането на Bard в ЕС, което бе предвидено за тази седмица, в очакване на повече информация за въздействието на чатбота върху поверителността.
Тревоги относно чувствителната информация
Този тип технология може пише имейли, документи и дори софтуер, носейки със себе си обещанието за значително ускоряване на изпълнението на задачите. В създаденото от ИИ съдържание обаче може да има дезинформация, чувствителни данни или дори защитени с авторски права пасажи от романа „Хари Потър“.
Известие за поверителност на Google, актуализирано на 1 юни, също гласи: „Не въвеждайте поверителна или чувствителна информация в комуникацията с Bard.“
Някои компании са разработили софтуер за справяне с подобни проблеми. Например Cloudflare, който защитава уебсайтове от кибератаки и предлага други облачни услуги, предлага на пазара възможност за бизнеса да маркира и ограничава някои данни от външния поток.
Google и Microsoft също предлагат на бизнес клиенти инструменти за разговор, които ще са по-скъки, но ще се въздържат от усвояване на данни в публични ИИ модели. Настройката по подразбиране в Bard и ChatGPT е да се запазва историята на разговорите на потребителите, която те могат да изберат да изтрият.
Логично е компаниите да не искат служителите им да използват публични чатботове за работа, каза Юсуф Мехди, главен маркетинг директор за потребителите на Microsoft.
„Компаниите заемат надлежно консервативна позиция“, каза Мехди, като обясни как безплатният чатбот Bing на Microsoft може да бъде сравнен корпоративния софтуер. „Там политиката ни е много по-строга“, добави той.
Microsoft е отказал да коментира дали има пълна забрана служителите да въвеждат поверителна информация в публичните програми за изкуствен интелект, включително в своите собствени, въпреки че друг изпълнителен директор е коментирал на Ройтерс, че той лично е ограничил използването на технологията.
Ключови думи
|
|
Коментари
Няма въведени кометари.