Китайски регулатори проверяват моделите за генеративен ИИ за „социалистически ценности“
Компаниите за изкуствен интелект в Китай са подложени на правителствен преглед на своите големи езикови модели (LLM), целящ да гарантира, че те „въплъщават основните социалистически ценности“, според информация на в. Financial Times, цитирана от CNBC.
Прегледът се извършва от Администрацията за киберпространство на Китай (CAC), главният правителствен регулатор на интернет, и ще обхване играчи от целия спектър, от технологични гиганти като ByteDance и Alibaba към малки стартиращи фирми.
AI моделите ще бъдат тествани от местни служители на CAC за техните отговори на различни въпроси, много от които са свързани с политически чувствителни теми и китайския президент Си Дзинпин, каза FT. Данните за обучение на модела и процесите за безопасност също ще бъдат прегледани.
Анонимен източник от базирана в Ханджоу компания за изкуствен интелект, който говори с FT, каза, че техният модел не е преминал първия кръг от тестове по неясни причини. Те преминаха само за втори път след месеци на „отгатване и коригиране."
Последните усилия на CAC илюстрират как Пекин върви по въжето между настигането на САЩ по отношение на GenAI, като същевременно следи отблизо развитието на технологията, като гарантира, че генерираното от AI съдържание се придържа към неговите стриктни политики за цензура в интернет.
Страната беше сред първите, които финализираха правилата, управляващи генеративния изкуствен интелект миналата година, включително изискването AI услугите да се придържат към „основните ценности на социализма“ и да не генерират „незаконно“ съдържание.
Спазването на политиките за цензура изисква „филтриране на сигурността“ и е усложнено, тъй като китайските LLM все още се обучават на значително количество съдържание на английски език, казаха множество инженери и хора от индустрията пред FT.
Според доклада филтрирането се извършва чрез премахване на „проблемната информация“ от данните за обучение на AI модел и след това създаване на база данни с думи и фрази, които са чувствителни.
Съобщава се, че разпоредбите са накарали най-популярните чатботове в страната често да отказват да отговарят на въпроси по чувствителни теми като протестите на площад Тянанмън през 1989 г.
По време на тестването на CAC обаче има ограничения за броя на въпросите, които LLM могат да отхвърлят директно, така че моделите трябва да могат да генерират „политически коректни отговори“ на чувствителни въпроси.
Експерт по изкуствен интелект, работещ върху чатбот в Китай, каза на FT, че е трудно да се попречи на LLM да генерират цялото потенциално вредно съдържание, така че вместо това те изграждат допълнителен слой в системата, който замества проблемните отговори в реално време.
Регламентите, както и санкциите на САЩ, които ограничават достъпа до чипове, използвани за обучение на LLM, затрудниха китайските фирми да стартират свои собствени услуги, подобни на ChatGPT. Китай обаче доминира в глобалната надпревара в генеративните патенти за ИИ.
Ключови думи
|
|
Коментари
Няма въведени кометари.