Група технологични компании се съюзиха за безопасно разработване на напреднали AI модели
Четири от водещите компании за изкуствен интелект – Anthropic, Google, Microsoft и OpenAI – обединиха усилията си за контрол на AI. Нова изследователска група, наречена Frontier Model Forum (FMF),
трябва да гарантира безопасното и отговорно разработване на усъвършенствани AI модели в условия на нарастваща обществена загриженост и внимание от страна на регулаторите по целия свят, пише
TechNews.bg.
През последните месеци четирите американски компании въведоха в употреба мощни AI инструменти, способни да създават оригинално съдържание под формата на изображения, текст и видео. Това предизвика
възмущение както от писатели, така и от художници, че технологията нарушава техните авторски права, и подхрани страховете на регулаторите за неприкосновеността на личния живот на гражданите и
възможността за замяна на хора с AI в различни човешки дейности, отбелязва Arstechnica.
"Компаниите, които създават AI технологии, носят отговорността да гарантират, че те са безопасни, защитени и под човешки контрол", каза Брад Смит, президент на Microsoft.
Членството в организацията е ограничено до компании, които създават широкомащабни модели за машинно обучение, които превъзхождат най-съвременните достъпни AI инструменти. Това предполага, че
групата ще се фокусира върху потенциалните рискове, породени от много по-мощен AI, вместо да отговаря на въпроси относно авторското право, защитата на данните и поверителността, които са от
значение за регулаторите днес.
Frontier Model ще насърчи изследванията за безопасността на AI и ще служи като мост между индустрията и законодателите. Подобни групи са създавани и преди – например, The Partnership on AI (GPAI)
от 2016 г. с участието на Google, Microsoft, представители на гражданското общество, академичните среди и индустрията. Мисията ѝ беше да насърчава отговорното използване на AI.
Появата на Frontier Model Forum подчертава важността на прозрачността, отчетността и сигурността в областта на изкуствения интелект. Това е стъпка напред в управлението на рисковете, свързани с
усъвършенстваните AI модели, и важен момент в историята на технологичното развитие.