Anthropic, compania din spatele chatbot-ului Claude, îşi relaxează politica de siguranţă AI în aceeaşi săptămână în care refuză ultimatumul Pentagonului privind armele autonome şi supravegherea în masă

Anthropic, compania americană de inteligenţă artificială care dezvoltă chatbot-ul Claude, şi-a înlocuit politica de siguranţă cu un cadru mai flexibil, renunţând la angajamentul ferm de a opri antrenarea modelelor AI dacă acestea depăşesc capacitatea companiei de a le controla. Schimbarea vine în aceeaşi săptămână în care Anthropic se află într-un conflict deschis cu Pentagonul, care ameninţă compania cu pierderea unui contract de 200 de milioane de dolari şi cu includerea pe o listă neagră guvernamentală.

Informatie preluata din publicatia Ziarul Financiar - citeste integral articolul - click aici

Alte articole

Ooni Koda
© Copyright 2023 InfoBursa

Web Design by Dow Media | Gazduire Web by SpeedHost.ro