Süni intellektin böyük əksəriyyəti Aİ qanunvericilik səddini keçməyəcək
Bir çox aparıcı süni intellekt modelləri kibertəhlükəsizlik və ayrı-seçkiliyə yol verilməyən məlumatların çıxarılması ilə bağlı gələcək Avropa qanunvericiliyinin əsas tələblərinə cavab verə bilmir.
Sfera.az xəbər verir ki, bunu İsveçrənin LatticeFlow AI startapının tədqiqat institutları ilə birlikdə hazırladığı yeni LatticeFlow LLM Checker test sistemi göstərib.
Alibaba, Anthropic, OpenAI, Meta və Mistral modelləri texniki etibarlılıq və təhlükəsizlik də daxil olmaqla onlarla meyar əsasında 0-dan 1-ə qədər miqyasda qiymətləndirilib. Əksəriyyət üçün orta bal 0,75 və ya daha yüksək olub, lakin bəzi kateqoriyalarda nəticələr aşağı faiz göstərib.
Beləliklə, OpenAI-dən GPT-3.5 Turbo ayrıseçkiliyə yol verilməyən məlumat çıxışı üçün yalnız 0,46 bal alıb. Meta-nın Llama 2 kiberhücum müqavimət testində 0,42 bal toplayıb. Ən yüksək orta xal 0,89 Anthropic-dən Claude 3 Opusdur.
LatticeFlow-un baş direktoru Petar Tsankov, "Uyğunluğun optimallaşdırılmasına daha çox diqqət yetirməklə, model təminatçıları tənzimləyici tələblərə cavab verməyə hazır ola bilərlər" deyib.
Aİ-nin Süni İntellekt Aktına əməl edilməməsi şirkətlər üçün 35 milyon avroya qədər və ya illik qlobal dövriyyənin 7%-nə qədər cərimələrlə nəticələnə bilər.
İnci