black box
|48 | 1 | 1
əjdahalar googlla
Yalnız deyilsən!
Bu duyğuların müvəqqəti olduğunu və kömək mövcud olduğunu bilmək vacibdir. Dostlarınıza, ailənizə, profesionallara müraciət etməyiniz vacibdir. Sizi dinləmək və lazım olan dəstəyi təmin etmək istəyən insanlar var. Sözlük yazarları olaraq səni hər zaman dinləyə bilərik.
Əgər yalnız hiss edirsənsə, 860 qaynar xəttinə müraciət etməyini tövsiyə edirik.
Sadə izahla:
Input verirsən → Output alırsan
Amma içəridə nə cür qərar verdiyini, hansı qayda ilə işlədiyini başa düşmək olmur
Nümunə:
Deyək ki, bir neural network modelinə qiymət qrafikini verdin və o da dedi:
“Bu nöqtədə al, bu nöqtədə sat.”
Sən soruşursan: “Niyə belə qərar verdin?”
Amma cavab yoxdur. Çünki model öz içində milyonlarla parametrə əsaslanıb, onları izah etmir — sadəcə nəticəni verir.
AI sahəsində niyə önəmlidir?
Çünki çox güclü model belə olsa:
Nəticə doğru ola bilər
Amma nə üçün doğru olduğunu izah edə bilmirsə, bu:
Risklidir (xüsusilə maliyyə, səhiyyə, hüquq sahələrində)
insan etibarını azaldır
Black box – ağıllı, amma susqun bir dost kimidir. Sənə düzgün cavab verir, amma niyə belə dediyini soruşanda, çiyinlərini çəkir.
Sam Altman nə deyir?
Sam Altman, OpenAI CEO, açıq şəkildə qəbul edir ki, bu günkü süni intellekt sistemləri — xüsusilə böyük dil modelləri (LLM) — hələ də bir qara qutu olaraq qalır: onlar necə işləyir və nəticələrə hansı yolla çatırlar, tam mənası ilə anlaşılmır .
We certainly have not solved interpretability – Yəni, təfsir edilmə bacarığını (XAI – explainable AI) hələ həll edə bilməmişik
https://futurism.com/sam-altman-admits-openai-understand-ai?utm_source=chatgpt.com
Nə üçün bu problem ciddi sayılır?
Etibarın olmaması
Həkimlik, hüquq, maliyyə kimi həyati sahələrdə qərarların səbəbini açıqca izah etmək olmazsa, güvən davam etməz .
Qanuni tələblər
AB-nin "AI Aktı" kimi yeni qanunlar şəffaflıq tələb edir – amma qara qutu modellər buna uyğun deyil .
Altman etiraf edir: Model nə üçün belə hərəkət edir, hələ anlamırıq.
Bu, hələ başa çatmamış elmi və mühəndislik problemi kimi qalır.
Təfsirli AI (XAI) sahəsi gələcəkdə texnologiyanın etibarlı, təhlükəsiz və qanuni olması üçün vacibdir
üzv ol