bugün məsləhət təsadüfi
sözaltı sözlük
postlar Yoxlama mesaj

6 yazar | 6 başlıq | 27 entry
yenilə | gündəm

son entrylər 27 yeni entry
#zirzəmi 1 yeni entry
#sözaltı wiki (3219)


ölüm qorxusu belə belə işlər porno aludəçiliyi gemini supabase semiconductor alex karp ən yaxşı subredditlər black box məşhəd 13 iyun 2025 israilin iranı vurması rigetti quantum computing neural trade əl azərbaycançılıq mozilla firefox kabala ariel hərbi komissarlıq ayətullah xomeyni iran sözaltı yazarları sözaltı sözlük heç vaxt evlənməyəcəyini deyən insan əliağa vahid təl-əviv shor algoritmi cursor azov modern monetary theory carpal tunnel sindromu








black box



facebook twitter əjdaha lazımdı izlə dostlar   mən   googlla

başlıqdakı ən bəyənilən yazılar:

+1 əjdaha

1. "Black box" (qara qutu) termini, texnologiya və xüsusilə süni intellekt sahəsində içində nə baş verdiyi tam olaraq izah edilə bilməyən sistemlər üçün istifadə olunur.

Sadə izahla:
Input verirsən → Output alırsan
Amma içəridə nə cür qərar verdiyini, hansı qayda ilə işlədiyini başa düşmək olmur

Nümunə:
Deyək ki, bir neural network modelinə qiymət qrafikini verdin və o da dedi:

“Bu nöqtədə al, bu nöqtədə sat.”

Sən soruşursan: “Niyə belə qərar verdin?”
Amma cavab yoxdur. Çünki model öz içində milyonlarla parametrə əsaslanıb, onları izah etmir — sadəcə nəticəni verir.

AI sahəsində niyə önəmlidir?
Çünki çox güclü model belə olsa:

Nəticə doğru ola bilər

Amma nə üçün doğru olduğunu izah edə bilmirsə, bu:

Risklidir (xüsusilə maliyyə, səhiyyə, hüquq sahələrində)

insan etibarını azaldır

Black box – ağıllı, amma susqun bir dost kimidir. Sənə düzgün cavab verir, amma niyə belə dediyini soruşanda, çiyinlərini çəkir.


Sam Altman nə deyir?
Sam Altman, OpenAI CEO, açıq şəkildə qəbul edir ki, bu günkü süni intellekt sistemləri — xüsusilə böyük dil modelləri (LLM) — hələ də bir qara qutu olaraq qalır: onlar necə işləyir və nəticələrə hansı yolla çatırlar, tam mənası ilə anlaşılmır .

We certainly have not solved interpretability – Yəni, təfsir edilmə bacarığını (XAI – explainable AI) hələ həll edə bilməmişik
https://futurism.com/sam-altman-admits-openai-understand-ai?utm_source=chatgpt.com


Nə üçün bu problem ciddi sayılır?
Etibarın olmaması
Həkimlik, hüquq, maliyyə kimi həyati sahələrdə qərarların səbəbini açıqca izah etmək olmazsa, güvən davam etməz .

Qanuni tələblər
AB-nin "AI Aktı" kimi yeni qanunlar şəffaflıq tələb edir – amma qara qutu modellər buna uyğun deyil .

Altman etiraf edir: Model nə üçün belə hərəkət edir, hələ anlamırıq.

Bu, hələ başa çatmamış elmi və mühəndislik problemi kimi qalır.

Təfsirli AI (XAI) sahəsi gələcəkdə texnologiyanın etibarlı, təhlükəsiz və qanuni olması üçün vacibdir



hamısını göstər

black box