bugün məsləhət təsadüfi
sözaltı sözlük
postlar Yoxlama mesaj

12 yazar | 20 başlıq | 23 entry
yenilə | gündəm

son entrylər 23 yeni entry
#sözaltı wiki (3238)


the accursed share ai alətləri və materialları söz6 application soz6 app yazarların 17 yaşlarındakı hallarına deyəcəkləri acı uşaqlıq xatirələri test başlığı bugünkü xoşbəxtlik səbəbi zyzz diogo jota ad günündə yalnız qalmaq plagiat mahnılar kurtlar vadisi | kino sözaltı demis roussos american party sözaltı fotoqrafiya mülki müdafiə | elm aşura yazarların həyat prinsipləri yolka albina pyaksheva maskalanmış depresssiya çiqan həyatdan bir anda soyudan şeylər köhnə yazarlar xroniki stress introvertlik gecə terroru çiqan maskalanmış depresssiya








black box



facebook twitter əjdaha lazımdı izlə dostlar   mən   googlla

başlıqdakı ən bəyənilən yazılar:

+2 əjdaha

1. "Black box" (qara qutu) termini, texnologiya və xüsusilə süni intellekt sahəsində içində nə baş verdiyi tam olaraq izah edilə bilməyən sistemlər üçün istifadə olunur.

Sadə izahla:
Input verirsən → Output alırsan
Amma içəridə nə cür qərar verdiyini, hansı qayda ilə işlədiyini başa düşmək olmur

Nümunə:
Deyək ki, bir neural network modelinə qiymət qrafikini verdin və o da dedi:

“Bu nöqtədə al, bu nöqtədə sat.”

Sən soruşursan: “Niyə belə qərar verdin?”
Amma cavab yoxdur. Çünki model öz içində milyonlarla parametrə əsaslanıb, onları izah etmir — sadəcə nəticəni verir.

AI sahəsində niyə önəmlidir?
Çünki çox güclü model belə olsa:

Nəticə doğru ola bilər

Amma nə üçün doğru olduğunu izah edə bilmirsə, bu:

Risklidir (xüsusilə maliyyə, səhiyyə, hüquq sahələrində)

insan etibarını azaldır

Black box – ağıllı, amma susqun bir dost kimidir. Sənə düzgün cavab verir, amma niyə belə dediyini soruşanda, çiyinlərini çəkir.


Sam Altman nə deyir?
Sam Altman, OpenAI CEO, açıq şəkildə qəbul edir ki, bu günkü süni intellekt sistemləri — xüsusilə böyük dil modelləri (LLM) — hələ də bir qara qutu olaraq qalır: onlar necə işləyir və nəticələrə hansı yolla çatırlar, tam mənası ilə anlaşılmır .

We certainly have not solved interpretability – Yəni, təfsir edilmə bacarığını (XAI – explainable AI) hələ həll edə bilməmişik
https://futurism.com/sam-altman-admits-openai-understand-ai?utm_source=chatgpt.com


Nə üçün bu problem ciddi sayılır?
Etibarın olmaması
Həkimlik, hüquq, maliyyə kimi həyati sahələrdə qərarların səbəbini açıqca izah etmək olmazsa, güvən davam etməz .

Qanuni tələblər
AB-nin "AI Aktı" kimi yeni qanunlar şəffaflıq tələb edir – amma qara qutu modellər buna uyğun deyil .

Altman etiraf edir: Model nə üçün belə hərəkət edir, hələ anlamırıq.

Bu, hələ başa çatmamış elmi və mühəndislik problemi kimi qalır.

Təfsirli AI (XAI) sahəsi gələcəkdə texnologiyanın etibarlı, təhlükəsiz və qanuni olması üçün vacibdir



hamısını göstər

black box