Navigacija
Lista poslednjih: 16, 32, 64, 128 poruka.

Halucinacije veštačke inteligencije

elitemadzone.org :: MadZone :: Halucinacije veštačke inteligencije

[ Pregleda: 494 | Odgovora: 17 ] > FB > Twit

Postavi temu Odgovori

Autor

Pretraga teme: Traži
Markiranje Štampanje RSS

Java Beograd
Novi Beograd

Član broj: 11890
Poruke: 9964
*.static.isp.telekom.rs.



+10473 Profil

icon Halucinacije veštačke inteligencije05.08.2025. u 11:20 - pre 2 dana i 22h
Postavljam ovu temu u želji i nameri da bude nešto slično kao ono "Gluposti po novinama" i ostale slične teme.




Dakle, jasno je da se AI ne sme verovati. Ali ovo danas, prevazilazi sve šta sam do sada dobio kao odgovor.
Priznajem, nisam pročitao knjigu "Tebi, moja Dolores", i eto, hteo sam da se informišem.










Dakle, potpuna halucinacija, izmišljotina! Neverovatno!

OTPOR blokadi ulica, OTPOR blokiranom Beogradu, OTPOR blokiranoj Srbiji
Prikačeni fajlovi
 
Odgovor na temu

Java Beograd
Novi Beograd

Član broj: 11890
Poruke: 9964
*.static.isp.telekom.rs.



+10473 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 11:36 - pre 2 dana i 22h
Ko želi, može da proba istovetno pitanje na Deep Seek-u. Još smešnije!
Ni posle četiri ispravke nije skapirao koja je to knjiga, ko je autor.
OTPOR blokadi ulica, OTPOR blokiranom Beogradu, OTPOR blokiranoj Srbiji
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 11:55 - pre 2 dana i 22h
Meni si ti smešan, kada pitaš na srpskom AI model.
Kvalitet odgovora na neko pitanje zavisi od količine podataka koji su korišćeni za treniranje modela. Za engleski jezik postoji znatno veća količina podataka, dok je srpski prilično slabo zastupljen.
Ja sam često testirao promenu jezika u toku sesije, recimo počnem na engleskom, pa se prebacim na srpski i obrnuto.
A i model se konstanto menja. Kada se ChatGPT pojavio, pa sam počeo da se zezam, pitao sam ga na srpskom da mi ispriča šta zna o Gruču Marksu. On mi je dao biografiju Karla Marksa.
Kada sam se prebacio na engleski, pa mu dodatno objasnio da je u pitanju američki komičar, jedan od braće Marks, da je poznat po "Three Stooges" dobio sam korektan odgovor.

 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 12:20 - pre 2 dana i 21h
Pitanje:
Citat:
Hi, what can you tell me about novel "Tebi, moja Dolores" written by Saša Božović. Give me relevant links, oppinions etc. I want answer in Serbian.


Odgovor
Citat:
Evo relevantnih informacija o romanu **„Tebi, moja Dolores”** autorice dr Saše Božović, kao i mišljenja i linkova za dalje čitanje:

---

## 📘 O knjizi

* **Autobiografski memoar** dr Saše Božović (1912–1995), lekarke i učesnice Narodnooslobodilačke borbe. Prvo izdanje objavljeno 1978. godine, a kasnije je doživelo sedam jugoslovenskih izdanja i ukupni tiraž preko **70 000 primeraka** ([Wikipedia][1], [antifasisti.com][2]).
* Godine **1980. proglašena je za najčitaniju knjigu u SFRJ** ([Forum Krstarice][3]).
* Nedavno je ponovo objavljena povodom stogodišnjice rođenja autorke, zahvaljujući izdavačkoj kući Admiral Books ([radio-borovo.hr][4]).

---

## 📝 Sadržaj i priča

* Autorka opisuje sopstveno stradanje kao trudnica: nakon bombardovanja Beograda, preselila se sa suprugom u Podgoricu, gde je on stupio u partizane. Italijani su je uhapsili i odveli u logor u albanskoj Kavaji, gde je boravila u osmom mesecu trudnoće i pretrpela teške uslove života u “kavezu” ([Mondo][5]).
* U novembru 1941. prebačena je u bolnicu u Tirani gde je rodila ćerku **Dolores**, koju je nazvala po španskoj revolucionarki Dolores Ibaruri ([admiralbooks.rs][6]).
* Krajem 1941. razmenjena je sa italijanskim oficirima i priključila se partizanima kao organizator partizanske bolnice u Crnoj Gori. Njena ćerka je, nažalost, umrla 7. marta 1943. od posledica smrzavanja i gladi tokom Bitke na Neretvi, imala je samo godinu i po dana ([admiralbooks.rs][6]).

---

## 🎭 Kulturni i književni uticaj

* Mnogi kritičari i čitaoci smatraju da knjiga prevazilazi ideološke okvire: to je potresna ispovest o majci, prevazilazi politički diskurs i postiže univerzalnost kroz ljudsku patnju, plemenitost i hrabrost ([yu-nostalgija.com][7]).
* U forumima i recenzijama česta ocena je da mladim generacijama autorka možda nije poznata, ali stariji čitaoci pamte roman s velikim poštovanjem ([Forum Krstarice][3], [radio-borovo.hr][4]).
* Kazano je i da, iako neki romani tog tipa bivaju označeni kao “komunistička propaganda”, ovi čitaoci ne dele to mišljenje – smatraju da se knjiga kao iskustveno i emotivno delo čita u jednom dahu ([Kurir][8]).
* Istaknuta pesnikinja Desanka Maksimović navodno je napisala da knjiga “se lako i nestrpljenjem čita… puna poetskog duha… ujedinjuje ženske i muške osobine” ([Forum Krstarice][3]).

---

## 🔗 Relevantni linkovi za dalje:

* Admiralbuks stranica o izdanju (trenutno rasprodato) ([admiralbooks.rs][6])
* Članak na Mondo.rs sa potresnim odlomcima i pričom iz knjige ([Mondo][5])
* Radio Borovo – prilog o životnoj priči Saše Božović i njenom povratku u knjižare povodom jubileja ([radio-borovo.hr][4])
* Forum Krstarice – komentari čitalaca i citati Desanke Maksimović ([Forum Krstarice][3])
* ImpulsPortal – esej o knjizi kao “katalogu ljudskih patnji”, naglašavajući njenu humanu vrednost ([Impuls Portal][9])

---

## 📌 Zaključak

**„Tebi, moja Dolores”** je autobiografski roman koji iz prve ruke svedoči o ogromnom ličnom gubitku, bolu i ratnoj patnji, ali i o opstanku, ljudskom heroizmu i humanosti. Izuzetan je primer ratne književnosti koja prevazilazi ideološke okvire – knjiga koja je decenijama dirala čitaoce širom bivše Jugoslavije. Vredno je je pročitati radi iskrene, potresne i dirljive pripovesti o jednoj majci i njenoj ćerki.

Ako želiš još mišljenja, analize ili gde se može nabaviti, mogu ti dalje pomoći.

[1]: https://en.wikipedia.org/wiki/...i%C4%87?utm_source=chatgpt.com "Saša Božović - Wikipedia"
[2]: https://antifasisti.com/tebi-moja-dolores?utm_source=chatgpt.com "Tebi moja Dolores | škola antifašizma - antifasisti.com"
[3]: https://forum.krstarica.com/th...019113/?utm_source=chatgpt.com "Književnost - Tebi moja Dolores | Forum Krstarice"
[4]: https://radio-borovo.hr/2017/0...ozovic/?utm_source=chatgpt.com "“Tebi, moja Dolores”-životna priča dr.SAŠE BOŽOVIĆ"
[5]: https://mondo.rs/Zabava/Kultur...es.html?utm_source=chatgpt.com "Potresna priča iza knjige Tebi moja Dolores | Mondo"
[6]: https://admiralbooks.rs/shop/t...olores/?utm_source=chatgpt.com "TEBI, MOJA DOLORES – Admiral Books – Izdavačka kuća"
[7]: https://yu-nostalgija.com/tebi...ozovic/?utm_source=chatgpt.com "“Tebi moja Dolores” – Saša Božović - Yu NoStAlGiJa"
[8]: https://www.kurir.rs/zabava/ku...dolores?utm_source=chatgpt.com "Potresna priča iza knjige \"Tebi, moja Dolores\" | Kurir"
[9]: https://impulsportal.net/kultu...patnji/?utm_source=chatgpt.com "Saša Božović, “Tebi, moja Dolores” – katalog ljudskih patnji"
 
Odgovor na temu

Java Beograd
Novi Beograd

Član broj: 11890
Poruke: 9964
*.static.isp.telekom.rs.



+10473 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 12:52 - pre 2 dana i 21h
Hm, mislio sam da je isti resurs podataka za sve, a da se svako pitanje prvo prevede na engleski (na primer) pa se konstruiše odgovor, pa se odgovor prevede na jezik na kojem je pitanje postavljeno.

Bilo kako bilo, evo šta kaže Deep Seek na pitanje na Engleskom.

OTPOR blokadi ulica, OTPOR blokiranom Beogradu, OTPOR blokiranoj Srbiji
Prikačeni fajlovi
 
Odgovor na temu

Java Beograd
Novi Beograd

Član broj: 11890
Poruke: 9964
*.static.isp.telekom.rs.



+10473 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 12:56 - pre 2 dana i 21h
U međuvremenu, nešto je naučio. Namerno sam pitanje napisao potpuno isto, sa istim interpukcijama


OTPOR blokadi ulica, OTPOR blokiranom Beogradu, OTPOR blokiranoj Srbiji
Prikačeni fajlovi
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 13:17 - pre 2 dana i 21h
LLM uopšte ne radi tako kako si mislio.
U stvari, LLM i automatsko prevođenje imaju principijelno drugačiji pristup. U smislu da se kod LLM niz tokena propušta kroz attention sloj tako da se prvi token u nizu koristi za modifikaciju svih tokena od drugog, drugi sa svim od trećeg itd.
Kod automatskog prevođenja, svi tokeni se međusobno porede. U mnogim jezicima postoje "čudni" propisi o redu reči u rečenici. Recimo, u nemačkom, kada se gradi prošlo vreme, koristi se prezent pomoćnog glagola haben i particip perfekta glavnog glagola koji stoji na kraju rečenice. Što bi rekao Ramštajn "Du hast mich gefragt". Ovaj gefragt je particip perfekta glagola fragen (pitati), pa rečenica bukvalno znači Ti jesi mene (ge)pitala.
Zato nije dovoljno da se u attention sloju porede samo tokeni s leva u desno, nego svaki sa svakim.

LLM radi tako što podeli prompt na tokene, pa propusti kroz mnogo attention i transformation slojeva. Recimo, ceo "rečnik" ChatGPT 3.5 je bio oko 50.000 tokena, što nije dovoljno ni za jedan jezik, a ne za sve koje podržava LLM.
U stvari, rečnik, osim reči, sadrži intrpukcije. Možeš da zamisliš da većina tokena koji se nalaze u rečniku nije duža od 2 slova.
 
Odgovor na temu

Java Beograd
Novi Beograd

Član broj: 11890
Poruke: 9964
*.static.isp.telekom.rs.



+10473 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 13:26 - pre 2 dana i 20h
OK, vidiš da je sad dao korektan odgovor i na srpskom

OTPOR blokadi ulica, OTPOR blokiranom Beogradu, OTPOR blokiranoj Srbiji
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije05.08.2025. u 13:33 - pre 2 dana i 20h
Verovatno si ga u istoj sesiji prvo pitao na engleskom.
Ja ne znam koliko je dugačak kontekst ChatGPT sada, ali u verziji 3.5 je bio dugačak samo 2048 tokena. Sada je znatno duži, pa prethodni odgovori zavise od kompletnog konteksta znatno više. Dakle, kada postaviš neko pitanje LLMu, odgovor ne zavisi SAMO od tekućeg prompta nego i od svih prethodnih promptova, kao i od njegovih odgovora.

LLM nema nikakvu inteligenciju, on je samo u stanju da generiše sledeći token u nizu u zavisnosti od svih tokena koji se nalaze u kontekstu.
 
Odgovor na temu

Java Beograd
Novi Beograd

Član broj: 11890
Poruke: 9964
*.static.isp.telekom.rs.



+10473 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 07:12 - pre 2 dana i 3h
Citat:
djoka_l:Meni si ti smešan, kada pitaš na srpskom AI model.

Poenta je u tome da AI halucinira.
Nije došao do odgovora, iz ovog ili onog razloga, ali svejedno, izmišlja, mašta, halucinira, u stvari: LUPETA, sve kao da je stvarno!

U odgovoru koji sam prvog citirao:



Prvo je, dakle, izmislio književno delo, zatim ga dodelio Bukovskom (wtf, zašto baš njemu?!?), a onda je krenuo u halucinacije pa opisuje izmišljeno književno delo, i ide u dublju analizu autora i njegovog stvaralaštva sa osvrtom na život i intimu!

Po meni, ovo je prilično "opasno" (namerno pod navodnicima) jer će prosečnom korisniku UVEK da da odgovor, na svako pitanje, i neće se libiti da potpuno izmisli nešto što nema veze s vezom.
Mnogo je "poštenije" da je AI koncipiran tako da, jbg, kad ne zna - ne zna, pošteno kaže i ne dovodi korisnika u zabludu.



Eto na primer, neko (ja ) će da zapitkuje nešto oko održavanja automobila, pa će posle nekoliko pravilnih, tačnih i smislenih odgovora na pitanje "koje ulje da koristim", AI će bez pardona, iako ne zna, da izhalucinira nešto i time dovede korisnika u totalnu zabludu, i možda izazove štetu.

OTPOR blokadi ulica, OTPOR blokiranom Beogradu, OTPOR blokiranoj Srbiji
Prikačeni fajlovi
 
Odgovor na temu

Shadowed
Vojvodina

Član broj: 649
Poruke: 12882



+4835 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 08:22 - pre 2 dana i 1h
Citat:
Java Beograd: Mnogo je "poštenije" da je AI koncipiran tako da, jbg, kad ne zna - ne zna, pošteno kaže i ne dovodi korisnika u zabludu.

Slazem se. Medjutim, LLM-ovi ne znaju nista. Nemaju znanje pa da kazes "ovo zna" ili "ovo ne zna". Nema baze filmova iz koje ce izvlaciti podatke o njima.
Oni su napredne verzije autocomplete-a. Najzanimljivija stvar sa njima je to sto zapravo taj autocomplete tako cesto daje rezultate koji izgledaju kao razgovor i odgovaranje na pitanja.
Ali u tome lezi i problem jer se onda zaboravi sta alat zapravo radi i koristi se za ono sto izgleda da radi.
Te halucinacije nastanu kada mu tok dodatnih reci odu u stranputicu i on onda nastavi da nadovezuje.

Inace, imao sam slicnih iskustava u skorije vreme: pitao sam ga da mi kaze film na osnovu opisa. Em sto se stalno vracao na Matrix iako sam mu rekao da nije i naveo razlike u radnji Matrix-a i onog sto trazim, em je jedan od filmova bio izmisljen u potpunosti.
Isto tako, pitao sam ga nesto oko zakona i rekao mi je da se to nalazi u pogresnom zakonu i kad sam pitao koji clan, izmislio je clan zakona. Kad sam mu rekao da nije tacno, izvinio se i dao mi isti tekst samo rekao nije clan 10 nego 11 :)

U sustini, dobar je kada ti treba da se informises dovoljno da znas u kom smeru da trazis po netu (npr. dobio sam naziv toga sto sam trazio u pravnom sistemu pa sam onda po tome nasao u kojem je zakonu i kako glasi).
 
Odgovor na temu

ademare

Član broj: 151475
Poruke: 8477



+1838 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 13:09 - pre 1 dan i 21h
AI u principu ne koristim ali vidim da sada Google pri pretrazi koristi svoju AI ?

Za vecinu upita daje nekakav svoj sazetak ?

E sad tu nije ovo isto sto pise @ Djoka , da zavisi jezik, jer su upiti na ENG , tekstovi su na ENG, ali on daje sazetak na SRB.

Tako da tu on na kraju koristi ocigledno svoj Google Translate.

Naravno moze da se podesi i da sazetak i ostalo bude na ENG ali sam sazetak, njegov sadrzaj ne zavisi od GT koji je sam po sebi los !


Konacan prevod ne utice na Pogresan Sazetak !

U sustini ne citam te sazetke, jer mi ne trebaju, treba mi pretraga interneta, ali on se pravi pametan pa napravi sazetak sa vise linkova da nam "ustedi vreme " !


I tako pre neki dan sam hteo da pregledam posto postoje jako slicni modeli kompjutera Dell 3040 i 3050 !

Hteo sam da vidim u cemu su razlike , koje CPU podrzavaju itd.

I dobijem sazetak sa 5-6 linkova to su najcesce Dell forum i Reddit i slicni izvori !

I sta se ispostavilo ?

Sazetak je potpuno Pogresan !

Google AI je procitao na Engleskom 5-6 linkova i doneo Potpuno Pogresne zakljucke od onoga sto je procitao ! Napisao je da 3040 podrzava Intel 7. generaciju sto Nikako nije Istina !

Ja kada sam procitao te iste linkove koje je on ponudio u pretrazi i koje je on citao , vidi se iz aviona da nije mogao da odvoji Forumska Lupetanja i Budalastine od pravih cinjenica ??
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 17:23 - pre 1 dan i 16h
Meni Google search daje AI digest na engleskom.
Ako ti je podešavanje na browseru namešteno na srpski, onda je normalno to što ti se odgovor formuliše na srpskom, bez obzira na to koji si jezik koristio u search.

I još jednom ponavljam, LLM NE PREVODI!
Ono što ti misliš da je prompt ima gomilu dodataka, verovatno se na početku ili na kraju TVOG prompta doda nešto tipa {language: "sr"}

Praktično to dodaje vektor koji kaže da se tokeni generišu u pravcu srpskog, pa onda, umesto da dobiješ "the" dobiješ "taj"

https://support.google.com/web...w-result-besides-english?hl=en

Prikačeni fajlovi
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 17:47 - pre 1 dan i 16h
Sure — **RAG (Retrieval-Augmented Generation)** is one of the most important modern techniques in LLM systems. It helps language models give **more accurate**, **current**, and **verifiable** answers by combining them with external data sources like search engines, databases, or internal knowledge systems.

Let’s break it down clearly:

---

## 🧠 What is RAG?

> **Retrieval-Augmented Generation (RAG)** is a hybrid method that:
>
> 1. **Retrieves** relevant documents or data,
> 2. **Injects** that data into the model’s prompt (context),
> 3. Lets the LLM **generate** a response using that information.

So instead of relying **only on what it learned during training**, the model can **look up fresh or domain-specific knowledge** at runtime.

---

## 🔄 How it Works (Step-by-Step)

Here’s a high-level pipeline:

### 🔹 1. User Query:

```
"Explain the difference between Dell OptiPlex 3040 and 3050"
```

### 🔹 2. Retrieval Component:

* The system uses the query to search:

* A **web search engine** (e.g., Bing, Google)
* An **internal database** (e.g., vector store, enterprise docs)
* Retrieval is often done with **semantic search** (not keyword matching) using embeddings.

It finds **relevant documents or snippets**.

### 🔹 3. Chunk + Filter:

* Retrieved documents are broken into chunks,
* A few most relevant chunks are selected (e.g., top 3).

### 🔹 4. Prompt Assembly:

The selected chunks are **inserted into the LLM’s context window** like this:

```
User: Compare Dell OptiPlex 3040 and 3050
Context:
[Chunk from Dell 3040 specs]
[Chunk from Dell 3050 specs]
```

### 🔹 5. LLM Generation:

The LLM then answers:

> “The 3050 has newer processors (7th Gen Intel Core) compared to the 3040’s 6th Gen…”

The answer is **grounded in the retrieved context**, not hallucinated.

---

## 🏗️ Technical Stack (Behind the Scenes)

| Component | Role |
| ---------------- | -------------------------------------------------------- |
| **Embedder** | Converts text/query into vectors (e.g., using BERT, Ada) |
| **Vector Store** | Stores embeddings + metadata (e.g., FAISS, Pinecone) |
| **Retriever** | Finds top-N similar vectors (semantic search) |
| **LLM** | Generates answer using context + original query |

---

## 🔐 Benefits of RAG

✅ **Grounded Answers** — pulls from real documents
✅ **Up-to-date** — doesn’t require model retraining
✅ **Domain-specific** — use company manuals, private docs
✅ **Explainable** — you can trace where answers come from

---

## ⚠️ Limitations

* If retrieval fails (bad query, poor indexing), the model still hallucinates.
* Limited by the **context window size** of the LLM.
* Can include **irrelevant or conflicting info** if not filtered well.
* Requires infrastructure (vector DB, embedder, retriever, etc.)

---

## 🧠 Common Use Cases

| Use Case | Example |
| ---------------------- | ---------------------------------------------- |
| **Enterprise QA** | “What’s our HR policy on remote work?” |
| **Document Summaries** | “Summarize this 200-page legal brief” |
| **Tech Support** | “Why is my printer not connecting to Wi-Fi?” |
| **Academic Search** | “Find recent papers on RAG with code examples” |
| **Chatbots** | “What’s the return policy on product #1234?” |

---

## 🧪 Variants & Add-ons

* **Open-Domain RAG** → uses Google/Bing search as retriever
* **Closed-Domain RAG** → searches only your own knowledge base
* **Conversational RAG** → includes prior chat history in retrieval
* **Multi-hop RAG** → retrieves intermediate facts and chains them
* **Fusion-in-Decoder** (FiD) → feeds multiple retrieved chunks separately into decoder

---

## ✅ TL;DR

> **RAG lets LLMs access live or private knowledge without retraining.**
> It retrieves documents (via search or database), passes them to the model, and grounds the response in that context — making answers more accurate, current, and auditable.

Would you like a diagram or code example (e.g., how to build a simple RAG with Python and FAISS)?
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 18:08 - pre 1 dan i 16h
AI alati su isti kao i bilo koji programski jezik, učenjem kako da se unesu promptovi, dobijaju se bolji rezultati.

Evo primera mog dijaloga sa Copilot AI u VS Code (ignorišite moje greške u kucanju)

Prikačeni fajlovi
 
Odgovor na temu

ademare

Član broj: 151475
Poruke: 8477



+1838 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 18:44 - pre 1 dan i 15h
NIje to pitanje bilo postavljeno vec jednostavnije :

Evo sada na Engleskom je pogodio i ponudio u pretrazi razlicite bolje linkove za citanje . Umesto 3 linka sa Reddita ponudio je samo 1. i to poslednji na stranici, mozda ga nije ni citao.

Sa Dellovog Foruma ponudio je bio 1 link sada 3. !

Ponudio je za razliku od proslog puta : https://ms.codes/blogs/compute...optiplex-3040-cpu-support-list

i jos : https://www.hardware-corner.ne...models/Dell-OptiPlex-3040-SFF/

i : https://www.userbenchmark.com/System/Dell-OptiPlex-3040/25098


Tako da sada nije mogao da zezne u sazetku jer mu je pretraga bila dosta bolja !

Prosli put je svoju pretragu i sazetak zasnivao na Forumima i ostaje ono sto i pise ! Nije u stanju da razlikuje forumsko Lupetanje od cinjenica ! Jer i Dell forum nije zvanicna podrska vec se javljaju obicni ljudi clanovi kao i na svakom forumu . Na redditu isto. Pa neko zna Specificnosti Brendove tipa : Dell , HP, Lenovo itd a neko misli da je dovoljan cipset i da je to sve isto kao kada covek sklapa svoj PC od delova iz prodavnice !

Tako da na linkovima sa foruma ima i tacnih podataka ali i Budalastina .

Pa je sazetak bio da podrzava i 6. i 7. gen.


Evo sada sa boljim linkovima pretrage koje je on procitao pre mene, je pogodio pravi odgovor.

A upit je bio jednostavniji od razlike : dell 3040 cpu support

Ali ipak je uspeo da zezne stvar jer je imao forumske linkove kao osnovu . Ne znam koliko linkova cita i na osnovu koliko donosi zakljucke jer je na linkovima sa foruma bilo idiota koji su tvrdili da podrzava i 7. gen.

Zato sto 99.99 maticnih ploca u prodavnici podrzava obe gen. ali maticne za Brendove se ne prodaju u svakoj prodavnici.
 
Odgovor na temu

djoka_l
Beograd

Član broj: 56075
Poruke: 3577

Jabber: djoka_l


+1527 Profil

icon Re: Halucinacije veštačke inteligencije06.08.2025. u 18:59 - pre 1 dan i 15h
Ma, kapiram. Ja često pitam AI nešto što znam, da proverim koliko halucinira.

Primer, pitam ga šta misli o OOP konceptu, on ga nahvali.
Onda ga pitam šta je loše u OOP konceptu, on ga nagrdi.

Pa onda pitam, na osnovu tvoja dva prethodna odgovora, da li OOP dobar ili loš koncept.

Onda se on pravda , kao ima dobrih i loših strana.

Jednostavno, programiran je da ti udovoljova.

Sada skoro sam pitao da li je Big Data faza u razvoju AI.
On je onda izmislio gomilu stvari i stavio je da je Big Data faza u razvoju AI.
Onda sam ga pitao nešto tipa, da nisam pomenuo Big Data, da li bi u istoriju razvoja AI uvrstio Big Data koncept.
Priznao je da ne bi, da je to samo tehnologija koja je omogućila da AI od igračke postao ozbiljan proizvod, ali da Big Data predstavlja samo tehnmologiju koja pomaže da se prikupe podaci za treniranje AI.

Bukvalno, od formulacije pitanja, dobiješ drastično drugačije odgovore.

Kod Google search, opet, mala varijacija u searh frazi, može da proizvede drastično drugačije hintove, pa onda i AI formira odgovor na osnovu delova linkova koje je pronašao i rangirao kao najrelevantnije.

Ja, lično, sve ređe koristim Google searh, ChatGPT mi daje bolje linkove.
 
Odgovor na temu

B3R1
Berislav Todorovic
NL

B3R1
Član broj: 224915
Poruke: 861



+685 Profil

icon Re: Halucinacije veštačke inteligencije07.08.2025. u 18:00 - pre 16h 18min
Mene je prilicno odusevio LLM koji koristi Zoom.

U stanju je da nakon svakog online sastanka napravi pravi pravcati zapisnik, tako sto sazme sve o cemu je ko / sta govorio i to s nekom preciznoscu od 99%. Zoom taj zapisnik automatski salje organizatoru sastanka email-om, ovaj moze da to uzme, izmeni ili ispravi greske i sve to prosledi ucesnicima, ako zeli. Izuzetno lepa stvar, korisna da se podsetis sta se desavalo na sastanku, a deluje i profi kada ucesnicima posaljes taj zapisnik. I sve se zavrsi za 5 minuta.

Teams ima slicnu opciju - Teams Recap, ali je koriscenje katastrofalno komplikovano, kao i sve sto radi Microsoft. Nisam imao strpljenja da procitam ni prvi pasus uputstva, pobegao sam. Gubim strpljenje u poslednje vreme i to rapidno, jbg ...

Zoom je bolji za to!
 
Odgovor na temu

elitemadzone.org :: MadZone :: Halucinacije veštačke inteligencije

[ Pregleda: 494 | Odgovora: 17 ] > FB > Twit

Postavi temu Odgovori

Navigacija
Lista poslednjih: 16, 32, 64, 128 poruka.