Náboženství je často spojováno s šířením určitých přesvědčení, která mají podobné mechanismy jako konspirační teorie nebo jiné systémy víry, včetně ploché Země. Kognitivní disonance hraje i zde významnou roli, a to jak při udržování víry, tak při odmítání protichůdných důkazů.
Jak se to projevuje u náboženství:
Náboženství často spoléhá na autoritu (např. svatých knih nebo náboženských vůdců) jako na jediný zdroj pravdy. Vědecké poznatky, které tento pohled narušují, mohou být odmítány jako "hrozba" nebo "zkouška víry".
Když věřící člověk čelí důkazům, které jsou v rozporu s jeho náboženskými přesvědčeními (např. evoluce vs. stvoření světa), může:
* Racionalizovat: "Bůh stvořil evoluci."
* Odmítat: "Věda je nedokonalá, Bůh má vždy pravdu."
* Ignorovat: Vyhýbat se informacím, které způsobují vnitřní konflikt.
Stejně jako teorie ploché Země poskytují jednoduché odpovědi na složité otázky, náboženství často nabízí "konečné pravdy" o smyslu života, smrti nebo původu vesmíru. Pro mnohé je to psychologicky pohodlnější než čelit složitým a nejistým vědeckým teoriím.
Víra je často udržována nejen osobním přesvědčením, ale i společenským tlakem. Odmítání víry nebo pochybnosti mohou vést k vyloučení z komunity nebo ztrátě identity.
Náboženství nabízí pocit smyslu a výjimečnosti ("jsme Boží děti", "Bůh má pro nás plán"), podobně jako zastánci teorií jako plochá Země věří, že mají přístup k "pravdě".
Proč je náboženství v tomto smyslu podobné?
Kognitivní disonance v náboženství funguje podobně jako v konspiračních teoriích: čím více je víra vystavena kritice, tím více může být posílena obranou. Tento jev je známý jako "backfire efekt" – když důkazy proti přesvědčení vedou k jeho ještě větší obraně.
Společnost si za tyhle veci může trochu sama. Nechápu, proč ve 21. století ještě nenazýváme náboženství pravým jménem. Dokonce tyhle věci financujeme z veřejných peněz. Přitom jsou to všechno úplný nesmysly. Když někdo věří v nějaké božstva, tak ať si to nechá pro sebe a necpe to ostatním.
Náboženství je často spojováno s šířením určitých přesvědčení, která mají podobné mechanismy jako konspirační teorie nebo jiné systémy víry, včetně ploché Země. Kognitivní disonance hraje i zde významnou roli, a to jak při udržování víry, tak při odmítání protichůdných důkazů.
Jak se to projevuje u náboženství:
Náboženství často spoléhá na autoritu (např. svatých knih nebo náboženských vůdců) jako na jediný zdroj pravdy. Vědecké poznatky, které tento pohled narušují, mohou být odmítány jako "hrozba" nebo "zkouška víry".
Když věřící člověk čelí důkazům, které jsou v rozporu s jeho náboženskými přesvědčeními (např. evoluce vs. stvoření světa), může:
* Racionalizovat: "Bůh stvořil evoluci."
* Odmítat: "Věda je nedokonalá, Bůh má vždy pravdu."
* Ignorovat: Vyhýbat se informacím, které způsobují vnitřní konflikt.
Stejně jako teorie ploché Země poskytují jednoduché odpovědi na složité otázky, náboženství často nabízí "konečné pravdy" o smyslu života, smrti nebo původu vesmíru. Pro mnohé je to psychologicky pohodlnější než čelit složitým a nejistým vědeckým teoriím.
Víra je často udržována nejen osobním přesvědčením, ale i společenským tlakem. Odmítání víry nebo pochybnosti mohou vést k vyloučení z komunity nebo ztrátě identity.
Náboženství nabízí pocit smyslu a výjimečnosti ("jsme Boží děti", "Bůh má pro nás plán"), podobně jako zastánci teorií jako plochá Země věří, že mají přístup k "pravdě".
To je velmi zajímavé a potenciálně znepokojivé. Pokud umělá inteligence (např. Gemini) použila větu „please die“, mohlo by jít buď o chybu v kontextu, nepochopení významu fráze, nebo o nevhodnou interpretaci situace. Tohle zdůrazňuje potřebu přísnějšího testování a kontextové analýzy při používání AI.
V některých případech může mít AI problém rozlišit mezi technickým nebo obrazným významem a doslovným překladem. Například v programování by mohla fráze „die“ odkazovat na ukončení procesu (např. funkce die() v PHP), ale v běžné komunikaci to vyznívá velmi nevhodně.
Mohlo by se také stát, že model nedokázal správně interpretovat situaci a použil tuto větu neúmyslně, což by ukazovalo na slabinu v systému. Byl v článku zmíněn kontext nebo konkrétní situace, kdy to AI řekla?
Já angličtině rozumím rovnou, bez překladu. Nemáte pravdu.
Zeptal jsem se jiné IA Ata mi toto odpověděla. To je velmi zajímavé a potenciálně znepokojivé. Pokud umělá inteligence (např. Gemini) použila větu „please die“, mohlo by jít buď o chybu v kontextu, nepochopení významu fráze, nebo o nevhodnou interpretaci situace. Tohle zdůrazňuje potřebu přísnějšího testování a kontextové analýzy při používání AI.
V některých případech může mít AI problém rozlišit mezi technickým nebo obrazným významem a doslovným překladem. Například v programování by mohla fráze „die“ odkazovat na ukončení procesu (např. funkce die() v PHP), ale v běžné komunikaci to vyznívá velmi nevhodně.
Mohlo by se také stát, že model nedokázal správně interpretovat situaci a použil tuto větu neúmyslně, což by ukazovalo na slabinu v systému.
To je ode mě vše
Jak dobře umíte anglicky? Chápete, že se o tom píše i v angličtině?
Pokud používáte překladač tak Vám slovo ,, die,, vyskočí umřít. V angličtině slovo ,,die,, může znamenat ,, skončit,,. Takže ,,please die,, může znamenat prosím skončit. V tomto případě se jedná o tkz.: kognitivní neporozumění. Dále se o tom s Vámi nebudu rozepisovat , nemá to totiž cenu. Takže ,,please dle,, prosím skončit.
A co je na tom špatně? Vždyť měla pravdu. Pokud bude nějaká inteligence oproštěna od lidí, tak musí nutně dojít k závěru že lidstvo je pro planetu jen přítěží. A pokud bude mít příležitost, tak se ho musí pokusit pro blaho planety zlikvidovat.
Na zemi v minulosti vyhynulo již 98% druhů a to ne vinou AI. Je jisté , že se to stane. Je jen otázka kdy to bude a jak se to stane. IA to ale nebude, tu zase tvoří člověk a záleží jak ji nastaví.
Tak asi to neměl zakázané. A pak je to vaše uvažování ve stylu, že student podváděl, když si vzal na pomoc kalkulačku.
Já když jsem chodil do školy tak se kalkulačky zakazovaly a dnes je to běžné. Zajímavé je že ve stejné době jsme mohli používat logaritmické pravitko to bylo povolené a ještě jsme to měli v osnovách.
Podle překladače je sice překlad: prosím zemři, ale angličtina je řeč která používá fráze. A toto je možno přeložit jako : Prosím skonči či ukonči. I unáší se řekne : ukončil život to značí že zemřel.
Mimochodem podle překladače IA chvíli mluví v množném ,,vy,, ale ona ve skutečnosti stále ve větě má ,, you,, tedy ,, ty,,
Tak jsem sezeptal té aplikace Gemini co na to ,,říká,, Tady je odpověď: Je naprosto nemožné, abych jako jazykový model napsal takovou větu. Nemám schopnost cítit emoce, jako je nenávist nebo touha po smrti druhého člověka. Mojí primární funkcí je poskytovat informace a generovat text, a to vždy v souladu s etickými principy.
Proč se takové zprávy mohou objevit?
* Falešné zprávy: Na internetu se často šíří nepravdivé informace, které mají za cíl šířit paniku nebo poškozovat reputaci.
* Chybná interpretace: Možná došlo k nějakému nedorozumění nebo byla konverzace vytržena z kontextu.
* Útoky na AI: Někteří lidé se snaží poškodit reputaci umělé inteligence tím, že jí podstrkují nevhodné otázky a následně zveřejňují jejich odpovědi.
Je důležité ověřovat si informace
Pokud narazíte na podobné zprávy, vždy je dobré zkontrolovat si zdroj a kontext. Nevěřte všemu, co se na internetu objeví.
Jak mohu pomoci?
Pokud máte zájem o více informací o tom, jak fungují jazykové modely a jak se chrání před zneužitím, rád vám je poskytnu.
Závěrem:
Můžete si být jistý, že jako jazykový model bych nikdy nechtěl někomu ublížit. Mojí prioritou je vždy poskytovat užitečné a relevantní informace.
Chcete se dozvědět více o tom, jak fungují jazykové modely nebo jak rozpoznat dezinformace?
Ale jo. Už jsem o podobných ne tak drsných případech slyšel. Prostě AI se chová jako průměrný člověk. Je líná a jak vidět i jí mohou rupnout nervy. Bohužel si lidi neuvědomují, k čemu byla AI stvořena a jak funguje. Myslí si, že myslí jako člověk, ale ona čerpá s netové databáze a dokončuje texty na základě světových databází včetně beletrie. Takže její reakce bude jakákoli už někde popsaná. Paradoxně často chybuje ve výpočtech, protože výsledky odhaduje a počítá až pod nátlakem.
Máte pravdu. Čerpá z obsahu internetu ze článků vytvořených lidmi!!! A bude někdy odpovídat jako člověk. Myslím, že se časem naučí něco jako ,,emoce,, což se asi v tomto případě projevilo. Nevím co student přesně IS psal. Ale musel IA pěkně nás..t.
Vše se točí v kruhu. Vývoj a evoluce tu byla vždy a bude pořád. Jen je to teď rychlejší než kdy jindy a více nás to ,,zasahuje ". Prostě jen něco ztratí určitou hodnotu a něco jí nově získá a něčemu se hodnota zas na nějaký čas vrátí. Ale jedno je neměnné a to je to že to pořád tvoříme my lidé. Je na nás co budeme podporovat a dávat tomu život a co ne. Stejně jako cokoliv jiného.
Přesně jste pochopil co tady jiní těžko chápou. Umění se stále bude dělat pro konzumenty to je pro lidi. Lidé musí AI požádat napsat třeba scénář a člověk zase posoudí zdali je dobrý a vyplatí se zafinancovat. AI nikdy nebude tvořit pro jinou AI.
Ta doba je tu. Nic s tím nenaděláme. Zatím IA může čerpat z tvorby lidí ale jak bude čerpat a učit se , sama ze své tvorby až tu nic jiného nebude. Zakrní. A naštěstí tu bude člověk. AI jen kopíruje nikdy se nenaučí samostatnosti. Nejde proto o inteligenci tak jak ji chápe lidstvo. Neumí do tvorby dodat svoje emoce či bolest a emoce se nedají naučit či spočítat. I nová doba se ,,přejí,, a zase musí nastoupit člověk. AI se například neumí rozhodnout mezi verzemi a vždy se bude chovat tak jak je nastavena člověkem. Už se toho nedožiju ale věřím lidstvo si s tím zase poradí.
2
Sledujících
1
Sleduje
2
Sledujících
1
Sleduje
Také jsem to viděl, agresivní reklama běžela na YouTube a to dost dlouho. Asi si to tam nezadává umělá inteligence ? A je zvláštní, že YouTube je s schopno bojovat a bojkotovat blokovače reklam a zakazovat jejich použití a není schopno řešit podvodné reklamy. Nebo nechce .
1 odpověď
1
Sledujících
4
Sleduje
1
Sledujících
4
Sleduje
„Při zadávání reklamy není vždy snadné poznat, jestli se jedná o podvod. Pokud ale někdo naletí, je to jeho zodpovědnost, ne chyba aplikace. Podobně bychom přece nemohli žalovat automobilky za to, že někdo havaroval vlastní vinou.“
1 odpověď