Eliezer Yudkowskys allmäna idioti

Diskutera allmänt om vetenskap, pseudovetenskap och folkbildning, t.ex. vetenskapsteori eller forskningspolitik.
Användarvisningsbild
NeuraltNätverk
Avstängd
Inlägg: 6039
Blev medlem: lör 04 jul 2009, 23:30
Ort: in der Bunkeranlage

Eliezer Yudkowskys allmäna idioti

Inlägg av NeuraltNätverk » lör 14 jul 2012, 21:10

Det är konstigt hur någon med så mycket lärdom kan vara så dum. Jag pratar inte om någon såsom Rebecca Watson som är självklart obildad utan någon som har en hjärna i skallet. Anledningen är nog att "Singulariteten" är en religion för folk som inte tror på Gud.

http://lesswrong.com/lw/wg/permitted_po ... _locality/
Programmers operating with strong insight into intelligence, directly create along an efficient and planned pathway, a mind capable of modifying itself with deterministic precision - provably correct or provably noncatastrophic self-modifications. This is the only way I can see to achieve narrow enough targeting to create a Friendly AI.
Jag vet inte varför han kör med denna inställning. System som gör det ena eller det andra "provably" är bräckliga i verkligheten.

Här är ett litet experiment någon som helst kan prova. Hitta nyheter angående "imponerande!"-utvecklingar inom AI och robotteknik. Försök då hitta detaljer om realiserandet. Frågan, alltså: "Är realiserandet baserade på en strikt, helt förutsägbar determinism?" Jag kan försäkra dig om att svaret är sällan, om någon gång "ja".

Ett bra exempel:

DeeChee the talking robot

Det här vill simulera ett spädbarn. För inte tala nu om en vuxen person. Hur funkar det?

http://www.plosone.org/article/info%3Ad ... ne.0038236

Man kan se under överskriften "Algorithm" att det är ett slags förstärkning. Dvs stokastiskt. Man kan inte precis förutsäga hur DeeChee kommer bete sig. Inte helt olikt ett verkligt barn.

Praktiskt taget försöker ingen som vill göra något i AI / robotteknik-samhället använda rent formella metoder. Det är eftersom de inte funkar i de flesta fall. Om man inte kan koda in allt det som är att vara ett småbarn så finns det ingen anledning att anta att man kunde göra detsamma med ett (slutligt) övermänskligt AI.

Nemesis
Inlägg: 1910
Blev medlem: tor 12 okt 2006, 22:04
Ort: Stockholm

Re: Eliezer Yudkowskys allmäna idioti

Inlägg av Nemesis » sön 15 jul 2012, 12:55

"I plan for the entire history of human civilization to be less than 1% of my lifespan." - Eliezer Yudkowsky
"… all the data shows that most people are not influenced by rational arguments. They're influenced by social pressure. … That's just the human condition, and we just have to acknowledge it and accept it." - Steven Novella

Användarvisningsbild
NeuraltNätverk
Avstängd
Inlägg: 6039
Blev medlem: lör 04 jul 2009, 23:30
Ort: in der Bunkeranlage

Re: Eliezer Yudkowskys allmäna idioti

Inlägg av NeuraltNätverk » sön 15 jul 2012, 17:40

Det är hans prerogativ. Jag bryr mig inte. Transhumanistiska projekt är helt okej. Jag tror dock inte på Singulariteten.

Skriv svar