Abstract: V posledních měsících je umělá inteligence, přesněji některé systémy vykazující inteligentní chování (např. ChatGPT-3.5), na stránkách všech novin. Udivuje svými mimořádnými schopnostmi, ale vzbuzuje i velké obavy. Nedávno se dokonce objevila otevřená výzva několika odborníků a známých osobností, která volá po zastavení vývoje AI na půl roku. Svou polívčičku si přihřívají i známí technopesimisté, kteří považují AI za poslední lidský vynález, který má jasný potenciál přinést lidstvu zkázu. Ve svém příspěvku nejdříve představím některé z těchto technopesimistických postojů, ukáži, jaký vztah spatřují mezi obecnou umělou inteligencí, superinteligencí, singularitou a možnou zkázou lidstva. Následně se pokusím ukázat, že tyto pesimistické předpovědi nejsou příliš opodstatněné. Hlavní problém není umělá inteligence jako taková, ale naše pasivita a neschopnost (či neochota) využívat ji korektním a rozumným způsobem. Nakonec pohovořím o nutnosti kultivovat algoritmickou gramotnost na všech úrovních vzdělávacího procesu. ; In this paper we focus on the existential risks associated with artificial intelligence. We try to show that these risks may be greatly exaggerated. In fact, the path from the current state of the AI field to general AI and superintelligence is not as well understood as some authors assume. We are moving into the realm of the unknown, of many "maybes" and uncertainties. Moreover, it is a mistake to pass off these unknowns as knowns, as an unveiled map of the whole territory. We also try to point out that focusing on the existential risks of AI (the territory of uncertainties and unknowns) is not an appropriate strategy because it easily distracts from the issues at hand. AI is ubiquitous and has a profound impact on our understanding of what it means to be human and how we relate to the world and to other humans. We can look at AI as a challenge, as a distinct possibility for cognitive enhancement of our minds (expanded mind), but we need to use the tools of AI in a rational, wise and morally right ...
No Comments.