fldMendelu2026bfldMendelu2026bfldMendelu2026bfldMendelu2026bfldMendelu2026bfldMendelu2026b

Aktuální číslo:

2026/2

Téma měsíce:

Prvky vzácných zemin

Obálka čísla

Spravedlivá válka

 |  1. 2. 2021
 |  Vesmír 100, 73, 2021/2

ad Vesmír 100, 28, 2021/1

V článku není jediná zmínka o tom, jak lze vraždící roboty zabezpečit proti útočnému použití v „nespravedlivé válce“. Jde-li o podobenství o městu, které se chce ubránit nepříteli – úplně stejně by bylo možno použít podobenství o skupině lidí, která chce město zničit a místo slova „obrana“ používat slovo „útok“. Pokud jde o otázku zodpovědnosti za případné zabití civilistů: Stroj určený k zabíjení je zbraň jako každá jiná. Za smrt je samozřejmě zodpovědný ten, kdo zbraň k zabití použije. Učil jsem shodou okolností před lety dceru člověka, jehož v opilosti někdo nožem probodl a zabil omylem, protože ho považoval za někoho jiného. Vrah byl samozřejmě odsouzen za vraždu. Nikdo se neptal po odpovědnosti vražedného nože či jeho výrobce.

Zdeněk Dudka, Slaná

Odpověď autora: V posledních letech vyšla řada publikací, které se věnují pojmu spravedlivé války či zabíjení ve válce. Jistě, na válce není nic hezkého, jako ostatně i na spoustě jiných věcí, které my lidé děláme. I válku je však možné vést korektním a nekorektním způsobem; a když už tu ty války s námi jsou a nepochybně zůstanou, je jistě lepší snažit se, aby se v nich respektovaly základní etické principy, například zákaz přímých útoků na civilisty. Pokud jde o mé podobenství o městu, bránícím se útoku: Jde o příklad, kdy někdo vede spravedlivou válku (a někdo zase nespravedlivou). Město napadl nepřítel a ono má právo se bránit; z pohledu ius ad bellum (práva na zahájení války) je jeho obrana válkou spravedlivou. Tak jsem ten scénář definoval, protože mi samozřejmě nešlo o podrobnosti ius ad bellum; o něm má úvaha nebyla. Šlo mi o to, zda by využití vojenských robotů tímto městem zachovalo podmínky ius in bello, tj. spravedlivého vedení války.

Mám dojem, že problém odpovědnosti jsem v článku vysvětlil poměrně podrobně. Jestliže někdo zastřelí druhého člověka, je tím, kdo si vybral cíl a rozhodl se zmáčknout spoušť. Jeho odpovědnost je zřejmá. V případě autonomních vojenských robotů tomu tak ale nebude: cíl vybere umělá inteligence a ta rovněž rozhodne o jeho likvidaci. Mnozí autoři se proto domnívají, že nebude snadné jasně určit odpovědnost za případné chybné určení cíle (např. civilistů či vlastních vojáků) a vzniklou újmu. V každém případě odpovědnost v objektivním smyslu (za újmu) převezme stát a postará se o kompenzaci.

Ke stažení

OBORY A KLÍČOVÁ SLOVA: Kybernetika, Etika

O autorovi

David Černý

PhDr. David Černý, Ph.D., (*1977) studoval filozofii na univerzitách v Bologni a Římě, na 1. lékařské fakultě UK získal doktorát z lékařské etiky. Působí v Ústavu státu a práva AV ČR a v Ústavu informatiky AV ČR. Zabývá se morální filozofií a personální ontologii, především filozofickými a etickými implikacemi umělé inteligence a robotiky. Zakládající člen Centra Karla Čapka pro studium hodnot ve vědě a technice (www.cevast.org).
Černý David

Doporučujeme

Temní architekti tání

Temní architekti tání uzamčeno

Když si prohlížíte satelitní snímky grónského ledovcového štítu, místo oslnivě bílé plochy uvidíte rozsáhlé tmavé skvrny, pokrývající stovky...
Velký příběh malých rozdílů

Velký příběh malých rozdílů

Prvky vzácných zemin se postupně staly klíčovou figurou v geopolitické šachovnici. V žebříčku British Geological Survey z roku 2015 mají nejvyšší...
Jak oddělit (téměř) neoddělitelné

Jak oddělit (téměř) neoddělitelné uzamčeno

Miloslav Polášek  |  2. 2. 2026
Na kraji města Janesville v americkém Wisconsinu, uprostřed kukuřičných polí, stojí rozsáhlý areál firmy SHINE Technologies. V jedné z nenápadných...