Ochránci lidských práv chtějí zakázat vývoj bojových robotů

X-47B
Bezpilotní letoun X-47B od Northrop Grumman. Budou stroje někdy zcela samostatně rozhodovat o tom, koho zabít a koho ne? / Northrop Grumman

Americká televizní stanice FOX News přinesla informaci o zprávě mezinárodní nevládní organizace Human Right Watch, která varuje před vývojem autonomních bojových robotů. Organizace přinesla své varování v 50-ti stránkové zprávě „Ztráta lidskosti – argumenty proti zabijáckým robotům“ (Losing Humanity: The Case Against Killer Robots).

Ve své zprávě Humans Right Watch píše, že chce prosadit zákaz vývoje plně autonomních bojových robotů (vzdušných, námořních, pozemních), jež jsou v současné době intenzivně vyvíjeni ve státech s nejvyspělejším vojenským průmyslem, jako je USA, Čína, Německo nebo Izrael. Podle organizace není jistota, že roboty budeme moci „udržet na uzdě“, protože nemohou mít lidské vlastnosti (morálka, slitování, atd.).

Dát strojům pravomoc rozhodovat, kdo na bojišti zemře nebo přežije, posunuje technologii příliš daleko,“ říká Stephan Goose, ředitel sekce pro obchod se zbraněmi v Human Right Watch. „Lidská kontrola robotické války je nezbytná pro kontrolu zranění a ztrát mezi civilisty,“ dodává.

Human Rights Watch produkuje výzkumné zprávy a rešerše porušování lidských práv a norem, které jsou zakotveny ve Všeobecné deklaraci lidských práv a dalších mezinárodně přijatých lidskoprávních standardech. Tímto k porušování lidských práv přitahuje mezinárodní pozornost a snaží se tlačit na vlády a mezinárodní organizace, aby zjednaly nápravu. Wikipedie

Zpráva, společně publikovaná ve spolupráci s klinikou pro mezinárodní práva z Harvardské univerzity (Harvard Law School’s International Rights Clinic), volá po mezinárodní smlouvě, která by zakazovala vývoj těchto autonomních zbraní.

Je třeba poznamenat, že plně autonomní bojoví roboti zatím neexistují. Současné stroje jsou spíše dálkově ovládanými modely, než roboty se schopností řešit složité úlohy samostatně. I když samozřejmě, určité samostatné rozhodovací schopnosti dnešní stroje mají a musejí mít.

Připomeňme původní slavné Tři zákony robotiky od ruského spisovatele Isaaca Asimova. Tyto „softwarové pojistky“ mají v budoucnu zamezit robotům, aby ublížili lidem.
1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
2) Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu s prvním zákonem.
3) Robot se musí chránit před poškozením, kromě případů, kdy je to v rozporu s prvním nebo druhým zákonem.

Zatím žádná země nerozhodla o nasazení autonomních bojových robotů, tedy takových strojů, které budou automaticky a bez lidského zásahu rozhodovat o svém dalším postupu. Například, zda na konkrétního člověka zahájí smrtící palbu nebo nikoliv. Zdůrazňujeme, že autonomní roboti nemusejí být vybavení umělou inteligencí (AI) v pravém slova smyslu, ale jen schopností orientovat se ve složitém prostředí a řešit komplikované úlohy.

Podle organizace Human Rights Watch, podobné pokročilé bojové stroje by mohly být zavedeny do výzbroje již za 20 nebo 30 let. „Je důležité, aby se zastavil vývoj zabijáckých robotů dřív, než se objeví ve vojenských arzenálech,“ říká Goose. „Pokud země budou stále více investovat do vývoje (autonomních robotů – pozn. redakce), bude mnohem těžší je přesvědčit o opaku.

Autonomním bojovým robotům jsme se také věnovali v rozsáhlém článku Terminátor - 5 technologických překážek.

Zdroj: FOX News

Nahlásit chybu v článku


Související články

Robotičtí hasiči na palubách bojových lodí

Požár na palubách lodí, ať válečných či civilních, je vždy obrovský problém. Nemluvíme jen o ...

DARPA Grand Challenge - soutěž pro Terminátory

OK, tak tady přestává veškerá legrace. Zdá se, že doba humanoidních vojenských robotů - skutečných ...

Terminátor - 5 technologických překážek

Bojoví humanoidní roboti, tak jak je známe z filmu Terminátor, jsou splněným snem všech vojenských ...

VIDEO: Úspěchy robotického vozidla SMSS v Afghánistánu

Před necelým rokem byly do Afghánistánu odeslaný čtyři prototypy robotického vozidla SMSS od firmy ...

Zvýraznit příspěvky za posledních:

  • Ultramarinus
    12:55 29.11.2012

    A ještě k phalanxu se může obsluha dostat "pod" jeho palebným polem (aniž by mohli být phalanxem ohroženi). K hypotetickému samostatnému bojovému robotu těžko.

    A ještě k phalanxu se může obsluha dostat "pod" jeho palebným polem (aniž by mohli být phalanxem ohroženi). K hypotetickému samostatnému bojovému robotu těžko.

  • Ultramarinus
    12:53 29.11.2012

    Situace, kdy jde o nějákou formu bodové obrany je semozřejmě něco jiného, tam by v rozhodovací smyčce člověk tu mašinu zpomalovat tolik, že by byla ve své práci mnohem méně ...Zobrazit celý příspěvek

    Situace, kdy jde o nějákou formu bodové obrany je semozřejmě něco jiného, tam by v rozhodovací smyčce člověk tu mašinu zpomalovat tolik, že by byla ve své práci mnohem méně efektivní. Na druhou stranu (třeba) phalanx se sám o sobě nemůže pohybovat a může být obsluhou snadno a rychle VYPNUT. U autonomních robotů by tyto možnosti nebyly řešením - bojový robot musí být samostatně mobilní a kdyby měl "vypínač" pro snadné vyřazení, byl by zbytečně zranitelný.Skrýt celý příspěvek

  • Ultramarinus
    11:47 27.11.2012

    S názorem, že "rozhodovat o výstřelu" by měl ve smyčce člověk souhlasím. Robot mu může cíl označit, přiblížit, naznačit vlastní "názor" na cíl, ale o smrti nebo životě prostě MUSÍ ...Zobrazit celý příspěvek

    S názorem, že "rozhodovat o výstřelu" by měl ve smyčce člověk souhlasím. Robot mu může cíl označit, přiblížit, naznačit vlastní "názor" na cíl, ale o smrti nebo životě prostě MUSÍ rozhodovat člověk. Na druhou stranu, robotické systémy jsou velmi užitečné (alespoň tak, jak se používají teď zcela nepochybně).Skrýt celý příspěvek

  • Nicolaj
    19:43 24.11.2012

    Ale ty ztráty budou, to že to nebudou lidé je jedno. Rozbitý kus šrotu opravdu nikoho "netankuje" ale když je jich hromada a každý stojí miliony, to už je jiná.

    Ale ty ztráty budou, to že to nebudou lidé je jedno. Rozbitý kus šrotu opravdu nikoho "netankuje" ale když je jich hromada a každý stojí miliony, to už je jiná.

  • Márty
    21:33 21.11.2012

    rav : Ta položená otázka , ohledně využití je velice dobrá. Nezapomeňte že žijeme v prumyslové době takže od prvního prototipu k tisícům kusu je jen malí krůček. A jak správně ...Zobrazit celý příspěvek

    rav : Ta položená otázka , ohledně využití je velice dobrá. Nezapomeňte že žijeme v prumyslové době takže od prvního prototipu k tisícům kusu je jen malí krůček.
    A jak správně zaznělo ,když nejsou ztráty můžeme v klidu bojovat všude kde se nám to hodí ,né kde je to správné a to je problém. Přeci jenom boj muže proti muži ,samozřejmě v uvozovkách je pořed lepší varianta než válka robotů proti lidem. A v dnešní době stačí pár mil dolarů šíkovný team lidí a podpora medií a válka může vypoknout kdekoli se bude potřebovat.Skrýt celý příspěvek

  • Left
    18:59 21.11.2012

    No jo..ty tomu tak rozuměj :D
    Sami říkaj, že ještě tyto roboti neexistují a už vědí, že nebudou fugovat dobře.

    No jo..ty tomu tak rozuměj :D
    Sami říkaj, že ještě tyto roboti neexistují a už vědí, že nebudou fugovat dobře.

  • Ondřej Lacina
    17:49 21.11.2012

    Tak tak, ať se laskavě nepletou do věcí, do kterejch jim vůbec nic neni.

    Tak tak, ať se laskavě nepletou do věcí, do kterejch jim vůbec nic neni.

  • Nicolaj
    15:53 21.11.2012

    Myslím že ochránci lidských práv značně překračují mez své působnosti a jsou také velice naivní ....

    Myslím že ochránci lidských práv značně překračují mez své působnosti a jsou také velice naivní ....

  • ADM
    11:52 21.11.2012

    Vyvoj jde dopredu a vyvoj autonomnich robotu s nim. I kdyz se to oficialne zakaze, stejne to nebude nikoho zajimat. Vzdalenou budoucnost vidim ve valkach mezi roboty (ne, StarWars ...Zobrazit celý příspěvek

    Vyvoj jde dopredu a vyvoj autonomnich robotu s nim. I kdyz se to oficialne zakaze, stejne to nebude nikoho zajimat. Vzdalenou budoucnost vidim ve valkach mezi roboty (ne, StarWars ne) a clovek bude pouze kontrololovat, nebo bude soucasti specialnich tymu, protoze v urcitych okolnostech je clovek nenahraditelny. Ktery armadni general by nechtel mit takovou armadu? Ustrelena ruka, zasah do hlavy, to lecba vojaka nikdy nevrati do puvodniho stavu, ale robot co. Ruka se nahradi, hlava se nahradi...Skrýt celý příspěvek

  • tom
    11:34 21.11.2012

    Je fakt, že u člověka se často počítá s vlastnostmi jako soucit a podobně. Bohužel tyto očekávané vlastnosti u mnohých lidí chybí. Tím pádem nevíte, na čem jste, což může ...Zobrazit celý příspěvek

    Je fakt, že u člověka se často počítá s vlastnostmi jako soucit a podobně. Bohužel tyto očekávané vlastnosti u mnohých lidí chybí. Tím pádem nevíte, na čem jste, což může zapříčinit chybné rozhodnutí, které vás ve válce většinou stojí život. U robota to budete vědět s jistotou a podle toho jednat.Skrýt celý příspěvek

  • Kubec
    10:35 21.11.2012

    Tvrdit, že bomby se submunicí se podařilo úspěšně zakázat je nejen naivní ale totálně zcestný. Většina vyspělých armád světa je dosud používá, jen tvrdí opak. Stejně to dopadne i s ...Zobrazit celý příspěvek

    Tvrdit, že bomby se submunicí se podařilo úspěšně zakázat je nejen naivní ale totálně zcestný. Většina vyspělých armád světa je dosud používá, jen tvrdí opak. Stejně to dopadne i s autonomními roboty...Skrýt celý příspěvek

  • raw
    08:13 21.11.2012

    Pjotr: "správně naprogramovaný počítač chybu neudělá, tu dělají jen lidé.", a pocitac programuje kdo? :) O parte ozbrojenych pitomcu (alias myslivci) se vubec nehodlam bavit. A ...Zobrazit celý příspěvek

    Pjotr: "správně naprogramovaný počítač chybu neudělá, tu dělají jen lidé.", a pocitac programuje kdo? :) O parte ozbrojenych pitomcu (alias myslivci) se vubec nehodlam bavit. A napadla me jedna otazka, mozna ta ktrosku provokujici ... co zabrani zemi jez bude vlastni armady techto robotu v napadeni jine, jez je nema? V soucasnosti se aspon trochu i velmoci boji vlastnich ztrat na bojisti, pze nejsou obecne moc dobre prijimane spolecnosti, kus rozbiteho srotu ovsem nikoho netankuje. Mozna to nesouvisi moc s tematem clanku, ale i tak ...Skrýt celý příspěvek

  • Jirka
    08:12 21.11.2012

    Pjotr: Bohužel právě ty lidé by programovali ty stroje. :c)

    Pjotr: Bohužel právě ty lidé by programovali ty stroje. :c)

  • Pjotr
    08:03 21.11.2012

    Nevím jestli takovej robot bude nebezpečnější než nalitej myslivec, když jsme u těch houbařů, myslím si že vyhodnocovací postupy bude mít rychlejší a přesnější, několikrát se mi už ...Zobrazit celý příspěvek

    Nevím jestli takovej robot bude nebezpečnější než nalitej myslivec, když jsme u těch houbařů, myslím si že vyhodnocovací postupy bude mít rychlejší a přesnější, několikrát se mi už stalo, že jsem vylezl z křoví a do ksichtu mi mířila dvojka, nebo kulovnice jednou kolem mě svištěly broky (lovili kachny) jindy na mě mířil a křičel ať vypadnu že tu má honitbu, správně naprogramovaný počítač chybu neudělá, tu dělají jen lidé.Skrýt celý příspěvek

  • raw
    07:41 21.11.2012

    - brat cokoliv z FOX News je docela ostuda, v US nejtendencnejsi stanice - rodina Asimova emigrovala od US kdyz mu byly 3 roky, moc bych ho za Rusa nepovazoval - nez zacnete rvat ...Zobrazit celý příspěvek

    - brat cokoliv z FOX News je docela ostuda, v US nejtendencnejsi stanice
    - rodina Asimova emigrovala od US kdyz mu byly 3 roky, moc bych ho za Rusa nepovazoval
    - nez zacnete rvat neco o pseudohumanistech, tak se zamyslete prosim nad hypotetickym setkanim autonomniho bojoveho robota s houbarem v maskacich :)
    - koho budete vynit, kdyz autonomni robot vykydli skolku i se skolnikem?Skrýt celý příspěvek

  • Roman
    07:39 21.11.2012

    Tak vida, fundovaný příspěvek, v němž autor usoudil, že Isaac Asimov byl Rus a Human Rights si myslí, že pokud to zakážou, tak se to dělat nebude.

    Tak vida, fundovaný příspěvek, v němž autor usoudil, že Isaac Asimov byl Rus a Human Rights si myslí, že pokud to zakážou, tak se to dělat nebude.

  • Jarda P.
    07:30 21.11.2012

    Dokud roboti nebudou mít schpnost se sami opravit s využítím dostupných zdrojů, tak nebezpečí vzpoury nehrozí. Ty tři zákony robotiky mají jednu slabinu. A to definici kdo je ...Zobrazit celý příspěvek

    Dokud roboti nebudou mít schpnost se sami opravit s využítím dostupných zdrojů, tak nebezpečí vzpoury nehrozí.
    Ty tři zákony robotiky mají jednu slabinu. A to definici kdo je člověk.Skrýt celý příspěvek

  • Tomas
    07:24 21.11.2012

    Typické kecy pseudohumanisty.

    Typické kecy pseudohumanisty.

  • Pjotr
    07:04 21.11.2012

    Ten Goose, to bude asi pořádnej kus idiota, omlouvám se, ale nic jinýho k tomu nedokážu říct....

    Ten Goose, to bude asi pořádnej kus idiota, omlouvám se, ale nic jinýho k tomu nedokážu říct....

Načítám diskuzi...