Pilot vs. umělá inteligence: Blíží se souboj robotické a lidské F-16

Pilot vs. umělá inteligence: Blíží se souboj robotické a lidské F-16
AlphaDogfight Trials / DARPA (Zvětšit)

Americká výzkumná agentura DARPA (Defense Advanced Research Projects Agency) připravuje virtuální souboj lidské a robotické F-16. Souboj je součástí testovací série AlphaDogfight Trials amerického letectva (USAF). Série dláždí cestu k zavedení prvků umělé inteligence (AI) do řídících a bojových systémů letadel.

V poslední době slyšíme o umělé inteligenci na každém kroku. Podle Tomáše Mikolova, nejúspěšnějšího a nejznámějšího českého odborníka na umělou inteligenci, pokud dnes mluvíme o AI, téměř výhradně se to týká oblasti strojového učení.

Rozmach strojového učení nastal po roce 2010 a v řadě oblastí lidské činnosti má obrovský potenciál. Typicky jde o strojové rozpoznávání obrazu, což má ohromné využití v satelitním průzkumu Země, bezpečnosti (všeho druhu), navádění přesných zbraní, autonomní dopravě atd.

Strojové učení je proces, kdy se počítač na určitém vzorku dat (tedy nejen na „fotkách“) učí rozeznávat určité vzorce. Jaké vzorce ma najít, co s nimi dělat a jak na ně reagovat, to vše počítači řekne programátor. V ostrém provozu počítač nové sady dat (například nové neznámé fotky) porovnává s databází. Pokud najde shodu, vykoná takový úkol, který mu určil programátor ‒ řekne například, že na fotce je nějaké zvíře.   

Počítač tedy dokáže dělat strojově přesné a velmi rychlé rozhodnutí, ale nikdy neudělá nic nad rámec svého naprogramování. Může také najít vhodnější cesty a řešení, zdokonalovat se, ale vždy s cílem splnit člověkem zadaný úkol. Počítač situaci nechápe a není kreativní ‒ „pouze“ dokáže ve zlomku sekundy porovnávat obrovské množství dat a umí si zapamatovat takové postupy, které vedou k nejlepšímu vyřešení úkolu. Čím déle se tedy počítač učí a má přístup k většímu vzorku dat, tím jsou jeho reakce efektivnější a přesnější.


Na videu vidíme příklad strojového učení. Počítač pomocí milionů simulací najde nejlepší řešení problému ‒ jak ukrýt modré panáčky před červenými. Letecký souboj je pochopitelně o mnoho řádů komplexnější, ale principy jsou zcela stejné.

AI v bojových letounech je také „jen“ pokročilá forma strojového učení. Řídící systém letadla má přístup k obrovské databázi různých situací, přičemž na každou z nich má odpovídající řešení. V ostrém provozu řídící systém letadla s AI „sleduje“ scénu (rychlost, výšku, aerodynamické podmínky, radarová a obrazová data atd. atd.), srovnává situaci se svou databázi, a následně zvolí optimální řešení k dosažení člověkem naprogramovaného cíle. Pomocí simulací (pochopitelně v manitelnech naprogramování) však může najít nejlepší cestu k vyřešení člověkem zadaného cíle. Pokud se ale počítač dostane do neznámé situace (což lze také naprogramovat), nedokáže samozřejmě přijít s vlastním tvořivým řešením.

Nicméně pomocí velkého vzorku dat, neustálého učení v simulacích, znalosti fyzikálních zákonů a chování letounu, dokáže řídící systém fungovat v určitých situacích velmi efektivně, rychle a precizně. Ozbrojené síly po celém světě doufají, že tyto vlastnosti mohou pomoci překonat kognitivní omezení člověka v náročných, komplexních a silně stresujících bojových situacích. Typickým příkladem je velmi složité vedení leteckého boje. V konečném důsledku pokrok v AI umožní vznik a efektivní nasazení tzv. robotických vedených letadel (robotických loyal-wingmanů) a vytvoření společných bojových jednotek lidí a robotů.


AlphaDogfight Trials, jak napovídá název, řeší letecké soboje v rámci přímé viditelnosti, tedy tzv. „dog fighty“

Současnou úroveň letecké AI ověřuje testovací série AlphaDogfight Trials amerického letectva. Dne 18. až 20. srpna proběhne třetí a poslední on-line simulační klání. Vyvrcholením třetího klání se stane virtuální souboj robotické a lidské F-16. AlphaDogfight Trials je součástí zastřešujícího leteckého AI programu ACE (Air Combat Evolution).

„Jsme stále nadšeni, když vidíme, jak algoritmy AI fungují proti sobě navzájem i proti vyškolenému člověku a doufáme, že stíhací piloti z letectva, námořnictva a námořní pěchoty, stejně jako vojenští vůdci a členové AI komunity, se zaregistrují a budou souboj sledovat online. Bylo úžasné vidět, jak daleko týmy za poslední rok pokročily s AI v autonomních soubojích,“ uvedl plukovník Dan Javorsek, programový manažer kanceláře pro strategické projekty v agentuře DARPA.

Třetího testovacího kola se zúčastní osm týmů: Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI a SoarTech.

Během prvního dne týmy nasadí své AI algoritmy v simulovaných soubojích proti pěti různým algoritmům vyvinutých v laboratořích aplikované fyziky na univerzitě Johnse Hopkinse. Během druhého a třetího dne se utkají týmy mezi sebou. Nejlepší tým pak nasadí svůj algoritmus ve virtuálním souboji proti F-16 pilotované lidským pilotem.


Tým Georgia Tech Research Institute

„Bez ohledu na to, zda finální souboj vyhraje člověk nebo stroj, AlphaDogfight Trials je o zvýšení důvěry v AI. Pokud vítěz AI získá respekt pilota F-16, dostali jsme se o krok blíže k vytvoření efektivního týmu stroj-člověk, což je cílem programu ACE,“ řekl Javorsek a připoměl, že právě nedůvěra válečníků je hlavní překážkou v bojovém nasazení AI.

Simulační série AlphaDogfight Trials (resp. program ACE) má zásadní význam pro vedení bojových leteckých operací blízké budoucnosti. Právě v blízké budoucnosti nejvyspělejší letectva světa hodlají nasadit robotické wing-many jako doprovod k pilotovaným letadlům. V jednom balíků přitom může letět destíky robotických letadel (z počátku konstrukčně velmi jednoduchých).

V uvažovaném týmu člověk-stroj se lidé se postarají o chápání bojové scény a o taktická rozhodnutí. Robotická letadla napak precizně, okamžitě, bez odmlouvání a i za cenu svého zničení vykonají člověkem přidělený úkol. K takovému cíli ale vede ještě dlouhá cesta strojového učení robotických systémů. Než lidé pustí AI do boje, bude třeba provést ještě mnoho milionů (nebo o řád, či několik řádů více) simulací, a to nejen ve virtuální realitě.

Zdroj: DARPA, C4ISRNET

Nahlásit chybu v článku


Související články

Umělá inteligence pro bojová vozidla pěchoty CV90 MkIV

Společnost BAE Systems se minulý týden zúčastnila konference Future Armoured Vehicles Situational ...

Budoucnost leteckého průzkumu: Drony a umělá inteligence

Americké letectvo (USAF) v rámci nové „cestovní mapy“ Next Generation ISR Dominance Flight Plan ...

Česká vojenská družice GOLEM

V souvislosti se spuštěním satelitního centra SATCEN ČR českého Vojenského zpravodajství se objevily ...

Radiolokační satelity a planetární vyhledávač

Americká Národní agentura pro zpravodajství o Zemi NGA (National Geospatial-Intelligence Agency) ...

Zvýraznit příspěvky za posledních:

  • Tom384
    19:41 21.08.2020

    Vysledek presne podle meho ocekavani.

    https://www.osel.cz/11331-alph...

    Vysledek presne podle meho ocekavani.

    https://www.osel.cz/11331-alph...

    • JCDenton
      14:00 19.01.2021

      Solidní masakr, časem to dopadne stejně se všemi druhy zbranových systému. Obvzláště, když stroje bez křehkého pilota z masa mohou provádět jinak nemožné manévry.

      Solidní masakr, časem to dopadne stejně se všemi druhy zbranových systému. Obvzláště, když stroje bez křehkého pilota z masa mohou provádět jinak nemožné manévry.

  • TF_HU
    07:39 13.08.2020

    :-) O nic nejde, jde jen o test. Komentáře o tom, že to nepůjde, nevyjde, je blbost, k čemu apod. jsou zábavné. Nic z toho nezjistíte, když to nevyzkoušíte. Bude to jistě ...Zobrazit celý příspěvek

    :-)

    O nic nejde, jde jen o test. Komentáře o tom, že to nepůjde, nevyjde, je blbost, k čemu apod. jsou zábavné. Nic z toho nezjistíte, když to nevyzkoušíte. Bude to jistě poučnější jak ruský "moloďec" v obleku robota :-)Skrýt celý příspěvek

  • pks_
    15:43 12.08.2020

    Navrhuji taktiku pro 5 skutečných pilotů proti 5 AI. 1. zajistit kompletní zarušení komunikace a GPS 2. zajistit takovou kamufláž, aby stroje naše a cizí vypadaly +/- stejně 3. ...Zobrazit celý příspěvek

    Navrhuji taktiku pro 5 skutečných pilotů proti 5 AI.
    1. zajistit kompletní zarušení komunikace a GPS
    2. zajistit takovou kamufláž, aby stroje naše a cizí vypadaly +/- stejně
    3. přidat si před bitvou smluvený rozlišovací znak, na který nebude AI cvičena
    4. párkrát prolétnout oblačností - aby AI neměla jistotu, že tam, kde byl přítel je pořád přítel
    ---
    výsledkem by mělo být, že AI bude mít nepřijatelnou nejistotu k výstřelu a buď nevystřelí vůbec a nebo bude střílet hlava nehlava (v takové situaci bude nejlépe zmizet, ať si to nepřítel vyříká ručně stručně sám se sebou :-)Skrýt celý příspěvek

    • satai
      17:28 12.08.2020

      Jak Hurvínek válku.

      Jak Hurvínek válku.

      • Charlie
        07:29 13.08.2020

        Ačkoliv jeho návrh taktiky je spíše úsměvný, celková myšlenka se nezakládá na vodě. Prvně dám příklad z klasického cvičení proti OoFor - Amíci se velice snažili přizpůsobit design ...Zobrazit celý příspěvek

        Ačkoliv jeho návrh taktiky je spíše úsměvný, celková myšlenka se nezakládá na vodě.

        Prvně dám příklad z klasického cvičení proti OoFor - Amíci se velice snažili přizpůsobit design opforácké techniky vzhledu pravděpodobných protivníků (čti Sovětů), ačkoliv by to vlastně nemělo hrát žádnou roli, jestli sestřeluju letadlo takový nebo makový. Jenže těm trénujícím vojskům to pomáhalo navodit atmosféru, dostali potřebný návyky rozpoznávat nepřítele v terénu atd...

        Pokud jde o "AI" - z praxe se ukazuje, že přes všechny její výhody občas dělá lidským rozumem nepochopitelné věci. Takový autopilot tesly občas ignoruje překážku na silnici, navede auto do bariérya jiné skopičiny, které by vlastně vůbec dělat neměl. Při vyšetřování se pak ukáže, že nějaká triviálnost počítač zmátla, takže neuměl adekvátně reagovat nebo reagoval špatně.

        Proto ta myšlenka nabarvit svoje stíhačky jako ty nepřátelské nemusí být až tak uplně mimo, v principu jde o to vyhodnocující algoritmus "rozhodit" natolik, aby nám to poskytlo měřitelnou výhodu.

        Mimochodem - ony tyhle neuronové sítě můžou dělat uplně stejné kraviny jako lidi, to není o tom že by byly neomylné. Vždyť ony se víceméně snaží napodobit část chování živých organizmů, akorát ty počítače jsou schopny "zhustit" evoluci do krátkého času, aztímco přírod to trvalo trochu dýl. Už tu někdo psal, že chatovací bot se naučil nadávat, v jiném pokusu si dva komunikující počítače natolik zefektivnily angličtinu, že jí už nikdo nerozuměl, a není důvod proč by se letecká "AI" nenaučila nějakou jinou blbost. A programátoři při testování to nemusí vůbec zjistit (ono se stačí podívat s kolika bugy lezou ven komeční softwary).Skrýt celý příspěvek

  • Honzin
    10:11 12.08.2020

    Článek uvádí " AI v bojových letounech je také „jen“ pokročilá forma strojového učení. Řídící systém letadla má přístup k obrovské databázi různých situací, přičemž na každou z ...Zobrazit celý příspěvek

    Článek uvádí "
    AI v bojových letounech je také „jen“ pokročilá forma strojového učení. Řídící systém letadla má přístup k obrovské databázi různých situací, přičemž na každou z nich má odpovídající řešení.".

    Já samozřejmě nevím, jak přesně jsou robotičtí piloti naprogramování, ale nemyslím si, že ta představa o obří databází je správná. Strojové učení (jak někteří mylně zaměňují s AI) sebou přináší tu obrovskou výhodu, že člověk nemusí programovat řešení každé situace (kombinace vstupů). Dokonce nemusí ani rozumět danému problému. Pouze zadá vstupy a očekávaný výstupy a nechá stroj ať se sám naučí jak těchto výstupů/cílů dosáhnout.

    Na to bych navázal ještě druhou poznámkou. Dost tu zaznívají názory, které vidí problém v tom, že to co se robotický pilot nenaučil to neumí.
    Za prvé to není tak, že když ho naučím vést vzdušný boj proti 3 letadlům, tak nezvládne boj proti 4 nebo 2 nepřátelským letadlům. Je to především díky schopnosti umělých neuronových sítí (aktuálně základní stavební kámen většiny systému s prvky AI) umět dedukovat řešení i pro situace (kombinaci vstupů), které nebyly součástí trénovací množiny.
    Je to spíše tak, že když naučím robotického pilota pouze bojovat, tak nebudu umět přistávat. Ale to přece není žádný problém. Slepá místa se časem pokryjí.
    Tak a teď se konečné dostávám k původní myšlence. Daleko zajímavější mi příjde opačný problém. Jak ověřit že v doméně, na kterou jsem robotické pilota učil, neexistuje moment (kombinace vstupů), kdy se zachová špatně / fatálně. Ono to totiž moc dobře nejde, protože celá rozhodovací logika je uložena ve vahách umělé neuronové sítě a z toho zpětně už nejde nic moc vyčíst.
    Samozřejmě vždy se dají udělat testy, ale tyto testy většinou nejsou schopny pokrýt celý stavový prostor (kombinaci vstupů).Skrýt celý příspěvek

    • Tom384
      11:44 12.08.2020

      Popsal jsi to naprosto presne. Add tebou nastineny problem. Ano, vzdy bude existovat moznost ze AI vyhodnoti situaci spatne. Ale ten samy probem nastava i u letadla pilotovaneho ...Zobrazit celý příspěvek

      Popsal jsi to naprosto presne. Add tebou nastineny problem. Ano, vzdy bude existovat moznost ze AI vyhodnoti situaci spatne. Ale ten samy probem nastava i u letadla pilotovaneho clovekem. Jde o to ze prostor vsech moznych kombinaci vsupu kdy AI vyhodnoti situaci spatne je ostre mensi nez prostor kombinaci vstupu kdy udela chybu lidsky pilot.Skrýt celý příspěvek

      • Honzin
        12:07 12.08.2020

        Mohl bys prosím trochu rozvést jak to myslíš. Díky.

        Mohl bys prosím trochu rozvést jak to myslíš. Díky.

        • Tom384
          12:18 12.08.2020

          Jednoduse, AI nebusi byt dokonala. Staci ze bude lepsi nez pilot. Pokud vis ze takouvou AI disponuje i protivnik tak od te doby uz se pilot neposadi do kokpitu letadla.

          Jednoduse, AI nebusi byt dokonala. Staci ze bude lepsi nez pilot. Pokud vis ze takouvou AI disponuje i protivnik tak od te doby uz se pilot neposadi do kokpitu letadla.

        • GlobeElement
          13:11 12.08.2020

          AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o všech dějích a ...Zobrazit celý příspěvek

          AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o všech dějích a objektech v okolí.
          Lidé někdy (spíše častěji) postupují podle pravidla "přání otcem myšlenky", vyberou si jen takové informace, které podporují jejich názor a ostatní ignorují. To AI neudělá.
          Lidé mohou ve stresu panikařit. AI ne.

          AI bude konat přísně logicky. To ovšem neznamená, že vždy rozumně.

          Může se totiž stát, že jednání AI bude předvídatelné.Skrýt celý příspěvek

          • satai
            13:27 12.08.2020

            Tohle uz davno o AI neplati, to je jenom takova predstava ze sci-fi.

            Tohle uz davno o AI neplati, to je jenom takova predstava ze sci-fi.

          • GlobeElement
            13:45 12.08.2020

            Ale jistěže to platí. Ledaže by programátor funkce počítače omezil.

            Ale jistěže to platí. Ledaže by programátor funkce počítače omezil.

          • satai
            13:51 12.08.2020

            Tak hlavne velka cast moderni AI neni z velke casti naprogramovana, ale uci se sama (viz ruzne Deep-neco projekty, ktere se uci hry tak, ze si hraje sama se sebou...). Naopak to ...Zobrazit celý příspěvek

            Tak hlavne velka cast moderni AI neni z velke casti naprogramovana, ale uci se sama (viz ruzne Deep-neco projekty, ktere se uci hry tak, ze si hraje sama se sebou...).

            Naopak to zamereni na detail je dost problem - diky nemu funguje ted dost popularni odvetvi adversary AI, kde drobne zmeny vstupu umozni uplne poplest AI. https://openai.com/content/ima... Skrýt celý příspěvek

          • Honzin
            14:50 12.08.2020

            @GlobeElement "AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o ...Zobrazit celý příspěvek

            @GlobeElement
            "AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o všech dějích a objektech v okolí."

            Tohle by asi platilo, kdybychom měli opravdovou AI. Tu nemáme a proto používáme hlavně umělé neuronové sítě. Tyto sítě přináší benefity, které jsem popsal výše:
            - není potřeba programovat řešení pro daný problém
            - není potřeba znát analytické řešení daného problému
            - síť dokáže generalizovat informace

            Ovšem i ANN mají svá úskalí:
            - může dojít k přetrénování
            - učební proces může uváznout v lokálním minimu
            - síť (pokud to popíšeme trochu populárně) váhá, není si jistá a nedává 100% odpovědi. Při běhu již natrénované neuronové sítě se vlastně nejedná o nic jiného než o statistický výpočet ...

            Tyto problémy mají spojitost s kvalitou trénovací sady, pokud se tedy bavíme o učení s učitelem. To je typické například pro rozpoznávání obrazu.

            Podtrženo sečteno se dá říct @satai má pravdu. Může dojít k tomu, že se robotický pilot postavený na strojovém učení zaměří zbytečně na nějakou konkrétní podmnožinu vstupů (laicky řečeno) a zbytek bude ignorovat. Bude chybovat při rozhodování. Může to být dáno nedokonalostí učebního procesu, kdy se váhy pro některé kombinace vstupů nastaví neúměrně vysoko a tím páde převládnou a dramaticky tak změní výstup celé ANN, i když to bude pro danou situaci zcela neadekvátní.

            Pozn #1: Zkuste se prosím oprostit od představy, že (v případě systému zahrnující strojového učení) je vše natvrdo naprogramováno a tím pádem 100% pod kontrolou. Není tomu tak.

            Pozn #2: Nejsem proti robotickým pilotům :). Jen je potřeba chápat technologii strojového učení se jejími klady i zápory.Skrýt celý příspěvek

          • danny
            15:58 12.08.2020

            Honzin: Popsal jsi to velmi dobře. Jen bych ještě možná doplnil jednu věc. Vzhledem k principu fungování neuronových sítí (a je jedno, kolika vrstvé jsou, vždy strašně závisí na ...Zobrazit celý příspěvek

            Honzin: Popsal jsi to velmi dobře. Jen bych ještě možná doplnil jednu věc. Vzhledem k principu fungování neuronových sítí (a je jedno, kolika vrstvé jsou, vždy strašně závisí na správném nastavení vah a prahů), výstupem by vždy měla být nějaká generalizace a shluková analýza. A vzhledem k tomu, co jsi zmínil výše - občas se nejedná o nic jiného, než hezky zabalenou statistiku - mají výsledky tendence sklouzávat do stereotypu. Pokud se nějaký postup jednou prokáže jako úspěšný, váhy takového řešení začnou růst. Systém se tak začne chovat dost předvidatelně a podléhat "zlozvykům".
            Je to stejné, jako když se Tay od Microsoftu během jediného dne na Common Crawlu naučila sprostě nadávat a propagovat Adolfa.Skrýt celý příspěvek

          • Badysak
            16:55 12.08.2020

            Dotaz jak se muže AI stíhačka naučit reagovat na situaci v boji, pokud vím pro strojové učení je potřeba obrovský výpočetní výkon kde se v malé stíhačce ten výkon vezme? Člověk ...Zobrazit celý příspěvek

            Dotaz jak se muže AI stíhačka naučit reagovat na situaci v boji, pokud vím pro strojové učení je potřeba obrovský výpočetní výkon kde se v malé stíhačce ten výkon vezme?
            Člověk vidí člověk reaguje. Počítač bez dostatečného výkonu nezareaguje na novou situaci stejně rychle jako člověk.
            Simulace na sálových superpočitačích jsou zajímavé, ale s realným letadlem to nemá nic společného, AI která nelétá moji důvěru nezíská.Skrýt celý příspěvek

          • Honzin
            17:44 12.08.2020

            @Badysak Modely se natrenuji dopredu na zemi. Pri realnem nasazeni se pak uz do techto natrenovanych modelu pouze nasypou vstupni data, probehne vypocet a precte se vystup. ...Zobrazit celý příspěvek

            @Badysak

            Modely se natrenuji dopredu na zemi. Pri realnem nasazeni se pak uz do techto natrenovanych modelu pouze nasypou vstupni data, probehne vypocet a precte se vystup. Napriklad pro umele neuronove site se vypocet zaklada pouze na nasobeni matic. Coz je operace, ktera se da dobre zoptimaliazovat uz na hardwarove urovni. Takze vypocet je opravdu extreme rychly.Skrýt celý příspěvek

  • GlobeElement
    08:02 12.08.2020

    Je chybou uvažovat o AI pilotovaném letounu jako o poněkud jiném, ale pořád jedincem pilotovaném letadle. AI řízený letoun nebude izolovaným vojákem, který sám hledá nepřítele a ...Zobrazit celý příspěvek

    Je chybou uvažovat o AI pilotovaném letounu jako o poněkud jiném, ale pořád jedincem pilotovaném letadle. AI řízený letoun nebude izolovaným vojákem, který sám hledá nepřítele a rozhlíží se kolem. Je to součást systému, jedno z mnoha koleček a jeho situační povědomí je nesrovnatelně lepší, než u člověka. AI se nestane, že se soustředí na jednu věc a nevšimne si jiné. Nespoléhá na vlastní smysly, ale je propojena s dalšími zdroji informací.
    AI bude i uvažovat jinak, než člověk. My si to většinou neuvědomujeme, ale při přijímání jakýchkoliv pokynů si do nich sami doplňujeme omezení či podmínky, které v tom pokynu nejsou. Stroj to neudělá. Tedy pokud jej tak předem neomezí programátor.

    Například, oblíbený test - řekněte číslo od jedné do deseti. Většina lidí řekne třeba pět, nebo osm. Málokdo řekne 3,25987. Ale v tom zadání není řečeno, že to musí být celé číslo. Tohle omezení si člověk přidává sám - počítač to neudělá.

    Vzdušný prostor je pro AI ideální prostředí, protože v něm není tolik nejrůznějších objektů, jako na zemském povrchu. Pokud to programátoři nezvrtají, musí AI nad lidským pilotem vyhrát.Skrýt celý příspěvek

  • PetrTechnik
    22:21 11.08.2020

    Podle mého AI nejpozději do 10let získá alespoň částečnou schopnost kreativně kognitivních interakcí. Prostě bude se učit u lidských leteckých instruktorů a později od nadřazených ...Zobrazit celý příspěvek

    Podle mého AI nejpozději do 10let získá alespoň částečnou schopnost kreativně kognitivních interakcí. Prostě bude se učit u lidských leteckých instruktorů a později od nadřazených (zkušenějších) AI. To je před čím varují vědci, protože zdaleka nejde jen o letadla ,ale i o robotickou pěchotu, tanky, atd.... Potom bude možné využívat tyto jednotky jakkoliv. Jako vojákovi by mi nedělalo moc dobře , vědět , že bojuji s oddílem strojů, kterým by operátor dal příkaz : "Bojovat do i za cenu vlastního zničení." Vědět ,že to co se na mě valí musím zničit, že žádný příkaz k ústupu nedostanou. :-(Skrýt celý příspěvek

    • danny
      10:38 12.08.2020

      PetrTechnik: Pokud, tak to rozhodně nebude nic, co by mělo kromě marketingového názvu cokoli společného s tím, čemu se dnes říká AI. Jak už v úvodu naznačuje tento článek. Vše, na ...Zobrazit celý příspěvek

      PetrTechnik: Pokud, tak to rozhodně nebude nic, co by mělo kromě marketingového názvu cokoli společného s tím, čemu se dnes říká AI. Jak už v úvodu naznačuje tento článek. Vše, na co se dnes plácne nálepka "AI" je čisté strojové učení. A to ještě sakra supervizované (někdo u něj musí sedět a vstupní data mu soubor po souboru otagovat a následně kontrolovat a opravovat).

      Např. u rozpoznávání objektů se díky ohromnému úsilí a velkým vzorkům trénovacích dat povedlo dosáhnout úctyhodných výsledků. Některé programy zvládnou slušně vizuálně zařadit houby, druhy zvířat, obličeje, konkrétní osoby dle postavy a typických pohybů. Jakmile je přesně daný target, je v optimálním úhlu k senzoru, tak jej s vysokou přesností zaklasifikují. Ale žádný z těch systémů nechápe, co hledá. Takže když je optimální kompozice narušena jiným objektem s matoucím tvarem nebo barevným schématem, nemají současné systémy problém změnit identitu banánu za kávovar. Nebo školní autobus za žirafu. Nebo stačí předhodit bezvadnému systému na rozpoznávání tváří méně časté etnikum a celkově tmavá barva kůže a očí. A zavaříš ho.

      A fakt to není o tom, že budou víc trénovat a dáš jím víc dat. Nic jako vědomí, tam není a být nemůže. Je to jen zrychlená, komplexnější a více daty a senzory krmená automatizace, obohacená o strojové učení. Takže jakékoli "neetické" chování autonomních systémů blízké budoucnosti bude podmíněno přáním programátora.
      V boji za cenu vlastního zničení se nic nemění. Už od začátku lidských dějin rozhodovala o taktice ekonomika - kolik jednotek se mi vyplatí obětovat pro likvidaci hodnotného cíle. Pokud obětuji levé křídlo, mám zdroje pro doplnění stavu? Nesníží ztráty bojeschopnost?Skrýt celý příspěvek

    • RiMr71
      11:38 12.08.2020

      "Jako vojákovi by mi nedělalo moc dobře , vědět , že bojuji s oddílem strojů, kterým by operátor dal příkaz : "Bojovat do i za cenu vlastního zničení." ...no a neni to podstatou ...Zobrazit celý příspěvek

      "Jako vojákovi by mi nedělalo moc dobře , vědět , že bojuji s oddílem strojů, kterým by operátor dal příkaz : "Bojovat do i za cenu vlastního zničení."

      ...no a neni to podstatou boje zpusobit, aby se protivnikovi, obrazne receno, "nedelalo moc dobre"?Skrýt celý příspěvek

    • Tom384
      11:56 12.08.2020

      To co popisujes uz AI umi dnes. Alphastar napriklad sam vymyslel nekolik hernich strategii ktere lide nepouzivaji a presto jsou velmi ucinne. Ted koukam jak si tahle AI stoji a ...Zobrazit celý příspěvek

      To co popisujes uz AI umi dnes. Alphastar napriklad sam vymyslel nekolik hernich strategii ktere lide nepouzivaji a presto jsou velmi ucinne.

      Ted koukam jak si tahle AI stoji a myslim ze je dobojovano. Za posledni sezonu 527 vitezstvi a 0 proher proti nejlepsim lidskym hracum.

      https://www.reddit.com/r/starc... Skrýt celý příspěvek

      • PetrTechnik
        22:52 12.08.2020

        To co popisuješ, je jen to , počítač v rámci daných pravidel hry, kombinuje postupy v herní strategii a ty strategie vedoucí k cíli si uloží do DB. Jenže boj nemá prakticky žádná ...Zobrazit celý příspěvek

        To co popisuješ, je jen to , počítač v rámci daných pravidel hry, kombinuje postupy v herní strategii a ty strategie vedoucí k cíli si uloží do DB. Jenže boj nemá prakticky žádná pravidla, tudíž jej nelze srovnávat s nějakým člověče nezlob se.Skrýt celý příspěvek

        • satai
          07:19 13.08.2020

          Samozřejmě, že má pravidla. "Když to naboříš do země, tak jsi prohrál." "První sestřelený je loser." "Když ti klesne kontrolka paliva na nulu, tak ti vysadí motor."

          Samozřejmě, že má pravidla. "Když to naboříš do země, tak jsi prohrál." "První sestřelený je loser." "Když ti klesne kontrolka paliva na nulu, tak ti vysadí motor."

        • Tom384
          09:38 13.08.2020

          To chce opravdu velkou davku ignorance porovnat SC2 s clovece nezlob se. SC2 je dost verna simulace realne bitvy. Neco podobneho vidi velitel utoku. Ma mapu, zna postaveni svych ...Zobrazit celý příspěvek

          To chce opravdu velkou davku ignorance porovnat SC2 s clovece nezlob se. SC2 je dost verna simulace realne bitvy. Neco podobneho vidi velitel utoku. Ma mapu, zna postaveni svych jednotek, ma omezene informace o nepratelskych jednotkach. Simulace probiha v realnem case a clovek pri ni provadi zhruba 3-10 akci za vtrerinu. Predstava za neuronka ma databazi hernich situaci je usmevna protoze tech stavu je asi 10^100000000 (presny cislo si nepamatuju). Na to abys dokazal hrat tuhle hru uz potrebujes neco jako abstraktni mysleni. Musis dokazat alspon castecne abstraktne myslet a dokazat kategorizovat (zjednodusovat) herni situaci. Neuveritelne komplexni uloha, podstatne slozitejsi nez vzusny souboj.Skrýt celý příspěvek

  • flanker.jirka
    20:29 11.08.2020

    Na jednu stranu by AI měla brát v potaz základní zákony robotiky. Na druhou stranu může být efektivnější v případech kde lidské tělo nestíhá. Pokud bude stíhačka s AI schopná ...Zobrazit celý příspěvek

    Na jednu stranu by AI měla brát v potaz základní zákony robotiky. Na druhou stranu může být efektivnější v případech kde lidské tělo nestíhá.
    Pokud bude stíhačka s AI schopná manévrů například s 20 g, tak limity člověka jsou podstatně menší, což může mít vliv na výsledek.Skrýt celý příspěvek

    • satai
      21:48 11.08.2020

      "Na jednu stranu by AI měla brát v potaz základní zákony robotiky"

      Na to jsi přišel jak?

      "Na jednu stranu by AI měla brát v potaz základní zákony robotiky"

      Na to jsi přišel jak?

      • flanker.jirka
        19:34 12.08.2020

        cesta, kdy robot bude mít nadvládu na lidmi je špatná. Ve výsledku to bude znamenat více násilí po celém světě, už jen z toho důvodu, protože ospravedlnit ztráty robotů v boji bude ...Zobrazit celý příspěvek

        cesta, kdy robot bude mít nadvládu na lidmi je špatná. Ve výsledku to bude znamenat více násilí po celém světě, už jen z toho důvodu, protože ospravedlnit ztráty robotů v boji bude snazší obhájit než ztráty lidských životů.Skrýt celý příspěvek

        • satai
          19:44 12.08.2020

          Asimovovy zákony jsou jenom literární prostředek, Jak vyrobit zajímavé zápletky. Víc za tím nehledej.

          Asimovovy zákony jsou jenom literární prostředek, Jak vyrobit zajímavé zápletky. Víc za tím nehledej.

    • danny
      09:57 12.08.2020

      na stíhání 20 g není nutné cpát AI do stíhačky, stačí do rakety vypuštěné z libovolného nosiče. A pak to může být klidně 40 g.

      na stíhání 20 g není nutné cpát AI do stíhačky, stačí do rakety vypuštěné z libovolného nosiče. A pak to může být klidně 40 g.

    • RiMr71
      11:36 12.08.2020

      ...myslite ony tri Asimovy zakony?
      To snad u zbrani nemuzete myslet vazne...

      ...myslite ony tri Asimovy zakony?
      To snad u zbrani nemuzete myslet vazne...

      • satai
        11:44 12.08.2020

        Presne tak. A navic ty tri zakony jsou ctyri ;)

        Presne tak. A navic ty tri zakony jsou ctyri ;)

        • GlobeElement
          13:14 12.08.2020

          On i sám Asimov předvedl, jak je lze obejít. Stačí, aby si bojový prostředek řízený počítačem myslel, že i protivníkovy bojové prostředky jsou řízeny počítačem, pak už žádné ...Zobrazit celý příspěvek

          On i sám Asimov předvedl, jak je lze obejít. Stačí, aby si bojový prostředek řízený počítačem myslel, že i protivníkovy bojové prostředky jsou řízeny počítačem, pak už žádné skrupule mít nebude.Skrýt celý příspěvek

  • dusan
    19:13 11.08.2020

    AI je dokonalá pri hrách - čiže pri stanovovaní postupov pri daných podmienkach. Zato dnes rozdrví človeka pri každej hre a nie je pochýb , že i v "hre o život" t.j. leteckom ...Zobrazit celý příspěvek

    AI je dokonalá pri hrách - čiže pri stanovovaní postupov pri daných podmienkach. Zato dnes rozdrví človeka pri každej hre a nie je pochýb , že i v "hre o život" t.j. leteckom súboji bude mať čochvíľa navrch.

    Ale mimo toho čo "pozná" je AI úplne "blbá" a nedokáže ani elementárne veci .....napr na air policing by som taký stroj určite nepustil "bez dozoru" ....

    Skrátka nejakou formou ju bude musieť pilot či operátor kontrolovať i naďalej - skrátka tam, kde sa už AI nechytá.Skrýt celý příspěvek

    • danny
      09:55 12.08.2020

      dusan: Uff... děkuji za střízlivý názor.

      dusan: Uff... děkuji za střízlivý názor.

  • pks_
    17:35 11.08.2020

    Jediná šance člověka proti stroji je lidské oko, které zvládne lépe prohledávat prostor. Pokud dojde k efektivnímu zarušení veškeré radiové komunikace, tak AI stroje mohou mít ...Zobrazit celý příspěvek

    Jediná šance člověka proti stroji je lidské oko, které zvládne lépe prohledávat prostor. Pokud dojde k efektivnímu zarušení veškeré radiové komunikace, tak AI stroje mohou mít problém rozeznávat nepřítele.

    Nevýhodou zavádění AI pilotů bude ztráta schopnosti mít živého vycvičeného pilota - protože AI bude v kokpitech a piloti na úřadu práce.Skrýt celý příspěvek

    • satai
      17:54 11.08.2020

      Cekal bych spis, ze se role pilotu posune, nez ze by sli na pracak...

      Cekal bych spis, ze se role pilotu posune, nez ze by sli na pracak...

      • pks_
        18:08 11.08.2020

        Pár jich zůstane, ale pokud dnes létá 100 pilotovaných letadel, tak nečekám, že po zavedení AI bude 100P + 100AI, spíše něco jako 20P + 100AI. Navíc může převládnout názor, že AI ...Zobrazit celý příspěvek

        Pár jich zůstane, ale pokud dnes létá 100 pilotovaných letadel, tak nečekám, že po zavedení AI bude 100P + 100AI, spíše něco jako 20P + 100AI.
        Navíc může převládnout názor, že AI cvičit nemusí a stačí je mít zakonzervovány, takže bude decimována i schopnost údržby strojů.Skrýt celý příspěvek

        • Lukas123
          18:38 11.08.2020

          Osobne si myslim ze co sa tyka údržby bude prave potreba dostatocny pocet kvalifikovanych odbornikov na udrzbu a prevazdku takto pokročilých systémov. Rovnako si myslím ze v ...Zobrazit celý příspěvek

          Osobne si myslim ze co sa tyka údržby bude prave potreba dostatocny pocet kvalifikovanych odbornikov na udrzbu a prevazdku takto pokročilých systémov. Rovnako si myslím ze v najbližších desaťročiach nenastane taký rapidny pokles pilotovanych strojov a lietadiel. Skôr to bude prirodzený proces kedy sa z dosluhujucich pilotov môžu stať tvorcovia novych taktik pre vyuzitie AI lietadiel. Ale tak skoro to asi nebude.Skrýt celý příspěvek

          • danny
            10:09 12.08.2020

            Souhlas. Už u současné verze bezpilotníků je hezky vidět, že nepřítomnost pilota = nižší provozní náklady. "Podle magazínu FlighGlobal, odvolávající se na oficiální databázi ...Zobrazit celý příspěvek

            Souhlas. Už u současné verze bezpilotníků je hezky vidět, že nepřítomnost pilota = nižší provozní náklady. "Podle magazínu FlighGlobal, odvolávající se na oficiální databázi techniky amerického letectva, vyjde jedna letová hodina RQ-4 Global Hawk na 6710 dolarů.
            Skutečná provozní cena za letovou hodinu je po započtení nákladů na personál atd... pravděpodobně několikanásobně vyšší."

            Ony ty super senzory, které nahrazují pilota, mají taky nějakou omezenou životnost. Pokud podporují lidskou posádku, ta je zapíná v nějakém ekonomickém modu, nesvítí nonstop. Což u bezpilotníku moc nepřipadá v úvahu. A motory a mechanika se opotřebovává stejně bez ohledu, jestli v tom jako užitečné zatížení sedí 80 kg živé váhy, nebo pár dalších počítačů.Skrýt celý příspěvek

        • TC82
          18:46 11.08.2020

          AI muze cvicit 24/7 v simulacich, prakticky toho mohou za zlomek ceny nacvicit o nekolik radu vice nez zivi piloti. To ze by pilot mel vyhodu ve VID v dobe kde tvrde frci BVR ? AI ...Zobrazit celý příspěvek

          AI muze cvicit 24/7 v simulacich, prakticky toho mohou za zlomek ceny nacvicit o nekolik radu vice nez zivi piloti.
          To ze by pilot mel vyhodu ve VID v dobe kde tvrde frci BVR ? AI vklidu zvladne zpracovavat vstupy ze vsech senzoru naraz vcetne 360 kamery o cemz si lidskej pilot muze nechat zdat.Skrýt celý příspěvek

          • satai
            21:49 11.08.2020

            Nejen 24/7 ale najednou v deseti tisících kopiích...

            Nejen 24/7 ale najednou v deseti tisících kopiích...

          • Honzin
            09:41 12.08.2020

            TC82 a satai: presne tak. Ne že by robotický pilot byl úplně neprůstřelný a samozřejmě ho čeká dlouhý vývoj, ale kognitivní schopnosti člověka (jako například zrak), překonává ...Zobrazit celý příspěvek

            TC82 a satai: presne tak.

            Ne že by robotický pilot byl úplně neprůstřelný a samozřejmě ho čeká dlouhý vývoj, ale kognitivní schopnosti člověka (jako například zrak), překonává zcela určitě už teď.

            Těch pilotů na pracáku bych se vůbec nebál. S velkou pravděpodobností dlouho dobu nedojde ke 100% předání těchto úkol na roboty Svou roli v tom bude hrát:
            - průběh vývoje / úroveň aktuální vyspělosti robotických pilotů,
            - morální aspekty,
            - ale taky schopnost analyzovat a zlepšovat tyto robotické piloty. Skutečný pilot s reálnými zkušenostmi může s těmito věcmi výrazně pomoct.Skrýt celý příspěvek

          • pks_
            11:00 12.08.2020

            Cvičit v simulacích může, ale prověřuje se tak jen část systému odstřižená od reality. Ve skutečném boji musí být plně funkční celý řetězec od senzorů až po serva na kormidlech. ...Zobrazit celý příspěvek

            Cvičit v simulacích může, ale prověřuje se tak jen část systému odstřižená od reality. Ve skutečném boji musí být plně funkční celý řetězec od senzorů až po serva na kormidlech. Vstupy jsou vždy zatíženy chybou, a ta chyba v extrémních podmínkách (přetížení, vibrace, střelba) bude růst.

            Na druhou stranu se tady bavíme o dogfightu - tedy jedné vymírající disciplíně vzdušného boje, která je od reality vzdálena jako rytířské zápasy na koních s dřevci.

            Vyhrává ten, kdo dokáže ustát větší přetížení a má lepší poměr tah/hmotnost.

            Rozlišení 360 stupňových kamer je mizerné, pokud hledáte několik kilometrů vzdálený objekt o velikosti v řádu 10 metrů.Skrýt celý příspěvek

          • Honzin
            11:42 12.08.2020

            pks_: Já souhlasím s tím, že simulátor má svá omezení a že realný test je nejlepší. Ale simulovat můžeš výpadek a chybná data napříč všemi senzory/vstupy. Nevím jak je to s ...Zobrazit celý příspěvek

            pks_:
            Já souhlasím s tím, že simulátor má svá omezení a že realný test je nejlepší. Ale simulovat můžeš výpadek a chybná data napříč všemi senzory/vstupy.

            Nevím jak je to s kvalitou 360 kamer, ale snad se shodneme na tom, že tento problém je už dnes technicky řešitelný.Skrýt celý příspěvek

          • diwalt
            10:17 13.08.2020

            Ohledně testování a zkoušení různých scénářů. Doporučuju se podívat, jakým způsobem se testuje sw například v automotive nebo v kosmonautice. Nejde sice o AI, ale to v tomto ...Zobrazit celý příspěvek

            Ohledně testování a zkoušení různých scénářů.

            Doporučuju se podívat, jakým způsobem se testuje sw například v automotive nebo v kosmonautice. Nejde sice o AI, ale to v tomto kontextu není to podstatné. Jde o to, že testování probíhá na reálně nasbíraných datech z předchozího provozu a především je součástí testování chování při poruchách - tedy posílají se z některých senzorů záměrně chybná data (simulace vadného senzoru), vypínají se jednotlivé části (v kosmonautice, kde jsou typicky tři shodné řídící počítače se jeden či dva vypnou, simulej se vadná funkce jednoho či dvou z nich apod.), přerušují se přenosové dráhy apod.

            Tohle je normální způsob testování prakticky kdekoli - testovat co nejvíce chybných stavů a poruch. Není jediný důvod se domnívat, že součástí testů AI něco takového nebude.Skrýt celý příspěvek

Načítám diskuzi...