Pilot vs. umělá inteligence: Blíží se souboj robotické a lidské F-16
- 11. 8. 2020
- 47 komentářů
- Jan Grohmann
Americká výzkumná agentura DARPA (Defense Advanced Research Projects Agency) připravuje virtuální souboj lidské a robotické F-16. Souboj je součástí testovací série AlphaDogfight Trials amerického letectva (USAF). Série dláždí cestu k zavedení prvků umělé inteligence (AI) do řídících a bojových systémů letadel.
V poslední době slyšíme o umělé inteligenci na každém kroku. Podle Tomáše Mikolova, nejúspěšnějšího a nejznámějšího českého odborníka na umělou inteligenci, pokud dnes mluvíme o AI, téměř výhradně se to týká oblasti strojového učení.
Rozmach strojového učení nastal po roce 2010 a v řadě oblastí lidské činnosti má obrovský potenciál. Typicky jde o strojové rozpoznávání obrazu, což má ohromné využití v satelitním průzkumu Země, bezpečnosti (všeho druhu), navádění přesných zbraní, autonomní dopravě atd.
Strojové učení je proces, kdy se počítač na určitém vzorku dat (tedy nejen na „fotkách“) učí rozeznávat určité vzorce. Jaké vzorce ma najít, co s nimi dělat a jak na ně reagovat, to vše počítači řekne programátor. V ostrém provozu počítač nové sady dat (například nové neznámé fotky) porovnává s databází. Pokud najde shodu, vykoná takový úkol, který mu určil programátor ‒ řekne například, že na fotce je nějaké zvíře.
Počítač tedy dokáže dělat strojově přesné a velmi rychlé rozhodnutí, ale nikdy neudělá nic nad rámec svého naprogramování. Může také najít vhodnější cesty a řešení, zdokonalovat se, ale vždy s cílem splnit člověkem zadaný úkol. Počítač situaci nechápe a není kreativní ‒ „pouze“ dokáže ve zlomku sekundy porovnávat obrovské množství dat a umí si zapamatovat takové postupy, které vedou k nejlepšímu vyřešení úkolu. Čím déle se tedy počítač učí a má přístup k většímu vzorku dat, tím jsou jeho reakce efektivnější a přesnější.
Na videu vidíme příklad strojového učení. Počítač pomocí milionů simulací najde nejlepší řešení problému ‒ jak ukrýt modré panáčky před červenými. Letecký souboj je pochopitelně o mnoho řádů komplexnější, ale principy jsou zcela stejné.
AI v bojových letounech je také „jen“ pokročilá forma strojového učení. Řídící systém letadla má přístup k obrovské databázi různých situací, přičemž na každou z nich má odpovídající řešení. V ostrém provozu řídící systém letadla s AI „sleduje“ scénu (rychlost, výšku, aerodynamické podmínky, radarová a obrazová data atd. atd.), srovnává situaci se svou databázi, a následně zvolí optimální řešení k dosažení člověkem naprogramovaného cíle. Pomocí simulací (pochopitelně v manitelnech naprogramování) však může najít nejlepší cestu k vyřešení člověkem zadaného cíle. Pokud se ale počítač dostane do neznámé situace (což lze také naprogramovat), nedokáže samozřejmě přijít s vlastním tvořivým řešením.
Nicméně pomocí velkého vzorku dat, neustálého učení v simulacích, znalosti fyzikálních zákonů a chování letounu, dokáže řídící systém fungovat v určitých situacích velmi efektivně, rychle a precizně. Ozbrojené síly po celém světě doufají, že tyto vlastnosti mohou pomoci překonat kognitivní omezení člověka v náročných, komplexních a silně stresujících bojových situacích. Typickým příkladem je velmi složité vedení leteckého boje. V konečném důsledku pokrok v AI umožní vznik a efektivní nasazení tzv. robotických vedených letadel (robotických loyal-wingmanů) a vytvoření společných bojových jednotek lidí a robotů.
AlphaDogfight Trials, jak napovídá název, řeší letecké soboje v rámci přímé viditelnosti, tedy tzv. „dog fighty“
Současnou úroveň letecké AI ověřuje testovací série AlphaDogfight Trials amerického letectva. Dne 18. až 20. srpna proběhne třetí a poslední on-line simulační klání. Vyvrcholením třetího klání se stane virtuální souboj robotické a lidské F-16. AlphaDogfight Trials je součástí zastřešujícího leteckého AI programu ACE (Air Combat Evolution).
„Jsme stále nadšeni, když vidíme, jak algoritmy AI fungují proti sobě navzájem i proti vyškolenému člověku a doufáme, že stíhací piloti z letectva, námořnictva a námořní pěchoty, stejně jako vojenští vůdci a členové AI komunity, se zaregistrují a budou souboj sledovat online. Bylo úžasné vidět, jak daleko týmy za poslední rok pokročily s AI v autonomních soubojích,“ uvedl plukovník Dan Javorsek, programový manažer kanceláře pro strategické projekty v agentuře DARPA.
Třetího testovacího kola se zúčastní osm týmů: Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI a SoarTech.
Během prvního dne týmy nasadí své AI algoritmy v simulovaných soubojích proti pěti různým algoritmům vyvinutých v laboratořích aplikované fyziky na univerzitě Johnse Hopkinse. Během druhého a třetího dne se utkají týmy mezi sebou. Nejlepší tým pak nasadí svůj algoritmus ve virtuálním souboji proti F-16 pilotované lidským pilotem.
Tým Georgia Tech Research Institute
„Bez ohledu na to, zda finální souboj vyhraje člověk nebo stroj, AlphaDogfight Trials je o zvýšení důvěry v AI. Pokud vítěz AI získá respekt pilota F-16, dostali jsme se o krok blíže k vytvoření efektivního týmu stroj-člověk, což je cílem programu ACE,“ řekl Javorsek a připoměl, že právě nedůvěra válečníků je hlavní překážkou v bojovém nasazení AI.
Simulační série AlphaDogfight Trials (resp. program ACE) má zásadní význam pro vedení bojových leteckých operací blízké budoucnosti. Právě v blízké budoucnosti nejvyspělejší letectva světa hodlají nasadit robotické wing-many jako doprovod k pilotovaným letadlům. V jednom balíků přitom může letět destíky robotických letadel (z počátku konstrukčně velmi jednoduchých).
V uvažovaném týmu člověk-stroj se lidé se postarají o chápání bojové scény a o taktická rozhodnutí. Robotická letadla napak precizně, okamžitě, bez odmlouvání a i za cenu svého zničení vykonají člověkem přidělený úkol. K takovému cíli ale vede ještě dlouhá cesta strojového učení robotických systémů. Než lidé pustí AI do boje, bude třeba provést ještě mnoho milionů (nebo o řád, či několik řádů více) simulací, a to nejen ve virtuální realitě.
Související články
Umělá inteligence pro bojová vozidla pěchoty CV90 MkIV
Společnost BAE Systems se minulý týden zúčastnila konference Future Armoured Vehicles Situational ...
- 01.06.2018
- 18 komentářů
- Tisková zpráva
Budoucnost leteckého průzkumu: Drony a umělá inteligence
Americké letectvo (USAF) v rámci nové „cestovní mapy“ Next Generation ISR Dominance Flight Plan ...
- 07.08.2018
- 11 komentářů
- Jan Grohmann
Česká vojenská družice GOLEM
V souvislosti se spuštěním satelitního centra SATCEN ČR českého Vojenského zpravodajství se objevily ...
- 16.01.2020
- 32 komentářů
- Jan Grohmann
Radiolokační satelity a planetární vyhledávač
Americká Národní agentura pro zpravodajství o Zemi NGA (National Geospatial-Intelligence Agency) ...
- 01.07.2020
- 1 komentářů
- Jan Grohmann
Vysledek presne podle meho ocekavani.
https://www.osel.cz/11331-alph...Vysledek presne podle meho ocekavani.
https://www.osel.cz/11331-alph...Solidní masakr, časem to dopadne stejně se všemi druhy zbranových systému. Obvzláště, když stroje bez křehkého pilota z masa mohou provádět jinak nemožné manévry.
Solidní masakr, časem to dopadne stejně se všemi druhy zbranových systému. Obvzláště, když stroje bez křehkého pilota z masa mohou provádět jinak nemožné manévry.
:-) O nic nejde, jde jen o test. Komentáře o tom, že to nepůjde, nevyjde, je blbost, k čemu apod. jsou zábavné. Nic z toho nezjistíte, když to nevyzkoušíte. Bude to jistě ...Zobrazit celý příspěvek
:-)
O nic nejde, jde jen o test. Komentáře o tom, že to nepůjde, nevyjde, je blbost, k čemu apod. jsou zábavné. Nic z toho nezjistíte, když to nevyzkoušíte. Bude to jistě poučnější jak ruský "moloďec" v obleku robota :-)Skrýt celý příspěvekNavrhuji taktiku pro 5 skutečných pilotů proti 5 AI. 1. zajistit kompletní zarušení komunikace a GPS 2. zajistit takovou kamufláž, aby stroje naše a cizí vypadaly +/- stejně 3. ...Zobrazit celý příspěvek
Navrhuji taktiku pro 5 skutečných pilotů proti 5 AI.
1. zajistit kompletní zarušení komunikace a GPS
2. zajistit takovou kamufláž, aby stroje naše a cizí vypadaly +/- stejně
3. přidat si před bitvou smluvený rozlišovací znak, na který nebude AI cvičena
4. párkrát prolétnout oblačností - aby AI neměla jistotu, že tam, kde byl přítel je pořád přítel
---
výsledkem by mělo být, že AI bude mít nepřijatelnou nejistotu k výstřelu a buď nevystřelí vůbec a nebo bude střílet hlava nehlava (v takové situaci bude nejlépe zmizet, ať si to nepřítel vyříká ručně stručně sám se sebou :-)Skrýt celý příspěvekAčkoliv jeho návrh taktiky je spíše úsměvný, celková myšlenka se nezakládá na vodě. Prvně dám příklad z klasického cvičení proti OoFor - Amíci se velice snažili přizpůsobit design ...Zobrazit celý příspěvek
Ačkoliv jeho návrh taktiky je spíše úsměvný, celková myšlenka se nezakládá na vodě.
Prvně dám příklad z klasického cvičení proti OoFor - Amíci se velice snažili přizpůsobit design opforácké techniky vzhledu pravděpodobných protivníků (čti Sovětů), ačkoliv by to vlastně nemělo hrát žádnou roli, jestli sestřeluju letadlo takový nebo makový. Jenže těm trénujícím vojskům to pomáhalo navodit atmosféru, dostali potřebný návyky rozpoznávat nepřítele v terénu atd...
Pokud jde o "AI" - z praxe se ukazuje, že přes všechny její výhody občas dělá lidským rozumem nepochopitelné věci. Takový autopilot tesly občas ignoruje překážku na silnici, navede auto do bariérya jiné skopičiny, které by vlastně vůbec dělat neměl. Při vyšetřování se pak ukáže, že nějaká triviálnost počítač zmátla, takže neuměl adekvátně reagovat nebo reagoval špatně.
Proto ta myšlenka nabarvit svoje stíhačky jako ty nepřátelské nemusí být až tak uplně mimo, v principu jde o to vyhodnocující algoritmus "rozhodit" natolik, aby nám to poskytlo měřitelnou výhodu.
Mimochodem - ony tyhle neuronové sítě můžou dělat uplně stejné kraviny jako lidi, to není o tom že by byly neomylné. Vždyť ony se víceméně snaží napodobit část chování živých organizmů, akorát ty počítače jsou schopny "zhustit" evoluci do krátkého času, aztímco přírod to trvalo trochu dýl. Už tu někdo psal, že chatovací bot se naučil nadávat, v jiném pokusu si dva komunikující počítače natolik zefektivnily angličtinu, že jí už nikdo nerozuměl, a není důvod proč by se letecká "AI" nenaučila nějakou jinou blbost. A programátoři při testování to nemusí vůbec zjistit (ono se stačí podívat s kolika bugy lezou ven komeční softwary).Skrýt celý příspěvek
Článek uvádí " AI v bojových letounech je také „jen“ pokročilá forma strojového učení. Řídící systém letadla má přístup k obrovské databázi různých situací, přičemž na každou z ...Zobrazit celý příspěvek
Článek uvádí "
AI v bojových letounech je také „jen“ pokročilá forma strojového učení. Řídící systém letadla má přístup k obrovské databázi různých situací, přičemž na každou z nich má odpovídající řešení.".
Já samozřejmě nevím, jak přesně jsou robotičtí piloti naprogramování, ale nemyslím si, že ta představa o obří databází je správná. Strojové učení (jak někteří mylně zaměňují s AI) sebou přináší tu obrovskou výhodu, že člověk nemusí programovat řešení každé situace (kombinace vstupů). Dokonce nemusí ani rozumět danému problému. Pouze zadá vstupy a očekávaný výstupy a nechá stroj ať se sám naučí jak těchto výstupů/cílů dosáhnout.
Na to bych navázal ještě druhou poznámkou. Dost tu zaznívají názory, které vidí problém v tom, že to co se robotický pilot nenaučil to neumí.
Za prvé to není tak, že když ho naučím vést vzdušný boj proti 3 letadlům, tak nezvládne boj proti 4 nebo 2 nepřátelským letadlům. Je to především díky schopnosti umělých neuronových sítí (aktuálně základní stavební kámen většiny systému s prvky AI) umět dedukovat řešení i pro situace (kombinaci vstupů), které nebyly součástí trénovací množiny.
Je to spíše tak, že když naučím robotického pilota pouze bojovat, tak nebudu umět přistávat. Ale to přece není žádný problém. Slepá místa se časem pokryjí.
Tak a teď se konečné dostávám k původní myšlence. Daleko zajímavější mi příjde opačný problém. Jak ověřit že v doméně, na kterou jsem robotické pilota učil, neexistuje moment (kombinace vstupů), kdy se zachová špatně / fatálně. Ono to totiž moc dobře nejde, protože celá rozhodovací logika je uložena ve vahách umělé neuronové sítě a z toho zpětně už nejde nic moc vyčíst.
Samozřejmě vždy se dají udělat testy, ale tyto testy většinou nejsou schopny pokrýt celý stavový prostor (kombinaci vstupů).Skrýt celý příspěvekPopsal jsi to naprosto presne. Add tebou nastineny problem. Ano, vzdy bude existovat moznost ze AI vyhodnoti situaci spatne. Ale ten samy probem nastava i u letadla pilotovaneho ...Zobrazit celý příspěvek
Popsal jsi to naprosto presne. Add tebou nastineny problem. Ano, vzdy bude existovat moznost ze AI vyhodnoti situaci spatne. Ale ten samy probem nastava i u letadla pilotovaneho clovekem. Jde o to ze prostor vsech moznych kombinaci vsupu kdy AI vyhodnoti situaci spatne je ostre mensi nez prostor kombinaci vstupu kdy udela chybu lidsky pilot.Skrýt celý příspěvek
Mohl bys prosím trochu rozvést jak to myslíš. Díky.
Mohl bys prosím trochu rozvést jak to myslíš. Díky.
Jednoduse, AI nebusi byt dokonala. Staci ze bude lepsi nez pilot. Pokud vis ze takouvou AI disponuje i protivnik tak od te doby uz se pilot neposadi do kokpitu letadla.
Jednoduse, AI nebusi byt dokonala. Staci ze bude lepsi nez pilot. Pokud vis ze takouvou AI disponuje i protivnik tak od te doby uz se pilot neposadi do kokpitu letadla.
AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o všech dějích a ...Zobrazit celý příspěvek
AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o všech dějích a objektech v okolí.
Lidé někdy (spíše častěji) postupují podle pravidla "přání otcem myšlenky", vyberou si jen takové informace, které podporují jejich názor a ostatní ignorují. To AI neudělá.
Lidé mohou ve stresu panikařit. AI ne.
AI bude konat přísně logicky. To ovšem neznamená, že vždy rozumně.
Může se totiž stát, že jednání AI bude předvídatelné.Skrýt celý příspěvekTak hlavne velka cast moderni AI neni z velke casti naprogramovana, ale uci se sama (viz ruzne Deep-neco projekty, ktere se uci hry tak, ze si hraje sama se sebou...). Naopak to ...Zobrazit celý příspěvek
Tak hlavne velka cast moderni AI neni z velke casti naprogramovana, ale uci se sama (viz ruzne Deep-neco projekty, ktere se uci hry tak, ze si hraje sama se sebou...).
Naopak to zamereni na detail je dost problem - diky nemu funguje ted dost popularni odvetvi adversary AI, kde drobne zmeny vstupu umozni uplne poplest AI. https://openai.com/content/ima... Skrýt celý příspěvek@GlobeElement "AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o ...Zobrazit celý příspěvek
@GlobeElement
"AI se nikdy nemůže přihodit klasická lidská chyba, že se soustředí na jeden dílčí problém a ostatní věci odsune stranou. Nikdy nepřestane mít detailní přehled o všech dějích a objektech v okolí."
Tohle by asi platilo, kdybychom měli opravdovou AI. Tu nemáme a proto používáme hlavně umělé neuronové sítě. Tyto sítě přináší benefity, které jsem popsal výše:
- není potřeba programovat řešení pro daný problém
- není potřeba znát analytické řešení daného problému
- síť dokáže generalizovat informace
Ovšem i ANN mají svá úskalí:
- může dojít k přetrénování
- učební proces může uváznout v lokálním minimu
- síť (pokud to popíšeme trochu populárně) váhá, není si jistá a nedává 100% odpovědi. Při běhu již natrénované neuronové sítě se vlastně nejedná o nic jiného než o statistický výpočet ...
Tyto problémy mají spojitost s kvalitou trénovací sady, pokud se tedy bavíme o učení s učitelem. To je typické například pro rozpoznávání obrazu.
Podtrženo sečteno se dá říct @satai má pravdu. Může dojít k tomu, že se robotický pilot postavený na strojovém učení zaměří zbytečně na nějakou konkrétní podmnožinu vstupů (laicky řečeno) a zbytek bude ignorovat. Bude chybovat při rozhodování. Může to být dáno nedokonalostí učebního procesu, kdy se váhy pro některé kombinace vstupů nastaví neúměrně vysoko a tím páde převládnou a dramaticky tak změní výstup celé ANN, i když to bude pro danou situaci zcela neadekvátní.
Pozn #1: Zkuste se prosím oprostit od představy, že (v případě systému zahrnující strojového učení) je vše natvrdo naprogramováno a tím pádem 100% pod kontrolou. Není tomu tak.
Pozn #2: Nejsem proti robotickým pilotům :). Jen je potřeba chápat technologii strojového učení se jejími klady i zápory.Skrýt celý příspěvekHonzin: Popsal jsi to velmi dobře. Jen bych ještě možná doplnil jednu věc. Vzhledem k principu fungování neuronových sítí (a je jedno, kolika vrstvé jsou, vždy strašně závisí na ...Zobrazit celý příspěvek
Honzin: Popsal jsi to velmi dobře. Jen bych ještě možná doplnil jednu věc. Vzhledem k principu fungování neuronových sítí (a je jedno, kolika vrstvé jsou, vždy strašně závisí na správném nastavení vah a prahů), výstupem by vždy měla být nějaká generalizace a shluková analýza. A vzhledem k tomu, co jsi zmínil výše - občas se nejedná o nic jiného, než hezky zabalenou statistiku - mají výsledky tendence sklouzávat do stereotypu. Pokud se nějaký postup jednou prokáže jako úspěšný, váhy takového řešení začnou růst. Systém se tak začne chovat dost předvidatelně a podléhat "zlozvykům".
Je to stejné, jako když se Tay od Microsoftu během jediného dne na Common Crawlu naučila sprostě nadávat a propagovat Adolfa.Skrýt celý příspěvekDotaz jak se muže AI stíhačka naučit reagovat na situaci v boji, pokud vím pro strojové učení je potřeba obrovský výpočetní výkon kde se v malé stíhačce ten výkon vezme? Člověk ...Zobrazit celý příspěvek
Dotaz jak se muže AI stíhačka naučit reagovat na situaci v boji, pokud vím pro strojové učení je potřeba obrovský výpočetní výkon kde se v malé stíhačce ten výkon vezme?
Člověk vidí člověk reaguje. Počítač bez dostatečného výkonu nezareaguje na novou situaci stejně rychle jako člověk.
Simulace na sálových superpočitačích jsou zajímavé, ale s realným letadlem to nemá nic společného, AI která nelétá moji důvěru nezíská.Skrýt celý příspěvek@Badysak Modely se natrenuji dopredu na zemi. Pri realnem nasazeni se pak uz do techto natrenovanych modelu pouze nasypou vstupni data, probehne vypocet a precte se vystup. ...Zobrazit celý příspěvek
@Badysak
Modely se natrenuji dopredu na zemi. Pri realnem nasazeni se pak uz do techto natrenovanych modelu pouze nasypou vstupni data, probehne vypocet a precte se vystup. Napriklad pro umele neuronove site se vypocet zaklada pouze na nasobeni matic. Coz je operace, ktera se da dobre zoptimaliazovat uz na hardwarove urovni. Takze vypocet je opravdu extreme rychly.Skrýt celý příspěvek
Je chybou uvažovat o AI pilotovaném letounu jako o poněkud jiném, ale pořád jedincem pilotovaném letadle. AI řízený letoun nebude izolovaným vojákem, který sám hledá nepřítele a ...Zobrazit celý příspěvek
Je chybou uvažovat o AI pilotovaném letounu jako o poněkud jiném, ale pořád jedincem pilotovaném letadle. AI řízený letoun nebude izolovaným vojákem, který sám hledá nepřítele a rozhlíží se kolem. Je to součást systému, jedno z mnoha koleček a jeho situační povědomí je nesrovnatelně lepší, než u člověka. AI se nestane, že se soustředí na jednu věc a nevšimne si jiné. Nespoléhá na vlastní smysly, ale je propojena s dalšími zdroji informací.
AI bude i uvažovat jinak, než člověk. My si to většinou neuvědomujeme, ale při přijímání jakýchkoliv pokynů si do nich sami doplňujeme omezení či podmínky, které v tom pokynu nejsou. Stroj to neudělá. Tedy pokud jej tak předem neomezí programátor.
Například, oblíbený test - řekněte číslo od jedné do deseti. Většina lidí řekne třeba pět, nebo osm. Málokdo řekne 3,25987. Ale v tom zadání není řečeno, že to musí být celé číslo. Tohle omezení si člověk přidává sám - počítač to neudělá.
Vzdušný prostor je pro AI ideální prostředí, protože v něm není tolik nejrůznějších objektů, jako na zemském povrchu. Pokud to programátoři nezvrtají, musí AI nad lidským pilotem vyhrát.Skrýt celý příspěvekPodle mého AI nejpozději do 10let získá alespoň částečnou schopnost kreativně kognitivních interakcí. Prostě bude se učit u lidských leteckých instruktorů a později od nadřazených ...Zobrazit celý příspěvek
Podle mého AI nejpozději do 10let získá alespoň částečnou schopnost kreativně kognitivních interakcí. Prostě bude se učit u lidských leteckých instruktorů a později od nadřazených (zkušenějších) AI. To je před čím varují vědci, protože zdaleka nejde jen o letadla ,ale i o robotickou pěchotu, tanky, atd.... Potom bude možné využívat tyto jednotky jakkoliv. Jako vojákovi by mi nedělalo moc dobře , vědět , že bojuji s oddílem strojů, kterým by operátor dal příkaz : "Bojovat do i za cenu vlastního zničení." Vědět ,že to co se na mě valí musím zničit, že žádný příkaz k ústupu nedostanou. :-(Skrýt celý příspěvek
PetrTechnik: Pokud, tak to rozhodně nebude nic, co by mělo kromě marketingového názvu cokoli společného s tím, čemu se dnes říká AI. Jak už v úvodu naznačuje tento článek. Vše, na ...Zobrazit celý příspěvek
PetrTechnik: Pokud, tak to rozhodně nebude nic, co by mělo kromě marketingového názvu cokoli společného s tím, čemu se dnes říká AI. Jak už v úvodu naznačuje tento článek. Vše, na co se dnes plácne nálepka "AI" je čisté strojové učení. A to ještě sakra supervizované (někdo u něj musí sedět a vstupní data mu soubor po souboru otagovat a následně kontrolovat a opravovat).
Např. u rozpoznávání objektů se díky ohromnému úsilí a velkým vzorkům trénovacích dat povedlo dosáhnout úctyhodných výsledků. Některé programy zvládnou slušně vizuálně zařadit houby, druhy zvířat, obličeje, konkrétní osoby dle postavy a typických pohybů. Jakmile je přesně daný target, je v optimálním úhlu k senzoru, tak jej s vysokou přesností zaklasifikují. Ale žádný z těch systémů nechápe, co hledá. Takže když je optimální kompozice narušena jiným objektem s matoucím tvarem nebo barevným schématem, nemají současné systémy problém změnit identitu banánu za kávovar. Nebo školní autobus za žirafu. Nebo stačí předhodit bezvadnému systému na rozpoznávání tváří méně časté etnikum a celkově tmavá barva kůže a očí. A zavaříš ho.
A fakt to není o tom, že budou víc trénovat a dáš jím víc dat. Nic jako vědomí, tam není a být nemůže. Je to jen zrychlená, komplexnější a více daty a senzory krmená automatizace, obohacená o strojové učení. Takže jakékoli "neetické" chování autonomních systémů blízké budoucnosti bude podmíněno přáním programátora.
V boji za cenu vlastního zničení se nic nemění. Už od začátku lidských dějin rozhodovala o taktice ekonomika - kolik jednotek se mi vyplatí obětovat pro likvidaci hodnotného cíle. Pokud obětuji levé křídlo, mám zdroje pro doplnění stavu? Nesníží ztráty bojeschopnost?Skrýt celý příspěvek"Jako vojákovi by mi nedělalo moc dobře , vědět , že bojuji s oddílem strojů, kterým by operátor dal příkaz : "Bojovat do i za cenu vlastního zničení." ...no a neni to podstatou ...Zobrazit celý příspěvek
"Jako vojákovi by mi nedělalo moc dobře , vědět , že bojuji s oddílem strojů, kterým by operátor dal příkaz : "Bojovat do i za cenu vlastního zničení."
...no a neni to podstatou boje zpusobit, aby se protivnikovi, obrazne receno, "nedelalo moc dobre"?Skrýt celý příspěvekTo co popisujes uz AI umi dnes. Alphastar napriklad sam vymyslel nekolik hernich strategii ktere lide nepouzivaji a presto jsou velmi ucinne. Ted koukam jak si tahle AI stoji a ...Zobrazit celý příspěvek
To co popisujes uz AI umi dnes. Alphastar napriklad sam vymyslel nekolik hernich strategii ktere lide nepouzivaji a presto jsou velmi ucinne.
Ted koukam jak si tahle AI stoji a myslim ze je dobojovano. Za posledni sezonu 527 vitezstvi a 0 proher proti nejlepsim lidskym hracum.
https://www.reddit.com/r/starc... Skrýt celý příspěvekTo co popisuješ, je jen to , počítač v rámci daných pravidel hry, kombinuje postupy v herní strategii a ty strategie vedoucí k cíli si uloží do DB. Jenže boj nemá prakticky žádná ...Zobrazit celý příspěvek
To co popisuješ, je jen to , počítač v rámci daných pravidel hry, kombinuje postupy v herní strategii a ty strategie vedoucí k cíli si uloží do DB. Jenže boj nemá prakticky žádná pravidla, tudíž jej nelze srovnávat s nějakým člověče nezlob se.Skrýt celý příspěvek
Samozřejmě, že má pravidla. "Když to naboříš do země, tak jsi prohrál." "První sestřelený je loser." "Když ti klesne kontrolka paliva na nulu, tak ti vysadí motor."
Samozřejmě, že má pravidla. "Když to naboříš do země, tak jsi prohrál." "První sestřelený je loser." "Když ti klesne kontrolka paliva na nulu, tak ti vysadí motor."
To chce opravdu velkou davku ignorance porovnat SC2 s clovece nezlob se. SC2 je dost verna simulace realne bitvy. Neco podobneho vidi velitel utoku. Ma mapu, zna postaveni svych ...Zobrazit celý příspěvek
To chce opravdu velkou davku ignorance porovnat SC2 s clovece nezlob se. SC2 je dost verna simulace realne bitvy. Neco podobneho vidi velitel utoku. Ma mapu, zna postaveni svych jednotek, ma omezene informace o nepratelskych jednotkach. Simulace probiha v realnem case a clovek pri ni provadi zhruba 3-10 akci za vtrerinu. Predstava za neuronka ma databazi hernich situaci je usmevna protoze tech stavu je asi 10^100000000 (presny cislo si nepamatuju). Na to abys dokazal hrat tuhle hru uz potrebujes neco jako abstraktni mysleni. Musis dokazat alspon castecne abstraktne myslet a dokazat kategorizovat (zjednodusovat) herni situaci. Neuveritelne komplexni uloha, podstatne slozitejsi nez vzusny souboj.Skrýt celý příspěvek
Na jednu stranu by AI měla brát v potaz základní zákony robotiky. Na druhou stranu může být efektivnější v případech kde lidské tělo nestíhá. Pokud bude stíhačka s AI schopná ...Zobrazit celý příspěvek
Na jednu stranu by AI měla brát v potaz základní zákony robotiky. Na druhou stranu může být efektivnější v případech kde lidské tělo nestíhá.
Pokud bude stíhačka s AI schopná manévrů například s 20 g, tak limity člověka jsou podstatně menší, což může mít vliv na výsledek.Skrýt celý příspěvek"Na jednu stranu by AI měla brát v potaz základní zákony robotiky"
Na to jsi přišel jak?"Na jednu stranu by AI měla brát v potaz základní zákony robotiky"
Na to jsi přišel jak?cesta, kdy robot bude mít nadvládu na lidmi je špatná. Ve výsledku to bude znamenat více násilí po celém světě, už jen z toho důvodu, protože ospravedlnit ztráty robotů v boji bude ...Zobrazit celý příspěvek
cesta, kdy robot bude mít nadvládu na lidmi je špatná. Ve výsledku to bude znamenat více násilí po celém světě, už jen z toho důvodu, protože ospravedlnit ztráty robotů v boji bude snazší obhájit než ztráty lidských životů.Skrýt celý příspěvek
...myslite ony tri Asimovy zakony?
To snad u zbrani nemuzete myslet vazne......myslite ony tri Asimovy zakony?
To snad u zbrani nemuzete myslet vazne...Presne tak. A navic ty tri zakony jsou ctyri ;)
Presne tak. A navic ty tri zakony jsou ctyri ;)
On i sám Asimov předvedl, jak je lze obejít. Stačí, aby si bojový prostředek řízený počítačem myslel, že i protivníkovy bojové prostředky jsou řízeny počítačem, pak už žádné ...Zobrazit celý příspěvek
On i sám Asimov předvedl, jak je lze obejít. Stačí, aby si bojový prostředek řízený počítačem myslel, že i protivníkovy bojové prostředky jsou řízeny počítačem, pak už žádné skrupule mít nebude.Skrýt celý příspěvek
AI je dokonalá pri hrách - čiže pri stanovovaní postupov pri daných podmienkach. Zato dnes rozdrví človeka pri každej hre a nie je pochýb , že i v "hre o život" t.j. leteckom ...Zobrazit celý příspěvek
AI je dokonalá pri hrách - čiže pri stanovovaní postupov pri daných podmienkach. Zato dnes rozdrví človeka pri každej hre a nie je pochýb , že i v "hre o život" t.j. leteckom súboji bude mať čochvíľa navrch.
Ale mimo toho čo "pozná" je AI úplne "blbá" a nedokáže ani elementárne veci .....napr na air policing by som taký stroj určite nepustil "bez dozoru" ....
Skrátka nejakou formou ju bude musieť pilot či operátor kontrolovať i naďalej - skrátka tam, kde sa už AI nechytá.Skrýt celý příspěvekJediná šance člověka proti stroji je lidské oko, které zvládne lépe prohledávat prostor. Pokud dojde k efektivnímu zarušení veškeré radiové komunikace, tak AI stroje mohou mít ...Zobrazit celý příspěvek
Jediná šance člověka proti stroji je lidské oko, které zvládne lépe prohledávat prostor. Pokud dojde k efektivnímu zarušení veškeré radiové komunikace, tak AI stroje mohou mít problém rozeznávat nepřítele.
Nevýhodou zavádění AI pilotů bude ztráta schopnosti mít živého vycvičeného pilota - protože AI bude v kokpitech a piloti na úřadu práce.Skrýt celý příspěvekCekal bych spis, ze se role pilotu posune, nez ze by sli na pracak...
Cekal bych spis, ze se role pilotu posune, nez ze by sli na pracak...
Pár jich zůstane, ale pokud dnes létá 100 pilotovaných letadel, tak nečekám, že po zavedení AI bude 100P + 100AI, spíše něco jako 20P + 100AI. Navíc může převládnout názor, že AI ...Zobrazit celý příspěvek
Pár jich zůstane, ale pokud dnes létá 100 pilotovaných letadel, tak nečekám, že po zavedení AI bude 100P + 100AI, spíše něco jako 20P + 100AI.
Navíc může převládnout názor, že AI cvičit nemusí a stačí je mít zakonzervovány, takže bude decimována i schopnost údržby strojů.Skrýt celý příspěvekOsobne si myslim ze co sa tyka údržby bude prave potreba dostatocny pocet kvalifikovanych odbornikov na udrzbu a prevazdku takto pokročilých systémov. Rovnako si myslím ze v ...Zobrazit celý příspěvek
Osobne si myslim ze co sa tyka údržby bude prave potreba dostatocny pocet kvalifikovanych odbornikov na udrzbu a prevazdku takto pokročilých systémov. Rovnako si myslím ze v najbližších desaťročiach nenastane taký rapidny pokles pilotovanych strojov a lietadiel. Skôr to bude prirodzený proces kedy sa z dosluhujucich pilotov môžu stať tvorcovia novych taktik pre vyuzitie AI lietadiel. Ale tak skoro to asi nebude.Skrýt celý příspěvek
Souhlas. Už u současné verze bezpilotníků je hezky vidět, že nepřítomnost pilota = nižší provozní náklady. "Podle magazínu FlighGlobal, odvolávající se na oficiální databázi ...Zobrazit celý příspěvek
Souhlas. Už u současné verze bezpilotníků je hezky vidět, že nepřítomnost pilota = nižší provozní náklady. "Podle magazínu FlighGlobal, odvolávající se na oficiální databázi techniky amerického letectva, vyjde jedna letová hodina RQ-4 Global Hawk na 6710 dolarů.
Skutečná provozní cena za letovou hodinu je po započtení nákladů na personál atd... pravděpodobně několikanásobně vyšší."
Ony ty super senzory, které nahrazují pilota, mají taky nějakou omezenou životnost. Pokud podporují lidskou posádku, ta je zapíná v nějakém ekonomickém modu, nesvítí nonstop. Což u bezpilotníku moc nepřipadá v úvahu. A motory a mechanika se opotřebovává stejně bez ohledu, jestli v tom jako užitečné zatížení sedí 80 kg živé váhy, nebo pár dalších počítačů.Skrýt celý příspěvek
AI muze cvicit 24/7 v simulacich, prakticky toho mohou za zlomek ceny nacvicit o nekolik radu vice nez zivi piloti. To ze by pilot mel vyhodu ve VID v dobe kde tvrde frci BVR ? AI ...Zobrazit celý příspěvek
AI muze cvicit 24/7 v simulacich, prakticky toho mohou za zlomek ceny nacvicit o nekolik radu vice nez zivi piloti.
To ze by pilot mel vyhodu ve VID v dobe kde tvrde frci BVR ? AI vklidu zvladne zpracovavat vstupy ze vsech senzoru naraz vcetne 360 kamery o cemz si lidskej pilot muze nechat zdat.Skrýt celý příspěvekTC82 a satai: presne tak. Ne že by robotický pilot byl úplně neprůstřelný a samozřejmě ho čeká dlouhý vývoj, ale kognitivní schopnosti člověka (jako například zrak), překonává ...Zobrazit celý příspěvek
TC82 a satai: presne tak.
Ne že by robotický pilot byl úplně neprůstřelný a samozřejmě ho čeká dlouhý vývoj, ale kognitivní schopnosti člověka (jako například zrak), překonává zcela určitě už teď.
Těch pilotů na pracáku bych se vůbec nebál. S velkou pravděpodobností dlouho dobu nedojde ke 100% předání těchto úkol na roboty Svou roli v tom bude hrát:
- průběh vývoje / úroveň aktuální vyspělosti robotických pilotů,
- morální aspekty,
- ale taky schopnost analyzovat a zlepšovat tyto robotické piloty. Skutečný pilot s reálnými zkušenostmi může s těmito věcmi výrazně pomoct.Skrýt celý příspěvekCvičit v simulacích může, ale prověřuje se tak jen část systému odstřižená od reality. Ve skutečném boji musí být plně funkční celý řetězec od senzorů až po serva na kormidlech. ...Zobrazit celý příspěvek
Cvičit v simulacích může, ale prověřuje se tak jen část systému odstřižená od reality. Ve skutečném boji musí být plně funkční celý řetězec od senzorů až po serva na kormidlech. Vstupy jsou vždy zatíženy chybou, a ta chyba v extrémních podmínkách (přetížení, vibrace, střelba) bude růst.
Na druhou stranu se tady bavíme o dogfightu - tedy jedné vymírající disciplíně vzdušného boje, která je od reality vzdálena jako rytířské zápasy na koních s dřevci.
Vyhrává ten, kdo dokáže ustát větší přetížení a má lepší poměr tah/hmotnost.
Rozlišení 360 stupňových kamer je mizerné, pokud hledáte několik kilometrů vzdálený objekt o velikosti v řádu 10 metrů.Skrýt celý příspěvekpks_: Já souhlasím s tím, že simulátor má svá omezení a že realný test je nejlepší. Ale simulovat můžeš výpadek a chybná data napříč všemi senzory/vstupy. Nevím jak je to s ...Zobrazit celý příspěvek
pks_:
Já souhlasím s tím, že simulátor má svá omezení a že realný test je nejlepší. Ale simulovat můžeš výpadek a chybná data napříč všemi senzory/vstupy.
Nevím jak je to s kvalitou 360 kamer, ale snad se shodneme na tom, že tento problém je už dnes technicky řešitelný.Skrýt celý příspěvekOhledně testování a zkoušení různých scénářů. Doporučuju se podívat, jakým způsobem se testuje sw například v automotive nebo v kosmonautice. Nejde sice o AI, ale to v tomto ...Zobrazit celý příspěvek
Ohledně testování a zkoušení různých scénářů.
Doporučuju se podívat, jakým způsobem se testuje sw například v automotive nebo v kosmonautice. Nejde sice o AI, ale to v tomto kontextu není to podstatné. Jde o to, že testování probíhá na reálně nasbíraných datech z předchozího provozu a především je součástí testování chování při poruchách - tedy posílají se z některých senzorů záměrně chybná data (simulace vadného senzoru), vypínají se jednotlivé části (v kosmonautice, kde jsou typicky tři shodné řídící počítače se jeden či dva vypnou, simulej se vadná funkce jednoho či dvou z nich apod.), přerušují se přenosové dráhy apod.
Tohle je normální způsob testování prakticky kdekoli - testovat co nejvíce chybných stavů a poruch. Není jediný důvod se domnívat, že součástí testů AI něco takového nebude.Skrýt celý příspěvek
Načítám diskuzi...