close
Vážení uživatelé,
16. 8. 2020 budou služby Blog.cz a Galerie.cz ukončeny.
Děkujeme vám za společně strávené roky!
Zjistit více

Vážení uživatelé,
16. 8. 2020 budou služby Blog.cz a Galerie.cz ukončeny.
Děkujeme vám za společně strávené roky!

Mozky našich robotů

30. května 2013 v 5:23 | Petr |  Roboti
Byla nebyla - kdysi soutěž autonomních aut zvaná DARPA Grand challenge, které proběhla v letech 2004 - 2005 v poušti severovýchodně od Los Angeles a v roce 2007 proběhla Urban challenge - ve čtvrti prázdných vilek nějaké opuštěné letecké základny.
Jestli jste tak ještě neučinili a chcete se přiučit vřele doporučuju prostudovat všechny dostupné materiály, protože vojenský výzkum roku 2004 se může stát prostředkem k vítězství v amatérské soutěží roku 2014. jedné věci si však nelze nevšimnout.
Ať si inženýři myslí co chtějí - nakonec nás realita donutí postavit analogii mozku.
To je poněkud odvážné tvrzení, které se pokusím na pár řádcích obhájit.
Všímněte si, že v robotice jsou dva přístupy, které jdou tak trochu na opačných stranách:
1. Inženýrská robotika - vycházející z klasického matematického pojetí umělé inteligence, z robustních a výpočetně náročných algoritmů. Typickým hardwarem takového robota (v amatérském pojetí) je ten notebook přilepený izolepou - rozžhavený výpočty do ruda. Typickými algoritmy jsou SLAM, plánování, procházení stavových prostorů všech možností atd.
2. Biologická robotika - vycházející z kopírování přírody, a v současnosti zejména hmyzu - pro ty jsou typické jednoduché algoritmy "Subsumption algoritmy" - žádné nebo minimální plánování - behavior based algoritmy - jednoduché reflexy typu RUKA - OKO. Typickým hardwarem pro tyto roboty jsou (analogová) čidla a síť vzájemně komunikujících mikrokontrolérů.
S čím válčí oba přístupy :
1. Inženýři především s neustálým nedostatkem výpočetního výkonu, který mohou řešit dvěma způsoby
1A. zjednodušováním algoritmů.
1B. přidáváním dalších počítačů nebo jiných "výpočetních jader"
2. Biologové - narážejí na neschopnost řešit všechny potřebné, složité úlohy jednoduchým "hmyzím" způsobem, což mohou řešit dvěma způsoby :
2A. Použitím složitějších algoritmů,
2B. které si vynutí použití složitějších "výpočetních jader"

Kde se tedy obě větve sejdou ? U masivně paralelní "many core" achitektury s křemíkovým ekvivalentem somatotopického ( nebo spíše "světo-topického" ) uspořádání jako má mozková kůra ?! Jsou už tady náznaky ?

1. ze strany inženýrů bych mohl jmenovat mnoho - od toho nejhoršího přístupu - tedy autonomního automobilu, který veze serverovou farmu (viz Grand challenge). Přes paralelení výpočty na grafických kartách, po Intel Larabee, po Epiphany - paralelní procesor na jednou čipu, který si za 99 dolarů můžete taky koupit.
2. Biologický přístup je poněkud náročnější, protože zatím příliš nerozumíme centrálním nervovým soustavám živočichů, nicméně na poli "křemíkové neurovědy" se taky něco děje zejména bych chtěl upozornit na projekt GROK, zakladatele PALMU a vynálezce opravdových PDA (ano Stevene - Apple Newton tam nepočítám) Jeffa Hawkinse.

O co se tedy jedná ? Grok bude křemíková simulace šedé kůry mozkové, která zatím existuje jako simulace v PC - bude obsahovat "jednobitové" neurony v mnoha vrstvách, které budou vertikálně spojeny s neurony nad a pod sebou a horizontálně se sousedy. Principem funkce bude - opuštění mnoha paradigmat současné výpočetní techniky jako je dělení Procesor / paměť, která bude distribuovaná, nebo bitové kódování dat, které je předem dáno bude nahrazeno kódováním, které vznikne až při zpracování dat atd. Podrobnosti vřele doporučuju shlédnout v tomto videu.

Proč se právě teď nerozčiluju, že inženýrský, nebo biologický přístup je cesta do pekel.
Protože vývojem obě větve patrně splynou - inženýri zjistí, že domácí uklízečka serverovou farmu neunese mechanicky ani elektricky a vydají se úspornější cestou "many core" procesorů.

Neurovědci vyrobí křemíkový mozek 2.0 který bude více než jednobitový a nakonec může dojít k paradoxní situaci, kdy budeme mít kameru, která po sériové lince bude místo obrazu posílat pakety "pejsek na 10;23", "kočička na -3;7", "Auto na 3;15" atd .... Bude pak záležet jaký hardware obraz analyzuje ? Těžko!

Otázka je proč vyhrají architektury spíše paralelní, s menším výkonem na jádro, a proč to nakonec nebude "třetí cesta" v podobě supervýkonného "single core" počítače. Je otázka jestli na to vůbec musím odpovídat, ale třeba ano - nelze do nekonečna předstírat, že v reálném světě se nedějí tisíce drobných věcí paralelně, a že řešit je nutno je taky paralelně, a že 100 x 1 GHZ MCU berou 100 x 100 mA = 10A. (Grok má potenciál k ještě nižší spotřebě) zatímco procesor který by měl 100 GHZ v jednom jádru - je z fyzikálního hlediska nepostavitelný současnými technologiemi. Nemluvě o tom, že ani matka příroda nešla cestou do běla rozžhaveného - sériově pracujícího mozku.

Zbývá už jenom tradiční rada pro blondýny - až se na vás domácí robotický vysavač podívá svou inteligentní kamerou a na displeji začne blikat "FUJ" - je jasné, že technika pokročila a vy jste v průšvihu....
 

Buď první, kdo ohodnotí tento článek.

Komentáře jsou uzavřeny.


Aktuální články

Reklama