Human brains still have 100x more connections than our currently biggest AI systems, 100 trillion vs 1 trillion, so brains are still around 100x bigger in terms of parameters, while running on just 30 watts compared to hundreds of megawatts that currently biggest AI datacenters run on, with terra watts coming soon. Or brain might have even more connections and complexity, depending on how you quantify and measure all of this. Or it might hard to compare, because of maybe way too different architectures and substrates. [https://youtu.be/b_DUft-BdIE?si=2-0GGIDn_sArz7bi](https://youtu.be/b_DUft-BdIE?si=2-0GGIDn_sArz7bi) The more I study reinforcement learning, and observe it on myself, the more it makes sense to me that humans also work largely by reinforcement learning That's the kinda usecase that's fascinating for this tech: understand ourselves better Btw I also love this usecase! [https://youtu.be/34VOI_oo-qM?si=mMXuowfOSzSSeCY-](https://youtu.be/34VOI_oo-qM?si=mMXuowfOSzSSeCY-) It's kind of happening, the currently biggest branch of AI, deep learning, initially emerged in connectionism in cognitive science as initial attempts at approximations of the brain, and then diverged into its own fields. What happens now is that computational neuroscience goes it's own way and AI goes it's own way, but they constantly interact. Sometimes we invent something in AI and it turns out that it also helps to model the brain better, and sometimes we invent some better model of the brain in computational neuroscience and we find out it's also great for designing AI systems. NeuroAI is a field that lives explicitly on this intersection [Catalyzing next-generation Artificial Intelligence through NeuroAI | Nature Communications](https://www.nature.com/articles/s41467-023-37180-x) AI termín v akademii vznikl kdysi dávno kolem expertních systémů (John McCarthy v 1955), a myslím že záleží jak to definuješ 😄 mám collected asi 100+ definicí inteligence určitá část definicí z klasifikuje současný ML systémy jako formu inteligence, a určitá část zase ne a osobně bych tomu nejradši říkal spíš machine intelligence, když už se říká machine learning 😄 Tohle jsou moje oblíbený papery co se pokouší o obecnou matematickou definici inteligence co zároveň sumarizují ostatní definice, doporučuju [[0712.3329] Universal Intelligence: A Definition of Machine Intelligence](https://arxiv.org/abs/0712.3329) [[1911.01547] On the Measure of Intelligence](https://arxiv.org/abs/1911.01547) osobně mám nejradši různý hodně obecný definice inteligence co unifikují různý konkrétnější definice inteligence, protože pak se můžou jednodušeji dělat různý porovnávací taxonomie a derivovat univerzálnější věci 😄 Zároveň jeden z důvodů proč mi je přirozený říkat hlubokýmu učení s umělýma neuronkama AI je ten, že to dává smysl kvůli originu, protože to vzniklo v kognitivních vědách v connectionismu jako framework pro modelování mozku [Connectionism - Wikipedia](https://en.wikipedia.org/wiki/Connectionism) a v různých kontextech to funguje jako relativně hodně high level aproximace, co sdílí podobnosti ale zároveň odlišnosti. Nebo např konvolučky mají hodně similarities s vizuálním kortexem, ale zároveň i odlišností. [https://www.youtube.com/watch?v=hmtQPrH-gC4](https://www.youtube.com/watch?v=hmtQPrH-gC4) Nebo např rekurentní sítě se používají na modelování mozku ve výpočetní neurovědě. [Recognizing Recurrent Neural Networks](https://www.cbs.mpg.de/210929/recognizing) Atd. Ale existuje a vzniká hodně dalších nových různě jinak biologically inspired architektur ve kterých vidím víc naděje co se týče lepších schopností. Ve výzkumu, ve vědě a filozofii, není koncensus jak na definici vědomí, tak na modelech vědomí, tak na způsobech měření vědomí, takže když to máme vůbec problém měřit u lidí, tak u jiných fyzikálních systémů než lidi je to ještě horší A o tom jak moc jsme si s dosavadními AI systémy celkově podobní a odlišní taky časem zjišťujeme víc a víc, tam je taky ještě hodně nevyřešenýho Ale naštěstí věci jako tvoření vnitřních reprezentací toho co oba vidíme se měří relativně mnohem líp než vědomí Takže podle některých matematických modelů vědomí můžou dosavadní AIčka mít vědomí, např podle některých variant a interpretací integrated information theory of consciousness [Integrated information theory - Scholarpedia](http://www.scholarpedia.org/article/Integrated_information_theory) [https://www.youtube.com/watch?v=9qOaII_PzGY](https://www.youtube.com/watch?v=9qOaII_PzGY) Artem Kirsanov How Your Brain Organizes Information jak mozek zobecňuje vzory do abstrakcí, který jdou ještě zlepšit přes matematiku, je jedna z nejvíc fascinujících věcí 😄 “ In research, science and philosophy, there is no consensus on the definition of consciousness, on models of consciousness, or on methods of measuring consciousness, so if we have a problem measuring it in humans at all, it is even worse in physical systems other than humans like AI systems. And over time we are also finding out more and more about how similar and different we are from existing AI systems overall, there is still a lot of unsolved problems there. But fortunately, things like comparing internal learned representations of what Ai systems and humans both see can be measured relatively much better than consciousness. So according to some mathematical models of consciousness, existing AIs can have consciousness, for example according to some variants and interpretations of the integrated information theory of consciousness. [Integrated information theory - Scholarpedia](http://www.scholarpedia.org/article/Integrated_information_theory) “ [https://www.youtube.com/watch?v=9qOaII_PzGY](https://www.youtube.com/watch?v=9qOaII_PzGY) Artem Kirsanov How Your Brain Organizes Information how the brain generalizes patterns into abstractions that can be further improved through mathematics is one of the most fascinating things 😄