[Health-LLM - 83.3% diagnostic accuracy with RAG, XGBoost, and more: New Cognitive Architectures! - YouTube](https://www.youtube.com/watch?v=Us44JYUVX9g) [[2402.00746] Health-LLM: Personalized Retrieval-Augmented Disease Prediction System](https://arxiv.org/abs/2402.00746) [Better Call GPT: LLMs 300x cheaper than human lawyers (and almost as good!) - Knee of the Curve! - YouTube](https://www.youtube.com/watch?v=GXq0AYXAlzQ) [[2402.01680] Large Language Model based Multi-Agents: A Survey of Progress and Challenges](https://arxiv.org/abs/2402.01680) [How to Lead A 21st Century Revolution - YouTube](https://www.youtube.com/watch?v=aUlEECcg2LY) What top percentile of openness to experience personality trait does to a brain, my brain is a superposition of the biggest AI bloomer and the biggest AI doomer as I've tried to crux both sides of the biggest extreme as much as I can and feel like both extremes are legit positions under their own valid sets of assumptions, while what will actually happen in this absolutely unpredictable reality's future might be something in the middle I want this 1000 screens in Apple Vision Pro but AI fetching the best AI content from the best sources creating just infinite endless scrolling of all of theory about AI, engineering of AI, papers about AI, news about AI, and the future of AI https://twitter.com/burny_tech/status/1754760140455129359 Answer to if AI understands lies on a spectrum and the definition of understanding itself also lies on a spectrum What is reality How stable is the software that is the most usually running in your brain generating your world model with assumptions about what is reality made of, how reality works, and its future "Thesis: AGI will be secretly written by a polycule of cracked rationalists in an SF basement Antithesis: AGI will be assembled out of specialized parts by many global companies Synthesis: AGI will be opensourced by a small agile team given compute to cook by a Hangzhou hedge fund" https://twitter.com/teortaxesTex/status/1754723310766526512 já už tyhle diskuze vzdavam vsichni pouzivaji uplne jiny definice slov neexistuje koncenzus definicí slov understanding, intelligence, alignment nebo co jsou risky a safety kazda skupina researcherů si žije ve svých vesmírech ve svých definicích ve svých assumptions ve svých implikacích ve svým backgroundu ve svých confirmation/selection biasech se svýma motivacema ve svým všem a často jsou tyhle diskuze z obou stran jako mluvení do zdi a je pak strasne nadherny videt jak se to pak snazi vysvetlovat lidem, politikum, ekonomum, world leaderům apod. ale kazdej rika uplne neco jinyho a pak nikdo nevi co si myslet >implying že existuje standard v matice Have you ever seen warzones on which axiomatic system and foundations of mathematics should we use #RadicalConstructivism To pak má solidní implikace ve fyzice, jestli existují noncomputable funkce Další koncenzus co neexistuje je jaký vlastnosti musí systém mít aby se považoval za systém co má prožitek (a na meta úrovni taky není koncenzus o tom jestli vůbec fyzikalismus s emergentním prožitkem, monický fyzikalismus apod. platí) Jak se pak k tomu stavět eticky když nemáme tucha? Celkem problém IMO, ne jen v AI ale např v syntetické biologii Jde prokázat že systém má prožitek? Yep to je další otázka, či to vůbec jde pořádně rigorózně falsifikovat Spoléhání na to že fakt lidi prožívají a že např ty neurální koreláty co vypíná anestezie nebo jiný loss of consciousness mechanismy jsou to co určuje či existuje prožitek je asi prakticky nejužitečnější Druhý způsob jak to verifikovat co se mi dost líbí jsou přes prožitkový mosty mezi systémama: Tyhle siamský dvojčata mají spojený mozek a můžou si navzájem posílat myšlenky přes thalamus most. Pravděpodobně uvnitř pořád jsou dva individuálové. Něco takovýho, ale na druhé straně místo evolucí vytvořenýho člověka tam máš námi vytvořený stroj nebo organismus. [Conjoined Twins Who Share A Brain Hear Each Other's Thoughts](https://www.shared.com/conjoined-hogan-twins/) Neexistuje koncenzus na to či tyhle všechny metody jsou způsoby jak to falsifikovat Morálka je byprodukt evoluce. Osobně bych byl nejradši kdyby utrpení v libovolný formě neexistovalo v žádných systémech. Evoluční výhody utrpení určitě jde mechanisticky designovat i jinak. Boredom je taky jenom evoluční mechanismus v mozku abys nebyl stuck co jde odinstalovat Sense of meaning dle me jde taky hackovat, už i s těma nastrojema co máme teď Pak je otázka jak moc jsou tyto všechny mechanismy lokalizovaný versus distribuovaný záležitosti, u čeho taky moc není concenzus Tady je pohled např na to že inteligence je velmi distribuovaná [The Myth of Pure Intelligence - YouTube](https://youtu.be/n8G50ynU0Vg?si=h-IzSuZ9FsacKw8I) Pokud dokážeme některý reasoning patterns lokalizovat hlavně jako emergentní záležitost kolektivu tak to má dle mě velký implikace na to jak designovat víc inteligentní AI systémy, hlavně přes multiagent systémy Jsou vzory v systémech co nejdou identifikovat jen když studuješ jejich části, musíš pro ně studovat celý systém holisticky = emergence Kurgesagt na to má fakt popsci video [Emergence ‚Äì How Stupid Things Become Smart Together - YouTube](https://youtu.be/16W7c0mb-rE?si=THj3qDZaLbdp6J95) existují přímo matematicky důkazy kde máš příklady matematických vzorů co nerozlustis když studuješ jen matematický vzory v izolovaných částech toho systému Např celluar automata je tím známá Nebo mozek samotnej A teď do jaký úrovně toto platí u intelligence/reasoningu (pod těma miliardma definicema těhle slov) Spousta lidí argumentuje že bez embodimentu (realtime (kolektivní) robotická interakce se světem) se k určitým vzorům v reasoningu prostě nedostaneš kvůli tomuto (nebo ještě dalším důvodům) No tak lidi to řeší tím, že mají specialisty v mixed teamu a komunikují si podněty, dokud nějaky nerezonuje s ostatními. Typicky je diriguje manažer, který je generalista. Mixture of experts architektura co je teď pod uspešnýma LLMs na těchto myšlenkách přesně staví a snaží se to hardcodnout [How Did Open Source Catch Up To OpenAI? [Mixtral-8x7B] - YouTube](https://youtu.be/PYZIOMvkUF8?si=v8sPs0sTk-Cf6sBM) GPT4 dost pravděpodobně jede taky na podobný architektuře Is intelligence the ability of effectively finding compressing symmetries in training data points while losing as little predictive power as possible? [Scientists Reverse Alzheimer’s Memory Loss by Repairing Damaged Synapses](https://scitechdaily.com/scientists-reverse-alzheimers-memory-loss-by-repairing-damaged-synapses/) https://twitter.com/KobeissiLetter/status/1754340991199285258?t=gX7874GiWKT_O59wolVTvQ&s=19 "BREAKING: China's CSI 1000 index is now down 8% today and 30% in the first month of 2024. Over the last 10 days, China's CSI 1000 index is down a massive 21%. Just minutes ago, China's government pledged once again to help stabilize markets. This comes after countless stimulus measures and even a short selling ban at some Chinese brokerages. Last week, Evergrande, China's largest property developer, was ordered to be liquidated by a Hong Kong court. What is happening in China?" [[2402.01107] Simulation of Graph Algorithms with Looped Transformers](https://arxiv.org/abs/2402.01107) https://twitter.com/IntuitMachine/status/1754825823859671471?t=8MK9PGT2za7ozvo5q307tA&s=19 [Upper Bound 2023: Insights Into Intelligence, Keynote by Richard S. Sutton - YouTube](https://www.youtube.com/watch?v=n4aev-6Z6U4&list=WL&index=1&t=404s&pp=gAQBiAQB) [Why isn't space full of AI from an alien singularity? - YouTube](https://www.youtube.com/watch?v=I6oc6WYqpRs&list=WL&index=2&pp=gAQBiAQB) [The Most Useful Curve in Mathematics [Logarithms] - YouTube](https://www.youtube.com/watch?v=OjIwCOevUew&list=WL&index=3&pp=gAQBiAQB) [Zuckerberg is right: There is insufficient scientific evidence that social media harms mental health - YouTube](https://www.youtube.com/watch?v=hlZTv5vGJIo&list=WL&index=4&pp=gAQBiAQB) [The biggest science breakthroughs in 2023 - YouTube](https://www.youtube.com/watch?v=mtBgoic_ogQ&list=WL&index=5&pp=gAQBiAQB) [AI Plain and Simple: What's the big deal? Is it going to kill everyone? How can we do this right? - YouTube](https://www.youtube.com/watch?v=2bbEzQG9WcY&list=WL&index=6&pp=gAQBiAQB) [The Gradient Podcast - Scott Aaronson: Against AI Doomerism - YouTube](https://www.youtube.com/watch?v=yF9sFPKXI9I&list=WL&index=7&pp=gAQBiAQB) [Daniel Schmachtenberger | Misalignment, AI & Moloch | Win-Win with Liv Boeree - YouTube](https://www.youtube.com/watch?v=KCSsKV5F4xc&list=WL&index=8&t=1677s&pp=gAQBiAQB) [Lumiere: A Space-Time Diffusion Model for Video Generation (Paper Explained) - YouTube](https://www.youtube.com/watch?v=Pl8BET_K1mc&list=WL&index=9&pp=gAQBiAQB) [The Path Away From Extinction - YouTube](https://www.youtube.com/watch?v=KJQXZbU3O1o&list=WL&index=10&t=2s&pp=gAQBiAQB) [Sparse LLMs at inference: 6x faster transformers! | DEJAVU paper explained - YouTube](https://www.youtube.com/watch?v=DUkWMoi5nG4&list=WL&index=13&pp=gAQBiAQB) [Better Call GPT: LLMs 300x cheaper than human lawyers (and almost as good!) - Knee of the Curve! - YouTube](https://www.youtube.com/watch?v=GXq0AYXAlzQ&list=WL&index=11&t=45s&pp=gAQBiAQB) [Moral Graphs: Interview with OpenAI Grant Winners! Meaning Alignment Institute: Aligning Humanity! - YouTube](https://www.youtube.com/watch?v=bC2pQ78o754&list=WL&index=20&pp=gAQBiAQB) [The Housing Crisis is the Everything Crisis - YouTube](https://www.youtube.com/watch?v=4ZxzBcxB7Zc&list=WL&index=16&t=1289s&pp=gAQBiAQB) [Nate Hagens l The Superorganism and the future‍ l Stockholm Impact/Week 2023 - YouTube](https://www.youtube.com/watch?v=mN87PWfj7LA&list=WL&index=14&t=1423s&pp=gAQBiAQB) [Geoffrey Hinton | Will digital intelligence replace biological intelligence? - YouTube](https://www.youtube.com/watch?v=iHCeAotHZa4&list=WL&index=19&pp=gAQBiAQB) [AI Plain and Simple: What's the big deal? Is it going to kill everyone? How can we do this right? - YouTube](https://www.youtube.com/watch?v=2bbEzQG9WcY) [[2402.01825] Fractal Patterns May Illuminate the Success of Next-Token Prediction](https://arxiv.org/abs/2402.01825) https://twitter.com/ibomohsin/status/1754912601165775296?t=-ywEWJcRfRqMRjcyO0Um-A&s=19 we study the fractal structure of language. TLDR: thinking of next-token prediction in language as “word statistics” is a big oversimplification [[2402.04253] AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls](https://arxiv.org/abs/2402.04253) Biology is fascinating Its fascinating how humanlike organisms made it so far Im urious about our species future Maybe we're not even o nthe top of the hiearchy, maybe there are various agents living in compeltely different sizes and timescales, like trees, various collective intelligences in nature, or even climate maybe Cultures are gigantic memetic software hyperorganisms in constant warfare like all other collective organisms in nature https://twitter.com/burny_tech/status/1755093503665717443 Blind evolutionary search in the space of civilizational hiearchical cybernetic architectures versus nonblind design of coordination mechanisms, Do you operate from strong universal priors or from priors built from scratch for every situation? Where are you on this spectrum? 2:15:00 [e/acc Leader Beff Jezos vs Doomer Connor Leahy - YouTube](https://youtu.be/0zxi0xSBOaQ?si=eDy0_M3w4qAoL1UZ) Mathematics of physics [ChatGPT](https://chat.openai.com/share/d3e8d30a-1251-4cef-8e4c-1e4304ccd537) [ChatGPT](https://chat.openai.com/share/f3b74e41-38af-4a6b-abbf-83102eb74e24) Mean field theory [Can You Learn Meditation from an AI? - with Shinzen Young - Deconstructing Yourself](https://deconstructingyourself.com/can-you-learn-meditation-from-an-ai-with-shinzen-young.html) Antisuffering acceleration https://twitter.com/nickcammarata/status/1755105154280587715?t=shNhmLlJ4BQJ49iyGiS7xA&s=19 Intense brain dynamics symmetrification/consonance neurotech in few years https://twitter.com/NeelNanda5/status/1755117828208722195 https://www.lesswrong.com/posts/FSTRedtjuHa4Gfdbr/attention-saes-scale-to-gpt-2-small Attention SAEs Scale to GPT-2 Small [[2402.01788] LitLLM: A Toolkit for Scientific Literature Review](https://arxiv.org/abs/2402.01788) Self-Taught Optimizer https://twitter.com/IntuitMachine/status/1709875695776592252 [[2310.02304] Self-Taught Optimizer (STOP): Recursively Self-Improving Code Generation](https://arxiv.org/abs/2310.02304) [#24 - Michael Johnson | Qualia Formalism & The Symmetry Theory of Valence - The Metagame | Podcast on Spotify](https://open.spotify.com/episode/2rsYCbQO5fHU2csdyX2CWD?si=76cd3c4a579f405a&nd=1&dlsi=de16601121024900https://www.youtube.com/watch?v=Us44JYUVX9g) [[2402.00746] Health-LLM: Personalized Retrieval-Augmented Disease Prediction System](https://arxiv.org/abs/2402.00746) [Better Call GPT: LLMs 300x cheaper than human lawyers (and almost as good!) - Knee of the Curve! - YouTube](https://www.youtube.com/watch?v=GXq0AYXAlzQ) [[2402.01680] Large Language Model based Multi-Agents: A Survey of Progress and Challenges](https://arxiv.org/abs/2402.01680) [How to Lead A 21st Century Revolution - YouTube](https://www.youtube.com/watch?v=aUlEECcg2LY) What top percentile of openness to experience personality trait does to a brain, my brain is a superposition of the biggest AI bloomer and the biggest AI doomer as I've tried to crux both sides of the biggest extreme as much as I can and feel like both extremes are legit positions under their own valid sets of assumptions, while what will actually happen in this absolutely unpredictable reality's future might be something in the middle I want this 1000 screens in Apple Vision Pro but AI fetching the best AI content from the best sources creating just infinite endless scrolling of all of theory about AI, engineering of AI, papers about AI, news about AI, and the future of AI https://twitter.com/burny_tech/status/1754760140455129359 Answer to if AI understands lies on a spectrum and the definition of understanding itself also lies on a spectrum What is reality How stable is the software that is the most usually running in your brain generating your world model with assumptions about what is reality made of, how reality works, and its future "Thesis: AGI will be secretly written by a polycule of cracked rationalists in an SF basement Antithesis: AGI will be assembled out of specialized parts by many global companies Synthesis: AGI will be opensourced by a small agile team given compute to cook by a Hangzhou hedge fund" https://twitter.com/teortaxesTex/status/1754723310766526512 já už tyhle diskuze vzdavam vsichni pouzivaji uplne jiny definice slov neexistuje koncenzus definicí slov understanding, intelligence, alignment nebo co jsou risky a safety kazda skupina researcherů si žije ve svých vesmírech ve svých definicích ve svých assumptions ve svých implikacích ve svým backgroundu ve svých confirmation/selection biasech se svýma motivacema ve svým všem a často jsou tyhle diskuze z obou stran jako mluvení do zdi a je pak strasne nadherny videt jak se to pak snazi vysvetlovat lidem, politikum, ekonomum, world leaderům apod. ale kazdej rika uplne neco jinyho a pak nikdo nevi co si myslet >implying že existuje standard v matice Have you ever seen warzones on which axiomatic system and foundations of mathematics should we use #RadicalConstructivism To pak má solidní implikace ve fyzice, jestli existují noncomputable funkce Další koncenzus co neexistuje je jaký vlastnosti musí systém mít aby se považoval za systém co má prožitek (a na meta úrovni taky není koncenzus o tom jestli vůbec fyzikalismus s emergentním prožitkem, monický fyzikalismus apod. platí) Jak se pak k tomu stavět eticky když nemáme tucha? Celkem problém IMO, ne jen v AI ale např v syntetické biologii Jde prokázat že systém má prožitek? Yep to je další otázka, či to vůbec jde pořádně rigorózně falsifikovat Spoléhání na to že fakt lidi prožívají a že např ty neurální koreláty co vypíná anestezie nebo jiný loss of consciousness mechanismy jsou to co určuje či existuje prožitek je asi prakticky nejužitečnější Druhý způsob jak to verifikovat co se mi dost líbí jsou přes prožitkový mosty mezi systémama: Tyhle siamský dvojčata mají spojený mozek a můžou si navzájem posílat myšlenky přes thalamus most. Pravděpodobně uvnitř pořád jsou dva individuálové. Něco takovýho, ale na druhé straně místo evolucí vytvořenýho člověka tam máš námi vytvořený stroj nebo organismus. [Conjoined Twins Who Share A Brain Hear Each Other's Thoughts](https://www.shared.com/conjoined-hogan-twins/) Neexistuje koncenzus na to či tyhle všechny metody jsou způsoby jak to falsifikovat Morálka je byprodukt evoluce. Osobně bych byl nejradši kdyby utrpení v libovolný formě neexistovalo v žádných systémech. Evoluční výhody utrpení určitě jde mechanisticky designovat i jinak. Boredom je taky jenom evoluční mechanismus v mozku abys nebyl stuck co jde odinstalovat Sense of meaning dle me jde taky hackovat, už i s těma nastrojema co máme teď Pak je otázka jak moc jsou tyto všechny mechanismy lokalizovaný versus distribuovaný záležitosti, u čeho taky moc není concenzus Tady je pohled např na to že inteligence je velmi distribuovaná [The Myth of Pure Intelligence - YouTube](https://youtu.be/n8G50ynU0Vg?si=h-IzSuZ9FsacKw8I) Pokud dokážeme některý reasoning patterns lokalizovat hlavně jako emergentní záležitost kolektivu tak to má dle mě velký implikace na to jak designovat víc inteligentní AI systémy, hlavně přes multiagent systémy Jsou vzory v systémech co nejdou identifikovat jen když studuješ jejich části, musíš pro ně studovat celý systém holisticky = emergence Kurgesagt na to má fakt popsci video [Emergence ‚Äì How Stupid Things Become Smart Together - YouTube](https://youtu.be/16W7c0mb-rE?si=THj3qDZaLbdp6J95) existují přímo matematicky důkazy kde máš příklady matematických vzorů co nerozlustis když studuješ jen matematický vzory v izolovaných částech toho systému Např celluar automata je tím známá Nebo mozek samotnej A teď do jaký úrovně toto platí u intelligence/reasoningu (pod těma miliardma definicema těhle slov) Spousta lidí argumentuje že bez embodimentu (realtime (kolektivní) robotická interakce se světem) se k určitým vzorům v reasoningu prostě nedostaneš kvůli tomuto (nebo ještě dalším důvodům) No tak lidi to řeší tím, že mají specialisty v mixed teamu a komunikují si podněty, dokud nějaky nerezonuje s ostatními. Typicky je diriguje manažer, který je generalista. Mixture of experts architektura co je teď pod uspešnýma LLMs na těchto myšlenkách přesně staví a snaží se to hardcodnout [How Did Open Source Catch Up To OpenAI? [Mixtral-8x7B] - YouTube](https://youtu.be/PYZIOMvkUF8?si=v8sPs0sTk-Cf6sBM) GPT4 dost pravděpodobně jede taky na podobný architektuře Is intelligence the ability of effectively finding compressing symmetries in training data points while losing as little predictive power as possible? [Scientists Reverse Alzheimer’s Memory Loss by Repairing Damaged Synapses](https://scitechdaily.com/scientists-reverse-alzheimers-memory-loss-by-repairing-damaged-synapses/) https://twitter.com/KobeissiLetter/status/1754340991199285258?t=gX7874GiWKT_O59wolVTvQ&s=19 "BREAKING: China's CSI 1000 index is now down 8% today and 30% in the first month of 2024. Over the last 10 days, China's CSI 1000 index is down a massive 21%. Just minutes ago, China's government pledged once again to help stabilize markets. This comes after countless stimulus measures and even a short selling ban at some Chinese brokerages. Last week, Evergrande, China's largest property developer, was ordered to be liquidated by a Hong Kong court. What is happening in China?" [[2402.01107] Simulation of Graph Algorithms with Looped Transformers](https://arxiv.org/abs/2402.01107) https://twitter.com/IntuitMachine/status/1754825823859671471?t=8MK9PGT2za7ozvo5q307tA&s=19 [Upper Bound 2023: Insights Into Intelligence, Keynote by Richard S. Sutton - YouTube](https://www.youtube.com/watch?v=n4aev-6Z6U4&list=WL&index=1&t=404s&pp=gAQBiAQB) [Why isn't space full of AI from an alien singularity? - YouTube](https://www.youtube.com/watch?v=I6oc6WYqpRs&list=WL&index=2&pp=gAQBiAQB) [The Most Useful Curve in Mathematics [Logarithms] - YouTube](https://www.youtube.com/watch?v=OjIwCOevUew&list=WL&index=3&pp=gAQBiAQB) [Zuckerberg is right: There is insufficient scientific evidence that social media harms mental health - YouTube](https://www.youtube.com/watch?v=hlZTv5vGJIo&list=WL&index=4&pp=gAQBiAQB) [The biggest science breakthroughs in 2023 - YouTube](https://www.youtube.com/watch?v=mtBgoic_ogQ&list=WL&index=5&pp=gAQBiAQB) [AI Plain and Simple: What's the big deal? Is it going to kill everyone? How can we do this right? - YouTube](https://www.youtube.com/watch?v=2bbEzQG9WcY&list=WL&index=6&pp=gAQBiAQB) [The Gradient Podcast - Scott Aaronson: Against AI Doomerism - YouTube](https://www.youtube.com/watch?v=yF9sFPKXI9I&list=WL&index=7&pp=gAQBiAQB) [Daniel Schmachtenberger | Misalignment, AI & Moloch | Win-Win with Liv Boeree - YouTube](https://www.youtube.com/watch?v=KCSsKV5F4xc&list=WL&index=8&t=1677s&pp=gAQBiAQB) [Lumiere: A Space-Time Diffusion Model for Video Generation (Paper Explained) - YouTube](https://www.youtube.com/watch?v=Pl8BET_K1mc&list=WL&index=9&pp=gAQBiAQB) [The Path Away From Extinction - YouTube](https://www.youtube.com/watch?v=KJQXZbU3O1o&list=WL&index=10&t=2s&pp=gAQBiAQB) [Sparse LLMs at inference: 6x faster transformers! | DEJAVU paper explained - YouTube](https://www.youtube.com/watch?v=DUkWMoi5nG4&list=WL&index=13&pp=gAQBiAQB) [Better Call GPT: LLMs 300x cheaper than human lawyers (and almost as good!) - Knee of the Curve! - YouTube](https://www.youtube.com/watch?v=GXq0AYXAlzQ&list=WL&index=11&t=45s&pp=gAQBiAQB) [Moral Graphs: Interview with OpenAI Grant Winners! Meaning Alignment Institute: Aligning Humanity! - YouTube](https://www.youtube.com/watch?v=bC2pQ78o754&list=WL&index=20&pp=gAQBiAQB) [The Housing Crisis is the Everything Crisis - YouTube](https://www.youtube.com/watch?v=4ZxzBcxB7Zc&list=WL&index=16&t=1289s&pp=gAQBiAQB) [Nate Hagens l The Superorganism and the future‍ l Stockholm Impact/Week 2023 - YouTube](https://www.youtube.com/watch?v=mN87PWfj7LA&list=WL&index=14&t=1423s&pp=gAQBiAQB) [Geoffrey Hinton | Will digital intelligence replace biological intelligence? - YouTube](https://www.youtube.com/watch?v=iHCeAotHZa4&list=WL&index=19&pp=gAQBiAQB) [AI Plain and Simple: What's the big deal? Is it going to kill everyone? How can we do this right? - YouTube](https://www.youtube.com/watch?v=2bbEzQG9WcY) [[2402.01825] Fractal Patterns May Illuminate the Success of Next-Token Prediction](https://arxiv.org/abs/2402.01825) https://twitter.com/ibomohsin/status/1754912601165775296?t=-ywEWJcRfRqMRjcyO0Um-A&s=19 we study the fractal structure of language. TLDR: thinking of next-token prediction in language as “word statistics” is a big oversimplification [[2402.04253] AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls](https://arxiv.org/abs/2402.04253) Biology is fascinating Its fascinating how humanlike organisms made it so far Im urious about our species future Maybe we're not even o nthe top of the hiearchy, maybe there are various agents living in compeltely different sizes and timescales, like trees, various collective intelligences in nature, or even climate maybe Cultures are gigantic memetic software hyperorganisms in constant warfare like all other collective organisms in nature https://twitter.com/burny_tech/status/1755093503665717443 Blind evolutionary search in the space of civilizational hiearchical cybernetic architectures versus nonblind design of coordination mechanisms, Do you operate from strong universal priors or from priors built from scratch for every situation? Where are you on this spectrum? 2:15:00 [e/acc Leader Beff Jezos vs Doomer Connor Leahy - YouTube](https://youtu.be/0zxi0xSBOaQ?si=eDy0_M3w4qAoL1UZ) Mathematics of physics [ChatGPT](https://chat.openai.com/share/d3e8d30a-1251-4cef-8e4c-1e4304ccd537) [ChatGPT](https://chat.openai.com/share/f3b74e41-38af-4a6b-abbf-83102eb74e24) Mean field theory Antisuffering acceleration https://twitter.com/nickcammarata/status/1755105154280587715?t=shNhmLlJ4BQJ49iyGiS7xA&s=19 Intense brain dynamics symmetrification/consonance neurotech in few years https://twitter.com/NeelNanda5/status/1755117828208722195 https://www.lesswrong.com/posts/FSTRedtjuHa4Gfdbr/attention-saes-scale-to-gpt-2-small Attention SAEs Scale to GPT-2 Small [[2402.01788] LitLLM: A Toolkit for Scientific Literature Review](https://arxiv.org/abs/2402.01788) Self-Taught Optimizer https://twitter.com/IntuitMachine/status/1709875695776592252 [[2310.02304] Self-Taught Optimizer (STOP): Recursively Self-Improving Code Generation](https://arxiv.org/abs/2310.02304) [#24 - Michael Johnson | Qualia Formalism & The Symmetry Theory of Valence - The Metagame | Podcast on Spotify](https://open.spotify.com/episode/2rsYCbQO5fHU2csdyX2CWD?si=76cd3c4a579f405a&nd=1&dlsi=de16601121024900) mike johnson [Can You Learn Meditation from an AI? - with Shinzen Young - Deconstructing Yourself](https://deconstructingyourself.com/can-you-learn-meditation-from-an-ai-with-shinzen-young.html) [GPT-4 Vision + Zapier + MindStudio (INSANE Automations) - YouTube](https://www.youtube.com/watch?v=paWWWwdZ_es) Comparison of the Wasserstein, Hellinger, Kullback-Leibler and reverse KL on the space of Gaussian distributions. https://twitter.com/gabrielpeyre/status/1665221844566147072 [Toposes - "Nice Places to Do Math" - YouTube](https://www.youtube.com/watch?v=gKYpvyQPhZo&list=PL4FD0wu2mjWM3ZSxXBj4LRNsNKWZYaT7k)