开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開(kāi)APP
          userphoto
          未登錄

          開(kāi)通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

          開(kāi)通VIP
          Nature Neuro:人類復(fù)雜行為背后存在基本的數(shù)學(xué)和計(jì)算原理嗎?計(jì)算認(rèn)知神經(jīng)科學(xué)在尋找答案

          公元前6世紀(jì)的古希臘先賢畢達(dá)哥拉斯Pythagoras提出萬(wàn)物皆數(shù),認(rèn)為數(shù)是宇宙萬(wàn)物的本原。那么是否跟物理規(guī)律類似,人類復(fù)雜的行為和認(rèn)知背后,也存在某些基本的數(shù)學(xué)和計(jì)算原理?計(jì)算認(rèn)知神經(jīng)科學(xué)致力于回答這個(gè)問(wèn)題。

          計(jì)算認(rèn)知神經(jīng)科學(xué)的目標(biāo)是通過(guò)生物學(xué)上可信的計(jì)算模型來(lái)解釋動(dòng)物和人類神經(jīng)元活動(dòng)和行為,從歷史上看,每個(gè)學(xué)科(圓圈)都解決了這些挑戰(zhàn)的一個(gè)子集(白色標(biāo)簽),計(jì)算認(rèn)知神經(jīng)科學(xué)力求同時(shí)應(yīng)對(duì)所有挑戰(zhàn)。

          計(jì)算認(rèn)知神經(jīng)科學(xué)是一個(gè)多學(xué)科交叉的領(lǐng)域,主要包括認(rèn)知科學(xué)、計(jì)算神經(jīng)科學(xué)和人工智能(圖1)。認(rèn)知科學(xué)發(fā)展出把復(fù)雜的認(rèn)知過(guò)程分解成計(jì)算組件的計(jì)算模型;計(jì)算神經(jīng)科學(xué)模擬了神經(jīng)元之間的動(dòng)態(tài)交互(實(shí)現(xiàn)各計(jì)算組件的功能);人工智能展示了如何組合各組件功能來(lái)創(chuàng)建智能行為。
          要建立能夠執(zhí)行認(rèn)知任務(wù)且能解釋大腦信息加工過(guò)程的計(jì)算模型,最大的挑戰(zhàn)在于如何建立理論(實(shí)例化的計(jì)算模型)和實(shí)驗(yàn)(提供腦和行為數(shù)據(jù))之間穩(wěn)固的橋梁。我們來(lái)從“自下而上”From experiment toward theory和“自下而上”From theory to experiment兩個(gè)角度看看該領(lǐng)域目前建立的橋梁(即模型)。

          從實(shí)驗(yàn)到理論

          接和動(dòng)態(tài)模型Models of connectivity and dynamic
          從計(jì)算層面理解大腦活動(dòng)的一種途徑是模擬大腦的連接和動(dòng)態(tài)變化,測(cè)量到的響應(yīng)時(shí)間序列的相關(guān)矩陣可以看作是大腦動(dòng)態(tài)的第一近似,表征了腦區(qū)之間的功能連接1另外有效連接分析是一種假設(shè)驅(qū)動(dòng)的方法,在動(dòng)態(tài)生成模型的基礎(chǔ)上來(lái)表征區(qū)域間的相互作用2。功能連接和有效連接分析能模擬大腦動(dòng)態(tài)變化,但它們沒(méi)有表征信息更沒(méi)有揭示大腦認(rèn)知加工機(jī)制。
          解碼模型Decoding Models

          從計(jì)算層面理解大腦活動(dòng)的另外一種途徑是揭示每個(gè)腦區(qū)呈現(xiàn)了什么信息。簡(jiǎn)而言之,解碼模型能夠檢測(cè)出兩種刺激中的哪一種產(chǎn)生了我們所測(cè)量到的激活模式3表征的內(nèi)容可以是識(shí)別感覺(jué)刺激(從一組備選的刺激中識(shí)別)、感知刺激的屬性(如光柵的朝向)或者是認(rèn)知操作和行為過(guò)程中所需要的抽象變量4。

          解碼模型和其他類型的多變量模式分析方法有助于揭示區(qū)域所表征的具體內(nèi)容5–8然而,解碼特定信息的能力并不代表解釋了完整的神經(jīng)編碼過(guò)程:它沒(méi)有指定表示格式(線性解碼之外)或可能出現(xiàn)的其他信息。最重要的是,解碼器通常不構(gòu)成大腦計(jì)算的模型。

          表征模型Representational Models

          相較于解碼模型,該模型希望更詳盡的描述腦區(qū)的表征,解釋其對(duì)任意刺激的響應(yīng)。當(dāng)然,一個(gè)完整的解釋也依賴于可解碼的變量范圍,表征模型試圖做關(guān)于表征空間的綜合預(yù)測(cè),因此該模型比解碼模型更多的受到計(jì)算理論的約束9,10

          目前有三種類型的表征模型:編碼模型EM11–13,模式成分模型PCM14和表征相似性分析RSA15–17,這三種方法都用于檢驗(yàn)表征空間的假設(shè)。編碼模型,刺激間每個(gè)體素的激活被預(yù)測(cè)為模型中特征的線性組合;模式成分模型,描述表征空間的激活分布被模擬成一個(gè)多變量正態(tài)分布;表征相似性分析模型,表征空間被描述為由刺激誘發(fā)的激活模式的表征相異性。

          從理論到實(shí)驗(yàn)

          為了建立理論和實(shí)驗(yàn)間更好的橋梁,我們首先需要一個(gè)明確的理論,這可以通過(guò)定義一個(gè)數(shù)學(xué)理論以及在計(jì)算模型中執(zhí)行它們來(lái)實(shí)現(xiàn)。計(jì)算模型可以存在于不同的描述級(jí)別,在認(rèn)知保真性和生物保真性間權(quán)衡(圖2)。

          如果模型僅考慮神經(jīng)元成分和動(dòng)態(tài)性,則可能難以解釋認(rèn)知加工過(guò)程(水平軸);相反,如果模型僅考慮認(rèn)知功能,則可能很難和大腦活動(dòng)聯(lián)系起來(lái)(垂直軸)。為了連接認(rèn)知和大腦,模型的建立必須同時(shí)考慮行為數(shù)據(jù)(反應(yīng)認(rèn)知過(guò)程)和神經(jīng)動(dòng)態(tài)兩個(gè)層面18,19。

          大腦信息加工過(guò)程的模型可以在不同描述層次上定義,它們的參數(shù)復(fù)雜度(點(diǎn)大小)、生物(水平軸)和認(rèn)知(垂直軸)保真度也可能不同。自下而上建模方法(藍(lán)色箭頭)首先捕捉生物神經(jīng)網(wǎng)絡(luò)的特征,如動(dòng)作電位和單個(gè)神經(jīng)元之間的相互作用,但這種方法忽略了認(rèn)知功能。自上而下方法(紅色箭頭)的目標(biāo)首先是在算法級(jí)捕獲認(rèn)知功能,這種方法不考慮生物實(shí)現(xiàn),而是將信息處理底層任務(wù)性能分解為算法組件。這兩種方法形成了通往解釋大腦如何產(chǎn)生思維這一共同目標(biāo)的兩個(gè)極端??偟膩?lái)說(shuō),認(rèn)知和生物保真度之間存在權(quán)衡(負(fù)相關(guān))。由于智力需要豐富的外部世界知識(shí),因而人腦信息處理模型的參數(shù)復(fù)雜度較高(右上角的大點(diǎn))。 該圖是概念圖,并不是基于對(duì)認(rèn)知保真度、生物保真度和模型復(fù)雜性的定量測(cè)量,目前還沒(méi)有確定的方法來(lái)衡量這三個(gè)變量,但可以幫助我們理解模型之間的關(guān)系,并理解它們的互補(bǔ)貢獻(xiàn)。 

          在這個(gè)部分,我們來(lái)集中討論近期執(zhí)行任務(wù)計(jì)算模型上的成功,這些模型能夠在表征和算法上解釋人類認(rèn)知功能。執(zhí)行任務(wù)模型一直是心理物理學(xué)和認(rèn)知科學(xué)的核心,它們通常在行為數(shù)據(jù)上驗(yàn)證,最近也開(kāi)始用腦活動(dòng)數(shù)據(jù)來(lái)驗(yàn)證。我們將依次考慮這兩大類模型,神經(jīng)網(wǎng)絡(luò)模型和認(rèn)知模型。

          神經(jīng)網(wǎng)絡(luò)模型(Neural network models)

          和大腦一樣,神經(jīng)網(wǎng)絡(luò)模型可以執(zhí)行前饋和循環(huán)計(jì)算,包括多層的線性-非線性信號(hào)變換,一般有數(shù)百萬(wàn)個(gè)參數(shù)(連接權(quán)重),通過(guò)調(diào)參不斷優(yōu)化任務(wù)執(zhí)行表現(xiàn)20,21。

          近期的研究已經(jīng)開(kāi)始將神經(jīng)網(wǎng)絡(luò)模型作為腦信息處理模型來(lái)進(jìn)行驗(yàn)證20,22。這些研究利用訓(xùn)練有素的深度卷積神經(jīng)網(wǎng)絡(luò)模型來(lái)識(shí)別圖像中物體,預(yù)測(cè)了靈長(zhǎng)類動(dòng)物的腹側(cè)視覺(jué)區(qū)在面對(duì)新異圖像時(shí)的大腦表征,結(jié)果表明,深度神經(jīng)網(wǎng)絡(luò)的內(nèi)部表征是當(dāng)前符合人類和猴子顳下回視覺(jué)圖像表征的最佳模型23–25。

          認(rèn)知模型Cognitive Models

          目前有三類認(rèn)知模型:產(chǎn)生式系統(tǒng),強(qiáng)化學(xué)習(xí)模型和貝葉斯認(rèn)知模型。

          產(chǎn)生式系統(tǒng)production systems提供了用于解釋推理和問(wèn)題解決的早期模型。一個(gè)產(chǎn)生式系統(tǒng)production是根據(jù)if-then規(guī)則促發(fā)的認(rèn)知行為,一組規(guī)則指定了某種條件下“if”對(duì)應(yīng)該執(zhí)行的動(dòng)作“then”。特定的條件涉及當(dāng)前的目標(biāo)及記憶中知識(shí),對(duì)應(yīng)的動(dòng)作能夠修改目標(biāo)和知識(shí)的內(nèi)部狀態(tài)26。

          強(qiáng)化學(xué)習(xí)模型Reinforcement learning models捕獲agent如何通過(guò)與環(huán)境互動(dòng)來(lái)學(xué)習(xí)最大化累積獎(jiǎng)勵(lì),選擇某種行動(dòng),觀察環(huán)境的結(jié)果狀態(tài),在這個(gè)過(guò)程中獲得獎(jiǎng)勵(lì)進(jìn)而學(xué)習(xí)如何提高該行為的發(fā)生率,該agent可能學(xué)習(xí)了每種狀態(tài)與其期待的累積獎(jiǎng)勵(lì)相關(guān)聯(lián)的價(jià)值函數(shù)27強(qiáng)化學(xué)習(xí)理論根源于心理學(xué)和神經(jīng)科學(xué),目前已經(jīng)是機(jī)器學(xué)習(xí)和人工智能的重要理論,包括動(dòng)態(tài)規(guī)劃DP,蒙特卡羅學(xué)習(xí)Monte-Carlo learning和窮舉搜索Exhaustive Search等算法 28。

          貝葉斯模型Bayesian models,指的是根據(jù)概率規(guī)則將當(dāng)前數(shù)據(jù)與先前經(jīng)驗(yàn)相結(jié)合的推理模型,它有助于我們理解基本的感知覺(jué)和運(yùn)動(dòng)加工過(guò)程29–31,也提供了對(duì)判斷和決策等更高的認(rèn)知過(guò)程的見(jiàn)解,將經(jīng)典認(rèn)知偏差解釋為先前假設(shè)的產(chǎn)物32,從貝葉斯認(rèn)知的視角來(lái)看,人類思維從嬰兒時(shí)期開(kāi)始構(gòu)建關(guān)于世界的心智模型33這些模型不僅可以是概率意義上的生成模型,而且可能是有因果性和組合性的,能夠通過(guò)重新組合元素來(lái)將這種模擬推廣到新的假設(shè)的場(chǎng)景33–35,這種建模方法已經(jīng)應(yīng)用于我們對(duì)物理34,36,37乃至社會(huì)世界38的推理。

          展望未來(lái)

          Marr提出理解復(fù)雜生物系統(tǒng)需要經(jīng)過(guò)三層分析:計(jì)算水平;表征和算法水平;神經(jīng)生物學(xué)水平。認(rèn)知科學(xué)開(kāi)始于計(jì)算水平,將認(rèn)知功能分解各個(gè)成分,進(jìn)而從自上而下的角度發(fā)展算法和表征。計(jì)算神經(jīng)科學(xué)從自下而上的角度出發(fā),將神經(jīng)元構(gòu)建塊組合成表征和算法。人工智能通過(guò)建立表征和算法來(lái)將簡(jiǎn)單的成分組合成復(fù)雜的智能。這三個(gè)學(xué)科匯聚在大腦和認(rèn)知的算法和表征上,進(jìn)而產(chǎn)生了互補(bǔ)約束。

          20瓦的電力預(yù)算下,大腦的算法將統(tǒng)計(jì)和計(jì)算效率結(jié)合起來(lái),其方式超出了當(dāng)前的人工智能,無(wú)論是貝葉斯算法還是神經(jīng)網(wǎng)絡(luò)算法。不過(guò)最近在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域已經(jīng)開(kāi)始探索貝葉斯推理和神經(jīng)網(wǎng)絡(luò)模型之間的交叉路口,將前者的統(tǒng)計(jì)優(yōu)勢(shì)(不確定性表征、概率推理、統(tǒng)計(jì)效率)與后者的計(jì)算優(yōu)勢(shì)(表征學(xué)習(xí)、萬(wàn)能近似定理、計(jì)算效率)相結(jié)合39–41。

          對(duì)心智和大腦的研究正進(jìn)入一個(gè)特別令人興奮的階段,如果認(rèn)知科學(xué)、計(jì)算神經(jīng)科學(xué)和人工智能能夠結(jié)合起來(lái),我們或許能夠用神經(jīng)生物學(xué)上可信的計(jì)算模型來(lái)解釋人類的認(rèn)知,這不僅有助于我們更深刻的理解人腦信息加工的具體過(guò)程,也能在一定程度上為人工智能算法的發(fā)展提供有益啟示


          核心參考文獻(xiàn):

          Nikolaus Kriegeskorte & Pamela K. Douglas. Cognitive computational neuroscience.Nature Neuroscience volume 21, pages1148–1160 (2018) 


          其它參考文獻(xiàn):

          1. Biswal B, Zerrin Yetkin F, Haughton VM, Hyde JS. Functional connectivity in the motor cortex of resting human brain using echo‐planar MRI. Magn Reson Med. 1995;34(4):537-541.

          2. Friston K. Dynamic causal modeling and Granger causality Comments on: The identification of interacting networks in the brain using fMRI: Model selection, causality and deconvolution. Neuroimage. 2011;58(2-2):303.

          3. Dayan P, Abbott LF, Abbott L. Theoretical neuroscience: computational and mathematical modeling of neural systems. 2001.

          4. Jin X, Costa RM. Shaping action sequences in basal ganglia circuits. Curr Opin Neurobiol. 2015;33:188-196.

          5. Norman KA, Polyn SM, Detre GJ, Haxby J V. Beyond mind-reading: multi-voxel pattern analysis of fMRI data. Trends Cogn Sci. 2006;10(9):424-430.

          6. Tong F, Pratte MS. Decoding patterns of human brain activity. Annu Rev Psychol. 2012;63:483-509.

          7. Haxby J V, Connolly AC, Guntupalli JS. Decoding neural representational spaces using multivariate pattern analysis. Annu Rev Neurosci. 2014;37:435-456.

          8. Haynes J-D. A primer on pattern-based approaches to fMRI: principles, pitfalls, and perspectives. Neuron. 2015;87(2):257-270.

          9. Naselaris T, Kay KN. Resolving ambiguities of MVPA using explicit models of representation. Trends Cogn Sci. 2015;19(10):551-554.

          10. Diedrichsen J, Kriegeskorte N. Representational models: A common framework for understanding encoding, pattern-component, and representational-similarity analysis. PLoS Comput Biol. 2017;13(4):e1005508.

          11. Dumoulin SO, Wandell BA. Population receptive field estimates in human visual cortex. Neuroimage. 2008;39(2):647-660.

          12. Kay KN, Naselaris T, Prenger RJ, Gallant JL. Identifying natural images from human brain activity. Nature. 2008;452(7185):352.

          13. Mitchell TM, Shinkareva S V, Carlson A, et al. Predicting human brain activity associated with the meanings of nouns. Science (80- ). 2008;320(5880):1191-1195.

          14. Diedrichsen J, Ridgway GR, Friston KJ, Wiestler T. Comparing the similarity and spatial structure of neural representations: a pattern-component model. Neuroimage. 2011;55(4):1665-1678.

          15. Nili H, Wingfield C, Walther A, Su L, Marslen-Wilson W, Kriegeskorte N. A toolbox for representational similarity analysis. PLoS Comput Biol. 2014;10(4):e1003553.

          16. Kriegeskorte N, Mur M, Bandettini PA. Representational similarity analysis-connecting the branches of systems neuroscience. Front Syst Neurosci. 2008;2:4.

          17. Kriegeskorte N, Kievit RA. Representational geometry: integrating cognition, computation, and the brain. Trends Cogn Sci. 2013;17(8):401-412.

          18. Eliasmith C, Trujillo O. The use and abuse of large-scale brain models. Curr Opin Neurobiol. 2014;25:1-6.

          19. Markram H. The blue brain project. Nat Rev Neurosci. 2006;7(2):153.

          20. Kriegeskorte N. Deep neural networks: a new framework for modeling biological vision and brain information processing. Annu Rev Vis Sci. 2015;1:417-446.

          21. Goodfellow I, Bengio Y, Courville A. Deep Learning. MIT press; 2016.

          22. Yamins DLK, DiCarlo JJ. Using goal-driven deep learning models to understand sensory cortex. Nat Neurosci. 2016;19(3):356.

          23. Cadieu CF, Hong H, Yamins DLK, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition. PLoS Comput Biol. 2014;10(12):e1003963.

          24. Khaligh-Razavi S-M, Kriegeskorte N. Deep supervised, but not unsupervised, models may explain IT cortical representation. PLoS Comput Biol. 2014;10(11):e1003915.

          25. Yamins DLK, Hong H, Cadieu CF, Solomon EA, Seibert D, DiCarlo JJ. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proc Natl Acad Sci. 2014;111(23):8619-8624.

          26. Moore C, Mertens S. The Nature of Computation. OUP Oxford; 2011.

          27. Sutton RS, Barto AG. Reinforcement Learning: An Introduction. MIT press; 2018.

          28. O’Doherty JP, Cockburn J, Pauli WM. Learning, Reward, and Decision Making. Annu Rev Psychol. 2017;68:73-100. doi:10.1146/annurev-psych-010416-044216

          29. Ernst MO, Banks MS. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 2002;415(6870):429.

          30. Weiss Y, Simoncelli EP, Adelson EH. Motion illusions as optimal percepts. Nat Neurosci. 2002;5(6):598.

          31. K?rding KP, Wolpert DM. Bayesian integration in sensorimotor learning. Nature. 2004;427(6971):244.

          32. Tversky A, Kahneman D. Judgment under uncertainty: Heuristics and biases. Science (80- ). 1974;185(4157):1124-1131.

          33. Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ. Building machines that learn and think like people. Behav Brain Sci. 2017;40.

          34. Ullman TD, Spelke E, Battaglia P, Tenenbaum JB. Mind games: Game engines as an architecture for intuitive physics. Trends Cogn Sci. 2017;21(9):649-665.

          35. Tenenbaum JB, Kemp C, Griffiths TL, Goodman ND. How to grow a mind: Statistics, structure, and abstraction. Science (80- ). 2011;331(6022):1279-1285.

          36. Battaglia PW, Hamrick JB, Tenenbaum JB. Simulation as an engine of physical scene understanding. Proc Natl Acad Sci. 2013;110(45):18327-18332.

          37. Kubricht JR, Holyoak KJ, Lu H. Intuitive physics: Current research and controversies. Trends Cogn Sci. 2017;21(10):749-759.

          38. Pantelis PC, Baker CL, Cholewiak SA, et al. Inferring the intentional states of autonomous virtual agents. Cognition. 2014;130(3):360-379.

          39. Gal Y, Ghahramani Z. Dropout as a bayesian approximation: Representing model uncertainty in deep learning. In: International Conference on Machine Learning. ; 2016:1050-1059.

          40. Rezende DJ, Mohamed S, Danihelka I, Gregor K, Wierstra D. One-shot generalization in deep generative models. arXiv Prepr arXiv160305106. 2016.

          41. Kingma DP, Welling M. Auto-encoding variational bayes. arXiv Prepr arXiv13126114. 2013.


          作者信息

           

          編譯作者:湯晴brainnews創(chuàng)作團(tuán)隊(duì)

          校對(duì):Simonbrainnews編輯部)

          題圖:timeshighereducation.com

          前 文 閱 讀

           

          1,厲害了:腦科學(xué)領(lǐng)域獲批國(guó)自然2個(gè)千萬(wàn)級(jí)項(xiàng)目,23個(gè)300萬(wàn)的重點(diǎn)項(xiàng)目!

          2,系統(tǒng)盤點(diǎn)| 2019"優(yōu)青"榜單中的腦科學(xué)家們----人才輩出!

          3,Nature Neuroscience重磅:拓?fù)浣J状伟l(fā)現(xiàn)小鼠腦海里的“指南針”



          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
          打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          下一代深度學(xué)習(xí)的思考
          也許我們從未活在當(dāng)下,而是永遠(yuǎn)期待即將抵達(dá)的未來(lái)
          帶你入門跨學(xué)科領(lǐng)域——認(rèn)知神經(jīng)科學(xué)
          腦電研究:通過(guò)神經(jīng)活動(dòng)和視覺(jué)特征的多模態(tài)學(xué)習(xí)解碼大腦表征
          Coursera公開(kāi)課筆記: 斯坦福大學(xué)機(jī)器學(xué)習(xí)第八課“神經(jīng)網(wǎng)絡(luò)的表示(Neural Networks: Representation)”
          AI的下一個(gè)戰(zhàn)場(chǎng):認(rèn)知智能的突圍
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服