ARTICOLI ORIGINALI

La misura dello spazio e l’integrazione multisensoriale

Rossella PAGANI, Monica CASU, Nina GRANCINI, Davide MARAZZI, Antonino Michele PREVITERA

DI.S.S., Università degli Studi di Milano – U.O. di Riabilitazione Specialistica – ASST Santi Paolo e Carlo, Presidio San Paolo – Milano

Scarica in PDF

Attraversare una strada è un esempio paradigmatico di come, in un’azione quotidiana, sia richiesta la capacità di integrare molte informazioni per “misurare lo spazio” e prendere decisioni. Alcuni mammiferi, per esempio i delfini e i pipistrelli, utilizzano il senso dell’udito per “misurare lo spazio”: 
l’eco-localizzazione di questi animali consiste nel produrre suoni che, viaggiando verso l’esterno e incontrando ostacoli, sono riflessi come echi che restituiscono rappresentazioni tridimensionali dell’ambiente circostante [1]. L’animale riesce a conoscere la posizione di singoli oggetti (per esempio una preda in movimento), analizzando l’ampiezza, lo spettro e il ritardo dell’eco. L’essere umano invece non dispone di un unico sistema sensoriale per “misurare lo spazio”, ma diversi processi cognitivi, che integrano informazioni sia dal proprio corpo che dall’ambiente, contribuiscono ad acquisire una corretta rappresentazione spaziale.

La rappresentazione dello spazio

Il concetto di rappresentazione spaziale è multidimensionale. Possiamo distinguere uno spazio corporeo (occupato dal corpo), uno spazio peri-personale (raggiungibile con gli arti o con oggetti che ne diventano un “prolungamento”) e uno spazio extra-personale (non raggiungibile, ovvero estraneo al corpo) [2].

Le diverse rappresentazioni dello spazio comportano diverse modalità di integrazione sensoriale. Mentre per lo spazio extra-personale la principale fonte di informazione sono le afferenze visive, per lo spazio peri-personale le afferenze visive sono integrate con quelle propriocettive e motorie [3, 4]. Lo spazio peri-personale è il cosiddetto “spazio d’azione” e beneficia di un’elaborazione percettiva molto raffinata [4, 5]. In letteratura sono descritti neuroni sensitivi bimodali visuo-tattili, che si attivano sia per stimoli tattili sulla mano che per stimoli visivi vicino alla mano e che sono azione-dipendenti [2]. Come questi neuroni visuo-tattili, i neuroni che mappano lo spazio peri-personale sono neuroni multisensoriali, ovvero neuroni che rispondono a stimoli uni-sensoriali di almeno due differenti modalità che comunicano tra loro e con il sistema motorio. Inoltre, nella rappresentazione dello spazio peri-personale, i campi recettivi si modellano per includere la posizione di destinazione dell’arto dopo il movimento [6].

La rappresentazione spaziale può anche essere suddivisa in allocentrica ed egocentrica. Quest’ultima fa riferimento a informazioni relative al corpo del soggetto o a parti di esso. La rappresentazione allocentrica invece tiene conto di punti di riferimento relativi all’ambiente (caratteristiche geometriche, distanze tra diversi punti di riferimento e tra i vari confini) e conserva nella memoria un’immagine visiva dei luoghi [7]. La rappresentazione allocentrica si crea attraverso l’elaborazione degli input sensoriali di tipo egocentrico ed è riconvertita in modelli di tipo egocentrico per poter rendere il soggetto capace di muoversi nello spazio [8]. Diverse sono le aree cerebrali coinvolte nella rappresentazione egocentrica dello spazio, in particolare le aree del solco intra-parietale e i gangli della base. Nella rappresentazione allocentrica sono invece coinvolte la corteccia temporale e la corteccia retro-spleniale [8]. Il ruolo più rilevante è però attribuito ad aree del sistema limbico: la corteccia dell’ippocampo, l’area para-ippocampale (corteccia entorinale mediale e laterale, corteccia peririnale e postrinale) [8, 9]. Queste aree si attivano anche in compiti di orientamento, di apprendimento e di memoria spaziale. L’ippocampo è in pratica considerato l’area di “mappatura interna” del mondo esterno [10].

Il corpo è il primo strumento di misura dell’ambiente [11]. Un modello implicito delle proprietà metriche del corpo è memorizzato nel cervello ed è aggiornato e integrato attraverso segnali periferici (input sensomotori, propriocettivi, cinestesici e visivi) [3, 12].

L’immagine corporea si adatta ai cambiamenti: pensiamo al cambiamento nella lunghezza degli arti di un bambino durante la crescita e al conseguente adeguamento dell’immagine corporea e delle rappresentazioni dello spazio che questo comporta [12]. Anche le capacità motorie e la dominanza manuale influenzano l’immagine corporea e la rappresentazione dello spazio, tanto che esiste un’anisotropia laterale dello spazio legata alla destrezza manuale fra soggetti mancini e destrimani: nei destrimani lo spazio sinistro è rappresentato come più grande, mentre nei mancini lo spazio più grande sembrerebbe quello destro [11].

Le informazioni sensoriali

Nell’essere umano diverse informazioni sensoriali restituiscono una “misura dello spazio” [13, 14].

È noto che le informazioni visive hanno un ruolo predominante. La mancanza dell’esperienza visiva in soggetti non vedenti, nonostante vi sia un maggiore utilizzo di informazioni tattili e uditive, porta a una conoscenza dello spazio imprecisa [15]. Alcuni neuroni visivi della corteccia parietale ricevono segnali extra-retinici (ad esempio in relazione alla posizione degli occhi). 
I neuroni dell’area 7b nella corteccia parietale sono neuroni poli-sensitivi che si attivano quando uno stimolo visivo è in direzione del campo recettivo tattile o molto vicino a questo; i neuroni dell’area intra-parietale ventrale (VIP), ricevono impulsi dal lobo medio-temporale e quindi sono sensibili al movimento visivo [16, 17]. Questi gruppi di neuroni si occupano dello spazio peri-personale e inviano informazioni alla corteccia premotoria, deputata al controllo motorio. Altri gruppi di neuroni si occupano dello spazio extra-personale: i neuroni dell’area 7a, i cui campi recettivi cambiano la loro eccitabilità in base alla posizione degli occhi, e i neuroni dell’area intra-parietale laterale (LIP), anch’essi dipendenti dallo sguardo, inviano informazioni ai campi oculari frontali, per la direzione del movimento [16, 17].

Anche le informazioni uditive contribuiscono alla rappresentazione spaziale, sebbene in misura minore rispetto a quelle visive. La corteccia uditiva primaria è l’area cerebrale che integra i segnali uditivi: il riconoscimento del suono è processato nella regione rostrale della corteccia uditiva, mentre alla regione caudale compete la componente spaziale del suono [18]. Per individuare un suono nello spazio sono necessarie tre coordinate: la localizzazione sui piani verticale, orizzontale e della profondità (o distanza). Per il piano verticale le informazioni di localizzazione sono monoauricolari, mentre per il piano orizzontale sono biauricolari (differenza di tempo di arrivo per i suoni a bassa frequenza e differenza di intensità per i suoni ad alta frequenza) [18, 19]. La componente centrale responsabile del confronto tra le informazioni acustiche monoaurali e gli schemi preesistenti è la parte dorsale del nucleo cocleare (20). La percezione della distanza, invece, non è così accurata come la localizzazione sui piani orizzontale o verticale. I soggetti, infatti, tendono a sottostimare distanze maggiori di 1,5 metri e sovrastimare distanze minori di 1,5 metri; inoltre, l’individuazione della distanza di un suono è più accurata per suoni che provengono da posizioni più laterali, rispetto a suoni provenienti da posizioni centrali [21].

Anche le informazioni vestibolari contribuiscono all’orientamento spaziale [22]. Nei compiti di navigazione spaziale, per esempio nel cammino, il vestibolo partecipa alla percezione dello spazio insieme ai sistemi somato-sensoriale e motorio [23] e, con l’aumentare della complessità del compito di navigazione, il contributo del vestibolo aumenta. I segnali vestibolari sono coinvolti non solo nella rappresentazione dello spazio corporeo, ma anche nella rappresentazione dello spazio extra-personale. La corteccia vestibolare insulo-parietale (PIVC) è considerata la principale corteccia vestibolare [24]. Questa zona riceve afferenze dalla maggior parte delle altre regioni corticali coinvolte nell’elaborazione di stimoli spaziali, integrando il movimento corporeo con gli input vestibolari [24]. Risposte vestibolari sono state registrate anche nella corteccia somato-sensoriale, nel solco intra-parietale, nella corteccia parietale posteriore (area 7), nell’area temporale mediale superiore, nella corteccia frontale, nel cingolo e nell’ippocampo oltre che in diversi nuclei talamici (mediale, habenularis e pulvinar) [25].

L’integrazione multisensoriale

Per avere un’integrazione multisensoriale corretta deve esserci una “inferenza causale”, ovvero la presenza contemporanea di concordanza dei dati sensoriali, attenzione ed esperienza pregressa. La concordanza dei dati sensoriali consiste nella concordanza spaziale e temporale degli input sensoriali [26, 27]. L’attenzione divisa migliora l’integrazione dei dati sensoriali, quella selettiva invece tende a sopprimerla. Infine, l’esperienza pregressa porta ad avere una conoscenza a priori dell’origine delle informazioni sensoriali [28, 29]. Nell’integrazione sono fondamentali anche l’intensità degli stimoli e la loro distanza. Il tempo di risposta a uno stimolo ad alta intensità è minore rispetto a uno stimolo a bassa intensità. Questo fenomeno si ribalta quando consideriamo anche la distanza degli stimoli: quando lo stimolo è presentato nello spazio lontano, i tempi di risposta di uno stimolo audio-visivo sono più veloci, con una riduzione della dimensione e dell’intensità dello stimolo (30).

La rappresentazione spaziale è frutto dell’integrazione contemporanea di molteplici rappresentazioni in una rappresentazione unitaria (6). Sebbene le informazioni visive siano predominanti, esistono più rappresentazioni dello spazio. Lo “spazio visivo” si integra a segnali uditivi, cinestesici, vestibolari e provenienti da altre modalità di rilevamento dell’orientamento del corpo.

Le informazioni riguardanti lo spazio sono pertanto ridondanti [23]. La vista dà una cornice allocentrica, quindi un quadro di riferimento esterno al corpo. Le informazioni somato-sensoriali danno un quadro egocentrico, con un riferimento al nostro corpo. 
Il sistema vestibolare apporta informazioni relative al rapporto del nostro corpo con la terra, con un quadro geocentrico [22].

Numerose sono le aree cerebrali deputate all’integrazione multisensoriale per la rappresentazione dello spazio (Figura 1). Nella corteccia parietale posteriore, ci sono aree di integrazione come la 39, la 40 e la 7a, le quali ricevono, oltre a informazioni di tipo visivo, anche informazioni vestibolari, con lo scopo di perfezionare la percezione dell’accelerazione e del movimento corporeo e di definire la posizione degli oggetti in relazione al corpo [9]. Anche il lobo parietale superiore e il solco intra-parietale, la corteccia premotoria, e alcune aree di connessione anatomica tra differenti aree cerebrali, che connettono il nucleo genicolato mediale con la corteccia uditiva e il nucleo genicolato laterale con la corteccia visiva, sono aree di integrazione multisensoriale [31]. Infine, anche il collicolo superiore partecipa all’integrazione multimodale dei segnali spaziali [32].

Figura 1 Rappresentazione delle aree cerebrali associative coinvolte nell’integrazione multisensoriale.

Conclusione

La conoscenza dello spazio è uno dei compiti più complessi ed è fondamentale per l’interazione con l’ambiente. La “misura dello spazio” nell’uomo si basa su processi cognitivi, ovvero è frutto dell’integrazione di diversi stimoli sensoriali. Tale sistema di misura è ridondante e ciò consente, anche in condizioni in cui uno dei sensi è deficitario, come accade nei soggetti non vedenti, una “misura dello spazio” funzionale seppur imprecisa [15]. Per avere una misura dello spazio non è solo sufficiente avere una buona percezione spaziale, ma è anche necessaria una corretta percezione del proprio corpo. Pazienti con una lesione cerebrale, potrebbero presentare una non corretta integrazione delle informazioni sensoriali con conseguente difficoltà a interagire con l’ambiente circostante.

Poiché le funzioni cognitive non sono modulari bensì integrate e interattive, l’approccio riabilitativo deve tener conto dell’integrazione multisensoriale. Infatti, se non si ragiona in questi termini, il paziente potrebbe sapersi muovere correttamente durante le sedute riabilitative, ma non riuscire nella realtà della vita quotidiana a relazionarsi adeguatamente con l’ambiente.

Bibliografia

  1. Diebold CA, Salles A, Moss CF. Adaptive Echolocation and Flight Behaviors in Bats Can Inspire Technology Innovations for Sonar Tracking and Interception. Sensors (Basel). 2020; 20(10):2958.
  2. Vyas DB, Garza JP, Reed CL. Hand function, not proximity, biases visuotactile integration later in object processing: An ERP study. Conscious Cogn. 2019; 69:26-35.
  3. Lohmann J, Butz MV. Lost in space: multisensory conflict yields adaptation in spatial representations across frames of reference. Cogn Process. 2017; 18(3):211-228.
  4. Blini E, Desoche C, Salemme R, et al. Mind the Depth: Visual Perception of Shapes Is Better in Peripersonal Space. Psychol Sci. 2018; 29(11):1868-1877.
  5. Hobeika L, Viaud-Delmon I, Taffou M. Anisotropy of lateral peripersonal space is linked to handedness. Exp Brain Res. 2018; 236(2):609-618.
  6. Serino A. Peripersonal space (PPS) as a multisensory interface between the individual and the environment, defining the space of the self. Neurosci Biobehav Rev. 2019; 99:138-159.
  7. Burgess N. Spatial memory: how egocentric and allocentric combine. Trends Cogn Sci. 2006; 10(12):551–7.
  8. Madl T, Chen K, Montaldi D, Trappl R. Computational cognitive models of spatial memory: a review. Neural Networks. 2014; 65:18–43.
  9. Burgess N. Spatial cognition and the brain. Ann N Y Acad Sci. 2008; 1124:77–97.
  10. Moser EI, Kropff E, Moser MB. Place cells, grid cells, and the brain’s spatial representation system. Annu Rev Neurosci. 2008; 31:69–89.
  11. Hobeika L, Viaud-Delmon I, Taffou M. Anisotropy of lateral peripersonal space is linked to handedness. Exp Brain Res. 2018; 236(2):609-618.
  12. Sorrentino G, Franza M, Zuber C, et al. How ageing shapes body and space representations: A comparison study between healthy young and older adults. Cortex. 2021; 136:56-76.
  13. Santillán JE, Barraza JF. Distance perception during self-movement. Hum Mov Sci. 2019; 67:102496.
  14. Israël I, Capelli A, Priot AE, Giannopulu I. Spatial linear navigation: is vision necessary? Neurosci Lett. 2013; 554:34-8.
  15. Gori M, Amadeo MB, Campus C. Spatial metric in blindness: behavioural and cortical processing. Neurosci Biobehav Rev. 2020; 109:54-62.
  16. Sakata H, Kusunoki M. Organization of space perception: neural representation of three-dimensional space in the posterior parietal cortex. Curr Opin Neurobiol. 1992; 2(2):170-4.
  17. Chen X, DeAngelis GC, Angelaki DE. Eye-centered visual receptive fields in the ventral intraparietal area. J Neurophysiol. 2014; 112(2):353-61.
  18. van der Heijden K, Rauschecker JP, de Gelder B, Formisano E. Cortical mechanisms of spatial hearing. Nat Rev Neurosci. 2019; 20(10):609-23.
  19. Middlebrooks JC, Green DM. Sound localization by human listeners. Annu Rev Psychol. 1991; 42:135–59.
  20. Sutherland DP, Masterton RB, Glendenning KK. Role of acoustic striae in hearing: reflexive responses to elevated sound-sources. Behav Brain Res. 1998; 97:1-12.
  21. Zahorik P. Assessing auditory distance perception using virtual acoustics. J Acoust Soc Am. 2002; 111(4):1832-46.
  22. Borel L, Lopez C, Péruch P, Lacour M. Vestibular syndrome: a change in internal spatial representation. Neurophysiol Clin. 2008; 38(6):375- 89.
  23. Campos JL, Butler JS, Bülthoff HH. Multisensory integration in the estimation of walked distances. Exp Brain Res. 2012; 218(4):551-65.
  24. Shinder ME, Taube JS. Differentiating ascending vestibular pathways to the cortex involved in spatial cognition. J Vestib Res Equilib Orientat. 2010; 20(1-2):3–23.
  25. Mast FW, Preuss N, Hartmann M, Grabherr L. Spatial cognition, body representation and affective processes: the role of vestibular information beyond ocular reflexes and control of posture. Front Integr Neurosci. 2014; 8:44.
  26. Diederich A, Colonius H. Multisensory Integration and Exogenous Spatial Attention: A Time-window-of-integration Analysis. J Cogn Neurosci. 2019; 31(5):699-710.
  27. Van der Stoep N, Spence C, Nijboer TC, Van der Stigchel S. On the relative contributions of multisensory integration and crossmodal exogenous spatial attention to multisensory response enhancement. Acta Psychol (Amst). 2015; 162:20-8.
  28. Badde S, Navarro KT, Landy MS. Modality-specific attention attenuates visual-tactile integration and recalibration effects by reducing prior expectations of a common source for vision and touch. Cognition. 2020 Apr;197:104170.
  29. Mahani MN, Sheybani S, Bausenhart KM, et al. Multisensory Perception of Contradictory Information in an Environment of Varying Reliability: Evidence for Conscious Perception and Optimal Causal Inference. Sci Rep. 2017; 7(1):3167.
  30. Van der Stoep N, Van der Stigchel S, Nijboer TC, Van der Smagt MJ. Audiovisual integration in near and far space: effects of changes in distance and stimulus effectiveness. Exp Brain Res. 2016; 234(5):1175-88.
  31. Sakata H, Kusunoki M. Organization of space perception: neural representation of three-dimensional space in the posterior parietal cortex. Curr Opin Neurobiol. 1992; 2(2):170-4.
  32. Leo F, Bertini C, di Pellegrino G, Làdavas E. Multisensory integration for orienting responses in humans requires the activation of the superior colliculus. Exp Brain Res. 2008; 186(1):67-77.
image001
Si precisa che gli articoli non sono riproducibili senza l’approvazione dell’editore: per qualsiasi riutilizzo con scopi commerciali o promozionali, è necessario richiedere opportuna quotazione scrivendo a shcmilan@springer.com Gli articoli pubblicati sul sito sono fruibili in base all’attribuzione CCBY NC ND. Visualizza il testo completo della licenza

© 2024 Springer Healthcare Italia s.r.l.