![]() |
Scenari > Numeri > Il senso dei numeri | |||||||||||||
|
||||||||||||||
|
||||||||||||||
" Invece di mostrare quello che è comune a tutto ciò che chiamiamo linguaggio, io dico che questi fenomeni non hanno affatto in comune qualcosa, in base al quale impieghiamo per tutti la stessa parola, - ma che sono imparentati l'un con l'altro in modi differenti. E grazie a questa parentela, o a queste parentele, li chiamiamo tutti linguaggi. Non posso caratterizzare queste somiglianze meglio che con l'espressione somiglianze di famiglia; infatti le varie somiglianze che sussistono tra i membri di una famiglia si sovrappongono e si incrociano nello stesso modo: corporatura, tratti del volto, colore degli occhi, modo di camminare, temperatura, eccetera. E dirò: i giochi formano una famiglia ". (Ludwig Wittgenstein, Ricerche filosofiche, §65 e §67) La geometria è una branca della matematica. Questo assunto è diventato via via sempre più rilevante da quando Cartesio, nel XVII secolo, ha formulato la geometria in termini algebrici, gettando le basi della geometria analitica. Sebbene quest’ultima avrebbe finito per rivelarsi un efficacissimo strumento, capace di accoppiare una visione mentale sintetica e intuitiva a un’immediata rappresentazione spaziale dei concetti, le sue origini, invischiate nel pensiero cartesiano, avrebbero limitato la geometria analitica all’interno di una dicotomia di separazione. E’ proprio Cartesio a porre un limite concettuale alle stesse idee da lui stesso formulate. Il limite è quello dello sdoppiamento enunciato tra la res cogitans e la res extensa, ossia tra una facoltà della mente priva di estensione e di proprietà, potremmo dire, geometrico-spaziali, e una sostanza estesa, inconsapevole e sottoposta a leggi meccaniche quali la causa-effetto. Il dualismo cartesiano ha provocato una deriva ontologica responsabile di una separazione disciplinare ancor oggi molto diffusa: mentre le discipline che nei secoli si sono occupate più da vicino della res extensa, come la meccanica, le scienze naturali, la chimica, la biologia, hanno via via adottato la geometria come utile strumento di rappresentazione, quelle impegnate sul versante del mentale, quando hanno iniziato ad assumere uno statuto scientifico, si sono incanalate verso metodi radicalmente opposti. Lo spiccato privilegio per la logica assiomatica è diventato in questo modo il confortante terreno di spiegazione e conferma del cogito ergo sum. Mentre l’universo della materia, nella cultura alta come nell’opinione comune, viene caratterizzato nei termini di un’interazione tra corpi immersi nello spazio-tempo, con leggi formali di carattere analitico e statistico che lo sostengono, l’universo del pensiero, essendo qualcosa di difficilmente intrappolabile in paradigmi esplicativi, viene trattato dalle scienze cognitive come un sistema fisico di simboli, in maniera indipendente e astratta da una mappa del substrato materiale dove lo stesso pensiero emerge (ne sono un esempio le canoniche piattaforme della lingua e del testo). L’avvento dell’informatica, a causa della sua iniziale formulazione logico-algebrica, non ha fatto altro che sostenere questo modello anti-geometrico, al punto da privilegiare paradigmi algoritmici, quando doveva modellare i fenomeni mentali, come nel caso delle grammatiche generativo-trasformazionali di Noam Chomsky (1957). I modelli di carattere logico assiomatico, seppur con tutti gli evidenti limiti di uno schematismo spesso forzato e autoreferenziale, sono rimasti il paradigma esplicativo dominante nelle scienze cognitive. Eppure i grafici, i diagrammi, le formalizzazioni logiche, ed in generale tutti i modelli esplicativi dei fenomeni legati all’attività cognitiva – di cui linguaggio, intuizione creatività costituiscono solo alcuni esempi del più generale epifenomeno dell’intelligenza - rimangono lì, al di fuori, a testimoniare che ci sarà pur qualcosa dotato di senso, ma esterno ai processi logico-assiomatici, come una sorta di materia oscura dell’universo del pensiero. O del linguaggio. Partiamo proprio dal dibattito attorno al significato inteso nella più generale formulazione di processo di pensiero, in contrapposizione a chi invece lo intende come fenomeno proprio del linguaggio. Ovvero se si possa parlare di un contenuto del pensiero invece che del contenuto del linguaggio. I diverbi, e le diverse posizioni assumibili, nascono evidentemente dall’esigenza di imporre un sistema logico capace di esprimere i contenuti in termini di vero/falso, e comunque sottoponibili a un’esperienza empirica comune, dove questa esperienza viene ovviamente espressa in termini linguistici. Impalcature simili finiscono per sostenersi giocando astutamente su dinamiche tautologiche o astratte, e cercando presunte verifiche sperimentali grazie ad esempi che sono comunque formulati all’interno del sistema stesso, ovvero con attori umani dotati di un pensiero e un linguaggio necessariamente da definire. Anche il teorema di Kurt Gödel, nelle sue diverse generalizzazioni applicative, messo incessantemente in gioco dagli avversari del paradigma computazionale, continua a soffrire della necessità di definire un sistema di relazioni tra simbolo e significato. Ma in tutte queste diatribe tra mente e cervello, o tra umano e artificiale, il paradigma computazionale usato da detrattori o sostenitori è quasi sempre quello “a basso livello” dell’assiomatica simbolica della macchina di Turing, vista come elaboratore di simboli. La geometria rimane un mondo parte, eppure l’ambiguità e la variabilità, due attributi difficilmente manipolabili dal pensiero logico (1), e che abbiamo tutti i giorni sotto gli occhi e tra le orecchie, sommergono linguaggio e pensiero di eventi contro i quali la logica s’infrange come un’onda sugli scogli. La geometria statistica, sebbene in fisica nasca nella seconda metà dell’ottocento e i modelli quantistici governino buona parte della fisica del Novecento, rimane per la cultura epistemologica ancora emarginata e confinata alla res extensa della filosofia naturale. Ma nuovi modelli computazionali stanno emergendo, non a partire da una riformulazione del modello formale del calcolatore, ma dalle varietà e connessioni che le reti di calcolatori hanno finito per costituire. Reti geografiche eterogenee, come la rete Internet, che hanno finito per simulare una sorta di popolazione costituita da nodi, sorta di iperdocumento detentore di un sapere diffuso e organizzato, seppur in maniera discontinua e disomognea. In questa nuova accezione riveste un’importanza relativa il modello formale che sostiene la capacità di calcolo del calcolatore, e ne riveste una molto più rilevante quello geometrico della distribuzione e della connessione dei diversi calcolatori, dove ognuno di questi diventa una modalità per fascicolare contenuti testuali e ipertestuali. Ma limitiamoci ai primi. Una recente teoria, nota con il nome di Latent Semantic Analysis (LSA) (Landauer,1995), ha adottato un paradigma geometrico per fornire una spiegazione al problema dell’acquisizione e rappresentazione del significato. Tale spiegazione passa attraverso l’analisi di corpora, all’interno dei quali l’informazione latente nel testo è resa esplicita mediante l’utilizzo di tecniche algebriche per la riduzione di dimensionalità in spazi vettoriali. La LSA è oggi di buon grado accettata nell’ambito delle scienze cognitive quale modello esplicativo della percezione in generale, e rappresenta un notevole successo applicativo. LSA si presta opportunamente a un dibattito più vasto, che dal tentativo di modellare un testo si estende a questioni di carattere psico-cognitivo e linguistico: è stato dimostrato che LSA è in grado di predire i giudizi di similitudine associativa tra concetti formulati da parlanti. LSA è stata inoltre proposta come un modello cognitivo per l’acquisizione della conoscenza lessicale (Landauer, 1995), basato sui meccanismi di apprendimento propri della struttura neuronale e “connessionista” tipica della mente umana, ed in tal modo svincolato dalla necessità di ricorrere all’uso di primitive e/o strutture innate per risolvere l’annoso problema della povertà dello stimolo, altresì noto come problema di Platone (Landauer e Dumains. 1997). La LSA segna il passo rispetto a tutta la letteratura sugli alberi innati e le Grammatiche Universali di Chomsky, e in generale sulla ricerca di regole logiche che siano responsabili di tradurre le evidenze sparse in un sistema linguistico complesso e autoconsistente. Il problema generale è quello di catturare una rappresentazione del significato mediante un calcolo. Le problematiche sollevate da LSA riprendono questioni filosofiche antiche: quale è il ruolo delle parole nel linguaggio? Le parole mappano direttamente dei concetti nelle nostre menti oppure sono limitate a denotare degli oggetti? In questo caso, come possono essere rappresentati questi oggetti in un Computer ? Come osservano Jussi Karlgren e Magnus Sahlgren (Karlgren e Sahlgren, 2002), se vediamo queste cose nella prospettiva semantica della logica, la questione è che un approccio logico-assiomatico è assorbito necessariamente dall'esigenza di sapere cosa vogliamo rappresentare prima di pensare a come vogliamo rappresentarlo. "Ludwig Wittgenstein nelle Investigazioni Filosofiche (1953) suggerisce che si dovrebbe vedere il significato come qualcosa di fondato nella pratica del linguaggio, e che il significato di ogni parola è determinato dalla regole del suo utilizzo in un certo gioco linguistico. La Semantica latente, in effetti sembrerebbe spiegare questo fenomeno, in accordo con Wittgenstein, Karlgren e Sahlgren continuano: "il significato è ciò che può essere interpretato a partire da pattern geometrici di parole". Si è poi passato oltre, conferendo ai modelli geometrici un ruolo chiave nello studio degli approcci strutturalisti alla rappresentazione del significato. Un contributo in questa direzione proviene dal concetto di dominio semantico (Gliozzo,2005), proposto recentemente quale modello geometrico per il concetto di campo semantico (Trier, 1931) (Eco, 1975) , di vecchia memoria negli studi strutturalisti in linguistica. Il campo semantico è un insieme di concetti che, delimitandosi reciprocamente mediante rapporti oppositivi, descrivono nel loro complesso un’intera compagine di significati “affini”. A livello lessicale, a tali concetti corrisponde un insieme di termini, denominato campo lessicale, relazionati reciprocamente mediante relazioni paradigmatiche. Un esempio notevole di campo semantico è il campo dei colori, i quali si definiscono in opposizione reciproca in modo differente per lingue e culture differenti, ma che nel loro complesso denotano la medesima gamma cromatica. E’ interessante notare come il concetto di campo semantico sia in qualche modo complementare a quello di gioco linguistico, proposto dal Wittgenstein delle Ricerche Filosofiche (Wittgenstein,1953) quale paradigma esplicativo del significato linguistico. All’interno di un determinato gioco linguistico, il significato delle espressioni si riduce al loro uso. Il concetto di dominio semantico nasce dall’osservazione che sia i campi semantici sia i giochi linguistici sono naturalmente riflessi nel testo, e come tali indagabili in una prospettiva empirico-geometrica. In altre parole, sulla base di un processo secondo molti versi simile a quello descritto per LSA, è possibile inferire l’esistenza di domini semantici sulla base di analisi statistiche delle distribuzioni dei termini in uno spazio geometrico, all’interno del quale le co-occorrenze dei termini nei testi sono riflesse. Mediante considerazioni di tipo geometrico si è potuto osservare come nel testo si manifesti una tendenza del lessico di un medesimo dominio a raggrupparsi, proprietà altresì nota come coerenza-lessicale (Magnini et al.,2002), e come il riflesso di tale proprietà si manifesti nell’esistenza di relazioni latenti difficilmente esplicabili con i metodi delle logiche formali, ed invece elegantemente descrivibili all’interno di strutture geometriche in spazi vettoriali. In ultima analisi, sembra che il modello logico sia stato largamente soppiantato da quello geometrico nello studio dei fenomeni semantici, e che il rigore delle formulazioni discrete offerte dalla logica sia una gabbia troppo restrittiva al fine di rappresentare i complessi rapporti oppositivi determinanti in ultima analisi il significato stesso. Risulta dunque immediatamente chiaro come un tale approccio al problema del significato non possa di certo essere modellato con gli strumenti della logica tradizionale, che tenderebbe ad attribuire per lo meno una caratteristica in comune ai diversi oggetti per inferire l’esistenza di una classe, di un concetto. Ed ecco invece il significato lasciarsi meglio modellare dai barbari approcci empirici alla lingua, da ibride giustapposizioni di logiche e numeri non ancora interpretati, timide avanguardie di una geometria del significato a venire. Note (1) Per limitarci al linguaggio, un approccio logico-simbolico prevederebbe per lo meno la definizione di una serie di clausole contestuali, in base alle quali discriminare il significato dei singoli termini in riferimento al testo in cui compaiono. Visto l’elevato numero di parole presenti nel lessico, la loro polivalente interpretazione nei frequenti utilizzi metaforici, l’altissimo grado di ambiguità latente nelle espressioni stesse, è risultata, negli ultimi decenni, un’impresa ardua la definizione di un insieme di clausole e regole generative sufficiente a spiegare in maniera soddisfacente il significato. Bibliografia Chomsky, N. (1957). Syntactic Structures. The Hague: Mouton. T. Landauer and S. Dumais (1997), A solution to Plato's problem: The latent semantic analysis theory of acquisition, induction and representation of knowledge, Psychol. Rev., 104,211--240. L. Wittgenstein (1953), Philosophische Untersuchungen, Blackwell, Oxford 1953 [tr. it. Ricerche filosofiche, Einaudi, Torino 1983]. U. Eco (1975), Trattato di Semiotica Generale, Bompiani Milano 1975. G. Salton and M. J. McGill (1983). Introduction to Modern Information Retrieval. McGraw Hill Book Co., New York. Jussi Karlgren e Magnus Sahlgren (2002) ``Vector-based Semantic Analysis using Random Indexing and Morphological Analysis for Cross-Lingual Information Retrieval'' Paper presented to the second CLEF workshop. Darmstadt B. Magnini, C. Strapparava, G. Pezzulo, A. Gliozzo. "The Role of Domain Information in Word Sense Disambiguation", Natural Language Engineering, special issue on Word Sense Disambiguation, 8(4), pp. 359-373, Cambridge University Press, 2002. Alfio Massimiliano Gliozzo, Claudio Giuliano and Carlo Strapparava. "Domain Kernels for Word Sense Disambiguation", in Proceedings of the 43th Annual Meeting of the Association for Computational Linguistics (ACL'05), pages 403-410, Ann Arbor, Michigan, June, 2005. Alfio Massimiliano Gliozzo "Semantic Domains in Computational Linguistics", Ph.D. Thesis, University of Trento, December 2005. |
||||||||||||||
|