Representing knowledge, modeling human reasoning, and understanding thought processes have always been central parts of intellectual activities, since the first attempts by greek philosophers. It is not just by chance that, as soon as computers started to spread, remarkable scientists and mathematicians such as John McCarthy, Marvin Minsky and Claude Shannon started creating Artificially Intelligent systems with a symbolic oriented perspective. Even though this has been a partially forced path due to the very limited computing capabilities at the time, it marked the beginning of what is now known as Classical (or Symbolic) Artificial Intelligence, or essentially, a set of techniques for implementing "intelligent" behaviours by means of logic formalisms and theorem proving. Classical AI techniques are indeed very direct and human-centered processes, which find their strenghts on straightforward human interpretability and knowledge reusability. On the contrary, they suffer of computability problems when applied to real world tasks, mostly due to search space combinatorial explosion (especially when reasoning with time), and undecidability. However, the ever-increasing capabilites of computer hardware opened new possibilities for other more statistical-oriented methods to grow, such as Neural Networks. Even if the theory behind these methods was long known, it was only in recent years that they managed to achieve significant breakthroughs, and to surpass Classical AI techniques on many tasks. At the moment, the main hurdles of such statistical AI techniques are represented by the high energy consumption and the lack of easy ways for humans to understand the process that led to a particular result. Summing up, Classical and Statistical AI techniques can be seen as two faces of the same coin: if a domain presents structured information, little uncertainty, and clear decision processes, then Classical AI might be the right tool, or otherwise, when the information is less structured, has more uncertainty, ambiguity and clear decision processes cannot be identified, then Statistical AI should be chosen. The main purpose of this thesis is thus (i) to show capabilities and limits of current (Classical and Statistical) Artificial Intelligence techniques in both structured and unstructured domains, and (ii) to demostrate how event-based modeling can tackle some of their critical issues, providing new potential connections and novel perspectives.

Rappresentare la conoscenza, modellare il ragionamento umano e comprendere i processi di pensiero sono sempre state parti centrali delle attività intellettuali, fin dai primi tentativi dei filosofi greci. Non è solo un caso che, non appena i computer hanno iniziato a diffondersi, scienziati e matematici straordinari come John McCarthy, Marvin Minsky e Claude Shannon hanno iniziato a creare sistemi Artificialmente Intelligenti con una prospettiva orientata al simbolismo. Anche se questo è stato un percorso parzialmente forzato a causa delle capacità di calcolo molto limitate dell'epoca, ha segnato l'inizio di quella che oggi è conosciuta come Intelligenza Artificiale Classica (o Simbolica), o essenzialmente, un insieme di tecniche per implementare comportamenti "intelligenti" attraverso formalismi logici e di dimostrazione di teoremi. Le tecniche di Intelligenza Artificiale Classica sono infatti processi molto diretti e centrati sull'uomo, che trovano il loro punto di forza nella semplice interpretabilità umana e nella riusabilità della conoscenza. Al contrario, esse soffrono di problemi di computabilità quando sono applicate a compiti del mondo reale, per lo più dovuti all'esplosione combinatoria dello spazio di ricerca (soprattutto quando si ha a che fare con il tempo), e all'indecidibilità. Tuttavia, le sempre maggiori capacità dell'hardware dei computer hanno aperto nuove possibilità di crescita per altri metodi più orientati alla statistica, come le Reti Neurali. Anche se la teoria alla base di questi metodi era nota da tempo, è stato solo negli ultimi anni che sono riusciti a raggiungere progressi significativi, e a superare le tecniche classiche di IA su molti fronti. Al momento, i principali ostacoli di tali tecniche di IA statistica sono rappresentati dall'elevato consumo di energia e dalla mancanza di modi semplici per gli esseri umani di comprendere il processo che ha portato a un particolare risultato. Riassumendo, le tecniche di IA classica e statistica possono essere viste come due facce della stessa medaglia: se un dominio presenta informazioni strutturate, poca incertezza e processi decisionali chiari, allora l'IA classica potrebbe essere lo strumento giusto, o altrimenti, quando le informazioni sono meno strutturate, hanno più incertezza, ambiguità e non è possibile identificare processi decisionali chiari, allora l'IA statistica dovrebbe essere scelta. Lo scopo principale di questa tesi è quindi (i) mostrare le capacità e i limiti delle attuali tecniche di Intelligenza Artificiale (Classica e Statistica) sia in ambiti strutturati che non strutturati, e (ii) dimostrare come la modellazione basata su eventi possa affrontare alcune delle loro criticità, fornendo nuove potenziali connessioni e nuove prospettive.

From Symbolic Artificial Intelligence to Neural Networks Universality with Event-based Modeling / Falcionelli, Nicola. - (2020 Mar 20).

From Symbolic Artificial Intelligence to Neural Networks Universality with Event-based Modeling

FALCIONELLI, NICOLA
2020-03-20

Abstract

Representing knowledge, modeling human reasoning, and understanding thought processes have always been central parts of intellectual activities, since the first attempts by greek philosophers. It is not just by chance that, as soon as computers started to spread, remarkable scientists and mathematicians such as John McCarthy, Marvin Minsky and Claude Shannon started creating Artificially Intelligent systems with a symbolic oriented perspective. Even though this has been a partially forced path due to the very limited computing capabilities at the time, it marked the beginning of what is now known as Classical (or Symbolic) Artificial Intelligence, or essentially, a set of techniques for implementing "intelligent" behaviours by means of logic formalisms and theorem proving. Classical AI techniques are indeed very direct and human-centered processes, which find their strenghts on straightforward human interpretability and knowledge reusability. On the contrary, they suffer of computability problems when applied to real world tasks, mostly due to search space combinatorial explosion (especially when reasoning with time), and undecidability. However, the ever-increasing capabilites of computer hardware opened new possibilities for other more statistical-oriented methods to grow, such as Neural Networks. Even if the theory behind these methods was long known, it was only in recent years that they managed to achieve significant breakthroughs, and to surpass Classical AI techniques on many tasks. At the moment, the main hurdles of such statistical AI techniques are represented by the high energy consumption and the lack of easy ways for humans to understand the process that led to a particular result. Summing up, Classical and Statistical AI techniques can be seen as two faces of the same coin: if a domain presents structured information, little uncertainty, and clear decision processes, then Classical AI might be the right tool, or otherwise, when the information is less structured, has more uncertainty, ambiguity and clear decision processes cannot be identified, then Statistical AI should be chosen. The main purpose of this thesis is thus (i) to show capabilities and limits of current (Classical and Statistical) Artificial Intelligence techniques in both structured and unstructured domains, and (ii) to demostrate how event-based modeling can tackle some of their critical issues, providing new potential connections and novel perspectives.
20-mar-2020
Rappresentare la conoscenza, modellare il ragionamento umano e comprendere i processi di pensiero sono sempre state parti centrali delle attività intellettuali, fin dai primi tentativi dei filosofi greci. Non è solo un caso che, non appena i computer hanno iniziato a diffondersi, scienziati e matematici straordinari come John McCarthy, Marvin Minsky e Claude Shannon hanno iniziato a creare sistemi Artificialmente Intelligenti con una prospettiva orientata al simbolismo. Anche se questo è stato un percorso parzialmente forzato a causa delle capacità di calcolo molto limitate dell'epoca, ha segnato l'inizio di quella che oggi è conosciuta come Intelligenza Artificiale Classica (o Simbolica), o essenzialmente, un insieme di tecniche per implementare comportamenti "intelligenti" attraverso formalismi logici e di dimostrazione di teoremi. Le tecniche di Intelligenza Artificiale Classica sono infatti processi molto diretti e centrati sull'uomo, che trovano il loro punto di forza nella semplice interpretabilità umana e nella riusabilità della conoscenza. Al contrario, esse soffrono di problemi di computabilità quando sono applicate a compiti del mondo reale, per lo più dovuti all'esplosione combinatoria dello spazio di ricerca (soprattutto quando si ha a che fare con il tempo), e all'indecidibilità. Tuttavia, le sempre maggiori capacità dell'hardware dei computer hanno aperto nuove possibilità di crescita per altri metodi più orientati alla statistica, come le Reti Neurali. Anche se la teoria alla base di questi metodi era nota da tempo, è stato solo negli ultimi anni che sono riusciti a raggiungere progressi significativi, e a superare le tecniche classiche di IA su molti fronti. Al momento, i principali ostacoli di tali tecniche di IA statistica sono rappresentati dall'elevato consumo di energia e dalla mancanza di modi semplici per gli esseri umani di comprendere il processo che ha portato a un particolare risultato. Riassumendo, le tecniche di IA classica e statistica possono essere viste come due facce della stessa medaglia: se un dominio presenta informazioni strutturate, poca incertezza e processi decisionali chiari, allora l'IA classica potrebbe essere lo strumento giusto, o altrimenti, quando le informazioni sono meno strutturate, hanno più incertezza, ambiguità e non è possibile identificare processi decisionali chiari, allora l'IA statistica dovrebbe essere scelta. Lo scopo principale di questa tesi è quindi (i) mostrare le capacità e i limiti delle attuali tecniche di Intelligenza Artificiale (Classica e Statistica) sia in ambiti strutturati che non strutturati, e (ii) dimostrare come la modellazione basata su eventi possa affrontare alcune delle loro criticità, fornendo nuove potenziali connessioni e nuove prospettive.
Event Calculus; Logic; Deep Learning; Neural Networks; Neuromorphic; Spiking Neural Networks; Turing Completeness; Universality; Interpretability;
Calcolo degli eventi; Logica; Apprendimento approfondito; Reti neurali; neuromorfico; Spiking reti neurali; Completezza di Turing; Universalità; Interpretabilità;
File in questo prodotto:
File Dimensione Formato  
Tesi_Falcionelli.pdf

Open Access dal 04/09/2021

Descrizione: Tesi_Falcionelli
Tipologia: Tesi di dottorato
Licenza d'uso: Creative commons
Dimensione 8.41 MB
Formato Adobe PDF
8.41 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11566/274620
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact