RIFLESSIONI SULL’INTELLIGENZA ARTIFICIALE
INTELLIGENZA ARTIFICIALE. Excursus storico e riflessioni sulla brevettabilità dell’Intelligenza Artificiale
Fonte: https://www.bugnion.eu/it/intelligenza-artificiale/ Articolo pubblicato in Bugnion News n.31 (Novembre 2018) Autore: Simone Milli
16 novembre, 2018
Prima Legge: Un robot non può recare danno ad un essere umano, né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
Seconda Legge: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
Terza Legge: Un robot deve salvaguardare la propria esistenza, a meno che ciò non contrasti con la Prima o la Seconda Legge.
Isaac Asimov, le tre leggi della robotica
Tante parole sono spese attorno al tema dell’Intelligenza Artificiale (AI), tematica esplorata in primis da molti scrittori di fantascienza (fra cui il famoso Isaac Asimov, citando il quale ho ritenuto opportuno iniziare questo articolo, sapendo che molti avranno sicuramente letto qualcosa di questo autore) prima che la stessa Intelligenza Artificiale iniziasse ad avere effetti pratici ed applicativi concreti nel mondo reale.
Ma che cosa è l’Intelligenza Artificiale di cui tanto si parla? Potremmo definire l’intelligenza artificiale come la disciplina che si occupa di realizzare macchine (sistemi hardware e software) in grado di “agire” autonomamente, ovvero in grado di risolvere autonomamente problemi, semplici o complessi, o di compiere azioni sulla base di uno specifico contesto/scenario.
Il termine “Artificial Intelligence” è stato coniato dal matematico statunitense John McCarthy (nel 1956), colui che nel 1958 ha sviluppato LIPS, il primo linguaggio di programmazione specifico per l’AI.
I primi passi nel campo dell’Intelligenza Artificiale sono avvenuti, come spesso accade, proprio nel mondo accademico: il primo progetto di inspirazione AI risale al 1943, quando i ricercatori Warren McCulloch e Walter Pitt resero disponibile il primo neurone artificiale.
Seguirono negli anni 50-60 reti più complesse di neuroni, le cosiddette reti neurali, vale a dire modelli matematici/informatici, in grado di riprodurre il funzionamento di agglomerati di neuroni biologici, sviluppati per risolvere problemi di intelligenza artificiale.
Alan Turing, divenuto famoso per la decodificazione del codice tedesco ENIGMA, fu uno dei primi studiosi di questa materia e già nel 1950 si interessava a queste tematiche.
Ma la prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle CPU e GPU, le quali hanno ridotto notevolmente i tempi di addestramento supervisionato delle reti neurali.
Per “addestramento supervisionato” di una rete neurale si intende il fatto di insegnare ad una rete neurale, rispetto ad un dato ingresso e un target output, quali debbano essere gli output corretti: tale processo è necessario prima di rendere operativa la rete neurale affinché essa sia in grado di operare autonomamente nei confronti dei compiti assegnati.
L’interesse dei tempi moderni attorno a questa disciplina è legato alla elevata capacità computazionale raggiunta ad oggi (oggi ci sono sistemi hardware ad alte prestazioni ed a basso costo, si pensi solo agli smartphone), sia allo sviluppo di algoritmi in grado di analizzare enormi quantità di dati (“big data”) in tempi brevi.
L’intelligenza artificiale si divide in due grossi filoni: Intelligenza Artificiale debole (weak AI) e Intelligenza Artificiale forte (strong AI).
La prima, cioè l’AI debole, si occupa di sistemi in grado di simulare specifiche funzionalità cognitive dell’uomo senza però raggiungere le complessive capacità intellettuali tipiche dell’uomo (parliamo di programmi matematici di problem-solving con cui si sviluppano funzionalità per la risoluzione determinati problemi o per consentire alle macchine di prendere decisioni). Tale disciplina si esplica in un insieme di metodi per consentire al software di apprendere, in modo che le reti possano poi svolgere un compito senza che vi sia un sistema pre-programmato che stabilisce come deve comportarsi e reagire. L’esempio di AI debole che più ha permeato la nostra società è SIRI, l’assistente vocale di proprietà Apple Inc..
La seconda, cioè AI forte, si occupa di studiare sistemi cosiddetti “autocoscienti” che possono quindi sviluppare una propria intelligenza senza emulare processi di pensiero o capacità cognitive simili all’uomo ma sviluppandone una propria in modo autonomo. Tale disciplina studia, quindi, modelli di apprendimento ispirati alla struttura ed al funzionamento del cervello biologico. In questo caso si utilizzano reti neurali artificiali progettate ad hoc (CNN e RNN). Questi sono sistemi già in uso nel riconoscimento di pattern, nel riconoscimento vocale o delle immagini.
Ma, oggi, vi chiederete, come impatta l’AI nella vita di tutti i giorni?
L’intelligenza artificiale, potremmo dire, che è oggi piuttosto diffusa, ma, per la sua natura “intangibile”, è spesso forza vitale nascosta del prodotto (si intuisce sovente la sua presenza in molte applicazioni ma per la sua natura algoritmica e quindi difficile da verificare, al primo impatto non si ha mai la certezza che si tratti proprio di AI).
Per citare solo alcuni esempi di applicazioni AI, Google ha recentemente presentato DUPLEX, un sistema in grado di sostenere una conversazione telefonica con un essere umano, elaborando risposte complesse in tempo reale con un linguaggio naturale, senza che l’interlocutore “fisico” si accorga di interagire con un interlocutore “digitale”. L’utente che deciderà di avvalersi di tale sistema potrà utilizzarlo per prenotare ristoranti, visite mediche, soggiorni e simili risparmiando moltissimo tempo ed automatizzando un insieme di attività che effettivamente possono esser schematizzate all’interno di un workflow più o meno complesso.
Anche nel settore del commercio Amazon è in fase di sperimentazione di sistemi basati sull’AI per cercare di prevedere sempre meglio i bisogni dei propri consumatori. Il suo obiettivo è quello di capire di cosa una persona ha bisogno ancor prima che questa se ne renda conto, magari facendole uno sconto al quale è impossibile resistere. Per far ciò, Amazon utilizzerebbe l’AI profilando l’utente sulla base degli acquisti effettuati in precedenza e dei prodotti visionati. Su un simile principio è basato anche l’algoritmo di suggerimento utilizzato da Netflix.
Sicuramente sorgerà spontanea una domanda per chi è interessato alla proprietà intellettuale: gli algoritmi di AI sono tutelabili?
Per rispondere a questa domanda, la cui risposta è affermativa sotto certe condizioni, è bene premettere che l’Ufficio Brevetti Europeo (EPO), ha inserito nelle nuove Linee guida per l’Esame una parte relativa all’ “Artificial intelligence and machine learning” (Part G – Patentability III 3.3.1, Guidelines for the Examination November 2018).
Secondo l’EPO, come confermato nelle nuove Linee Guida per l’Esame, gli algoritmi di AI sono tutelabili mediante il deposito di domande di brevetto a condizione che essi risolvano uno scopo di natura tecnica, ben diverso da uno scopo di natura commerciale / di business.
L’Epo cita alcuni esempi di AI tutelabili mediante il deposito di una domanda di brevetto: “The classification of digital images, videos, audio or speech signals based on low-level features (e.g. edges or pixel attributes for images) are further typical technical applications of classification algorithms”.
Secondo l’EPO, invece, non sono tutelabili quegli algoritmi di AI che sono modelli astratti, privi di scopo tecnico.
La posizione dell’Ufficio Brevetti Europeo è quindi senz’altro di apertura verso queste nuove tecnologie, ma allo stesso tempo l’Ufficio adotta quell’approccio saggio e prudente che esclude dalla tutela quelle applicazioni tecnologiche che hanno come mera finalità uno scopo di natura non tecnico, ad esempio uno scopo commerciale o astratto.
Una curiosità statistica che non può che farci riflettere sul trend in atto (ovvero sul treno dell’AI in corsa): nel mondo, le domande di brevetto che contengono, nel titolo o nel riassunto, “neural network”, sono state circa 1700 nel 2015, 2300 nel 2016, 5000 nel 2017 e 5200 nel 2018, però mancano quasi due mesi a fine anno!
Potrà mai in futuro l’AI sostituire completamente l’uomo in quasi tutti i compiti? Forse sì, ma…
“In caso di conflitto tra l’umanità e la tecnologia, vincerà l’umanità.” (Albert Einstein)