Quando è nata l'intelligenza artificiale?
- Dove e quando nasce l'intelligenza artificiale
- Come nasce l'intelligenza artificiale
- L'AI winter
- Avvento del machine learning
- Sviluppi futuri
- Faq
Dove e quando nasce l'intelligenza artificiale?
L’intelligenza artificiale pone le sue radici nel 1956 quando J.McCarthy organizzò a Dartmouth un convegno nel quale venne coniato il termine: “Intelligenza artificiale”. Questa nuova tecnologia nacque grazie a diversi esperimenti per dimostrare teoremi matematici, algebrici e di problem solver. L'obiettivo era dimostrare che le macchine potessero pensare. Ma nel 1956 come facevano a parlare di intelligenza artificiale? Come si poteva pensare che questa disciplina avesse un futuro?Come nasce l'intelligenza artificiale?
Alcuni ricercatori presentarono dei programmi capaci di eseguire dei comportamenti intelligenti quali:- Logic Theorist: l’intelligenza artificiale si fonda sulla matematica quindi il primo passo fu dimostrare, tramite questo software, i teoremi matematici
- General Problem solver: l’essere umano si trova sempre a fronteggiare problemi e per sua natura vuole dedicarci il meno tempo possibile, quindi l’idea di fondo era: Perché non creare un software (General Problem solver) in grado di emulare il comportamento umano nella soluzione di problemi di tipo generale?
- Nel 1959 H.Gelertner presentò un programma in grado di dimostrare i teoremi di geometria e subito dopo un altro programma per l’integrazione simbolica (algoritmi)

AI Winter?
Come ogni rivoluzione tecnologica anche l’intelligenza artificiale ha passato diversi scossoni che sono stati denominati “AI WINTER”. L’AI WINTER è un termine che è stato coniato nel 1984 in occasione dell’annual meeting dell’AAAI (American Association of Artificial Intelligence). Furono infatti due ricercatori (Roger Schank e Marvin Minsky) a lanciare l’avvertimento che l’AI stava per entrare in un tunnel di pessimismo legato a questo settore; infatti gli stessi scrissero: “Siamo davanti ad una reazione a catena, simile ad un “inverno nucleare”, che sarebbe iniziata con il pessimismo nella comunità dell’IA, seguito dal pessimismo della stampa, poi da un drastico taglio dei finanziamenti e infine dalla fine di ogni ricerca seria.” Tre anni dopo, l’industria dell’IA da un miliardo di dollari iniziò a collassare. Si pensi solo al Rapporto Lighthill (1973): in particolare nel Regno Unito, questo rapporto critico sull’IA portò a drastici tagli dei finanziamenti pubblici. Negli Stati Uniti la situazione fu simile, anche se con meno impatto immediato. Tutto questo portò ad un ridimensionamento delle aspettative dell’AI, in quell’epoca bisognava ripensare completamente il modello su cui l’AI poggiava le sue basi. Ricercatori, scienziati, addetti al settore quindi negli anni ’70 – ’80 cominciarono a ripensare al modello provando a concentrarsi questa volta sulla creazione dei cosiddetti “Expert Systems” ossia software in grado di emulare il processo decisionale di un essere umano esperto in un dominio specifico (finanza, medicina, geologia, ecc.). Con il nuovo paradigma gli stakeholder di questo settore passarono da sistemi generalisti a sistemi incentrati su specifici settori: per chiarire il concetto, si passò da un sistema generalista a un sistema specifico. L'effetto che si ottenne fu che l’economia e gli investimenti in AI ricominciarono a crescere, nascevano start-up e si ricominciava a rincorrere quella rivoluzione tecnologica che tutti stavano cercando; assistemmo anche al lancio di alcuni software, tra i più famosi ricordiamo MYCIN (medicina) e XCON (configurazione di computer). Si prospettava un nuovo boom economico con queste nuove tecnologie ed ogni evento di questo tipo tendenzialmente porta con sé aspettative più o meno alte: in questo caso le aspettative riguardo agli “Expert Systems”, dopo aver lasciato i sistemi generalisti, erano molto alte. Infatti le persone si aspettavano la vera rivoluzione tecnologica ma purtroppo questi sistemi erano costosi da mantenere e non riuscivano ad ottenere risultati ottimali, o come dire “intelligenti”. Quindi come effetto si assistì all'effetto contrario rispetto a quello sperato, ossia lo sgonfiamento della bolla e un nuovo AI WINTER.L'avvento del Machine Learning
Fu così che si verificò un nuovo AI Winter, quindi i ricercatori, all’inizio degli anni ’90, pensarono di cambiare di nuovo il paradigma sul quale si fondava l’intelligenza artificiale. L’idea di base era quella di insistere sull’apprendimento automatico (Machine Learning) e non sulle regole costruite manualmente. Parallelamente a questa scelta si verificarono due eventi:- Reti Neurali: erano già conosciute ma erano state accantonate perché si era preferito insistere sulle regole costruite manualmente
- Avvento di Internet: se prima i dati erano limitati, da questo momento le macchine hanno accesso a molte più informazioni, gettando le basi per l’era dei Big Data.
Sviluppi futuri
Ma quali saranno i risvolti e i problemi futuri?- AI su larga scala: modelli di grandi dimensioni (i cosiddetti “Large Language Models”, come GPT) mostrano prestazioni sempre più avanzate nel comprendere e generare testo, nel riconoscimento di pattern e in compiti complessi.
- Dibattito etico e regolamentazione: con la crescita dell’IA sono emersi temi legati alla privacy, alla trasparenza degli algoritmi, all’impatto sull’occupazione e ai possibili rischi a lungo termine, spingendo governi e organizzazioni internazionali a discutere regolamentazioni.
- Ricerca continua: nonostante i successi, la ricerca in IA è ancora aperta a nuove sfide, tra cui la generalizzazione, la spiegabilità (Explainable AI) e la gestione dei bias.
- AI debole o AI forte? In questo momento si stanno sviluppando modelli di AI debole ma ben presto vedremo modelli di AI forte. Ne parlo in questo articolo.
FAQ
Quando e come è nata l'intelligenza artificiale?
Il termine “intelligenza artificiale” è stato coniato nel 1956 al Dartmouth Summer Research Project, organizzato da John McCarthy e altri ricercatori. In quell’occasione si gettarono le basi teoriche per far risolvere ai computer problemi che richiedono ragionamento umano.
Chi è il fondatore dell'intelligenza artificiale?
John McCarthy è considerato il padre dell’IA: oltre ad aver coniato l’espressione, sviluppò il linguaggio LISP e contribuì in modo determinante ai primi sistemi di ragionamento automatico.
In che anni si inizia a parlare di intelligenza artificiale?
I primi esperimenti risalgono agli anni ’50 (Alan Turing 1950, Arthur Samuel 1952), ma la disciplina si afferma ufficialmente nel 1956 con la conferenza di Dartmouth.
Quando arriva l'intelligenza artificiale?
Dalla teoria degli anni ’50 si passa alle prime applicazioni pratiche negli anni ’80 (sistemi esperti) e al boom attuale con il deep learning dal 2012 in poi, fino alla diffusione mainstream dei modelli generativi dal 2022.
Cos'è l'intelligenza artificiale?
L’IA è il ramo dell’informatica che mira a creare sistemi in grado di svolgere compiti che normalmente richiedono intelligenza umana, come percezione, linguaggio, pianificazione e apprendimento.
Intelligenza artificiale gratis
Molte piattaforme offrono versioni gratuite o open‑source: ChatGPT Free, Google Gemini Basic, software di grafica generativa come DALL·E 2 in modalità trial, e framework come TensorFlow, PyTorch, scikit‑learn.
Intelligenza artificiale generativa
È la categoria di modelli (es. GPT‑4, DALL·E, Stable Diffusion) che crea nuovi testi, immagini, audio o video a partire da prompt, invece di limitarsi ad analizzare o classificare dati esistenti.
Intelligenza artificiale app
App mobili e web basate su IA includono assistenti vocali (Siri, Google Assistant), traduttori (DeepL), editor d’immagini AI‑powered (Adobe Firefly), strumenti di coding (GitHub Copilot) e soluzioni per la produttività (Notion AI).
Intelligenza artificiale: esempi
Riconoscimento facciale, raccomandazioni Netflix, diagnosi medica con immagini, auto a guida autonoma, chatbot di customer service, rilevamento frodi bancarie.
Come funziona l'intelligenza artificiale?
I modelli raccolgono dati, estraggono pattern attraverso algoritmi (machine learning, deep learning) e ottimizzano i parametri per minimizzare l’errore; il risultato è un sistema che generalizza su dati nuovi.