Intel · ligència artificial

De la Viquipèdia, l'enciclopèdia lliure.
Saltar a la navegació Saltar a la cerca

" La intel·ligència artificial (o IA , de les inicials de les dues paraules, en italià [1] ) és una disciplina pertanyent a la informàtica que estudia els fonaments teòrics, metodologies i tècniques que permeten el disseny de sistemes de maquinari i programes de sistemes de programes capaços de proporcionar a l' ordinador electrònic un rendiment que, per a un observador comú, semblaria ser la responsabilitat exclusiva de la intel·ligència humana ".

( Marco Somalvico )

Es poden donar definicions específiques centrant-se en els processos de raonament interns o en el comportament extern del sistema intel·ligent i utilitzant com a mesura de l’eficàcia o la similitud amb el comportament humà o amb un comportament ideal, anomenat racional:

  1. Actua humanament: el resultat de l’operació realitzada pel sistema intel·ligent no es distingeix de la que realitza un ésser humà.
  2. Pensar humanament: el procés que condueix el sistema intel·ligent a resoldre un problema és similar al de l’ésser humà. Aquest enfocament s’associa amb la ciència cognitiva .
  3. Pensar racionalment: el procés que condueix el sistema intel·ligent a resoldre un problema és un procediment formal que torna a la lògica .
  4. Actuar racionalment: el procés que condueix el sistema intel·ligent a resoldre el problema és el que li permet obtenir el millor resultat esperat donada la informació disponible.

La intel·ligència artificial és una disciplina controvertida entre científics i filòsofs, ja que manifesta aspectes tant ètics com pràctics. [2] Stephen Hawking el 2014 va advertir sobre els perills de la intel·ligència artificial, considerant-la com una amenaça per a la supervivència de la humanitat. [3] [4] El 2 d'agost del mateix any, Elon Musk també va fer un tuit: «Hem d'estar súper atents a la intel·ligència artificial. Potencialment més perillós que l'energia nuclear ". [5]

Història

Tradició investigadora

Hi va haver molts passos que van conduir al naixement d’aquesta disciplina. El primer, tant pel que fa a la importància com per l’ordre cronològic, és l’aparició dels ordinadors i l’interès continuat per ells. Ja el 1623, gràcies a Willhelm Sickhart , es van poder crear màquines capaces de realitzar càlculs matemàtics amb nombres de fins a sis dígits, encara que no de manera autònoma. El 1642 Blaise Pascal va construir una màquina capaç de fer operacions amb transport automàtic, mentre que el 1674 Gottfried Wilhelm von Leibniz va crear una màquina capaç d'afegir, diferenciar i multiplicar recursivament. Entre 1834 i 1837 Charles Babbage va treballar en un model de màquina anomenada motor analític , les característiques del qual anticipaven en part a les dels ordinadors moderns. Al segle XX, el focus en els ordinadors va tornar a la llum: el 1937, per exemple, Claude Shannon , de la Universitat de Yale, va mostrar com l’àlgebra de Boole i les operacions binàries podrien representar el canvi de circuit dins dels telèfons.

Un altre pas important va ser l’article d’ Alan Turing escrit el 1936, Sobre els números computables, amb una aplicació al problema Entscheidungs [6] , que estableix les bases per a conceptes com computabilitat , computabilitat , màquina de Turing , definicions cardinals per a ordinadors fins a l'actualitat. Més tard, el 1943, McCulloch i Pitts van crear el que es creu que és el primer treball sobre intel·ligència artificial [7] . Aquest sistema utilitza un model de neurones artificials en què l'estat d'aquestes neurones pot estar "activat" o "apagat", amb un canvi a "activat" en presència d'estímuls causats per un nombre suficient de neurones circumdants.

McCulloch i Pitts van arribar a demostrar, per exemple, que qualsevol funció computable pot ser representada per alguna xarxa de neurones i que tots els connectius lògics ("i", "o", ...) es poden implementar mitjançant una estructura neuronal simple . Set anys després, el 1950, dos estudiants de la Universitat de Harvard, Marvin Minsky i Dean Edmonds , van crear el que es coneix com la primera xarxa neuronal, coneguda com SNARC .

El naixement real de la disciplina (1956)

El 1956, a New Hampshire , al Dartmouth College , es va celebrar una conferència a la qual van assistir algunes de les principals figures del naixent camp de la computació dedicades al desenvolupament de sistemes intel·ligents: John McCarthy , Marvin Minsky , Claude Shannon i Nathaniel Rochester . A iniciativa de McCarthy, se suposava que un equip de deu persones hauria de crear una màquina en dos mesos que pogués simular tots els aspectes de l’aprenentatge i la intel·ligència humana. Alguns investigadors es van unir a aquesta iniciativa, inclosos Trenchard More de Princeton , Arthur Samuel d’ IBM i Ray Solomonoff i Oliver Selfridge del MIT . A la mateixa conferència, una altra iniciativa va cridar l'atenció més enllà del projecte de McCarthy: el programa Allen Newell i Herbert Simon . Aquests dos investigadors, a diferència de McCarthy, ja tenien un programa capaç d'alguna forma de raonament, conegut com a teòric de la lògica , o LP, capaç de demostrar teoremes a partir dels principis de les matemàtiques. Encara a la mateixa conferència, McCarthy va introduir l’expressió intel·ligència artificial , que va marcar de manera indeleble el naixement real d’aquesta disciplina, donant-li una naturalesa pròpia.

Primeres grans expectatives (1950-1965)

El programa creat per Newell i Simon els va permetre progressar i crear un programa anomenat General Problem Solver , o GPS. A diferència del LP, el GPS es va dissenyar amb l'objectiu de imitar els processos de resolució de problemes utilitzats pels humans (específicament l'anomenada "heurística dels mitjans" [8] ). En els casos limitats en què el programa podia funcionar, es va assenyalar que l'enfocament amb què el programa considerava els objectius i les accions era comparable a un dels humans. Els mateixos anys, a IBM, Rochester i els seus col·legues van començar a desenvolupar altres programes capaços de raonar.

El 1959, Herbert Gelemter va crear el Geometry Theorem Prover , un programa capaç de demostrar teoremes de geometria complexos. L’any anterior, al MIT, McCarthy va fer una altra contribució al camp de la intel·ligència artificial definint el que durant trenta anys va ser reconegut com el llenguatge de programació dominant per a la realització de sistemes d’intel·ligència artificial: Lisp . A més d'això, McCarthy va escriure un article titulat Programes amb sentit comú [9] , en el qual descriu un programa ideal, anomenat Advice Taker , que es pot veure com el primer sistema intel·ligent complet. A diferència del LP i el GPS, Advice Taker va ser dissenyat per trobar solucions a problemes de diferents tipus, que no són estrictament matemàtics.

Minsky, durant la seva etapa al MIT, va coordinar la creació de programes per abordar el que s’anomena micromons , és a dir, problemes limitats descrits per afirmacions que requerien l’ús del raonament per resoldre. Entre aquests, el programa de James Slagle de 1963, SAINT , va ser capaç de resoldre problemes amb càlcul integral en forma tancada, típic del primer any de la universitat.

Primeres dificultats (1966-1969)

Entre les diverses aspiracions dels investigadors hi havia principalment la de crear màquines capaces d’exposar habilitats de raonament similars a les dels humans. Per exemple, Herbert Simon , el 1957, va estimar que d'aquí a deu anys hi hauria màquines capaces de competir amb campions d'escacs (predicció que es farà realitat, però al cap de quaranta anys). Aquestes aspiracions, però, van haver d’afrontar algunes dificultats: en primer lloc, la manca absoluta de coneixement semàntic relatiu als dominis tractats per les màquines, ja que la seva capacitat de raonament es limitava a una mera manipulació sintàctica. A causa d’aquesta dificultat, el 1966 el govern dels Estats Units d’Amèrica va deixar de finançar el desenvolupament de màquines de traducció. Un altre problema era la impossibilitat de fer front a molts problemes que la intel·ligència artificial havia proposat. Això es deu al fet que es creia que "escalar" la mida d'un problema només era una qüestió de maquinari i memòria.

Aquest tipus d’optimisme es va apagar aviat quan els investigadors no van poder demostrar teoremes de més d’una dotzena d’axiomes. Per tant, es va entendre que tenir un algorisme que, a nivell teòric, fos capaç de trobar una solució a un problema, no significava que un programa corresponent fos capaç de calcular-lo realment a nivell pràctic. Un tercer tipus de dificultat eren les limitacions subjacents a la lògica, en el sentit del raonament, dels ordinadors. En el document de Minsky i Papert, titulat Perceptrons (1969), es va demostrar que, tot i que un perceptron (una forma simple de xarxa neuronal) era capaç d’aprendre qualsevol funció que pogués representar, un perceptron amb dues entrades no era capaç de representar un funció que reconeix quan les dues entrades són diferents.

Sistemes basats en el coneixement (1969-1979)

Les dificultats anteriors van portar a definir els enfocaments adoptats per les màquines com a enfocaments febles , cosa que requeria un major coneixement inherent al camp d'aplicació. El 1969, gràcies a Ed Feigenbaum (alumne de Herbert Simon ), Bruce Buchanam i Joshua Lederberg , es va crear el programa DENDRAL . Aquest programa va ser capaç, a partir de la informació sobre la massa molecular obtinguda d’un espectròmetre, de reconstruir l’estructura d’una molècula. Per tant, aquest programa va ser el primer dels sistemes basats en un ús intensiu del coneixement, que més tard va incorporar tots els conceptes teoritzats per McCarthy per al Advice Taker . Posteriorment, Feigenbaum va iniciar el Projecte del Programa Heurístic ( HPP ) juntament amb altres investigadors de Stanford, per tal d’ampliar els escenaris d’aplicació d’aquests sistemes, començant pel sistema MYCIN en el camp del diagnòstic d’infeccions sanguínies. Llavors vam començar a teoritzar sistemes coneguts com a sistemes experts , és a dir, capaços de tenir coneixements experts en un escenari d’aplicació determinat.

De l'acadèmia a la indústria (1980-1985)

El primer sistema comercial d’intel·ligència artificial va ser R1, utilitzat per Digital Equipment el 1982. L’objectiu del programa era ajudar a configurar comandes per a nous ordinadors. El 1986, va poder estalviar a la companyia 40 milions de dòlars a l'any. DuPont també va utilitzar sistemes similars, estalviant uns deu milions de dòlars a l'any. Als anys vuitanta, gairebé totes les grans empreses nord-americanes tenien el seu propi sistema expert en funcionament i estudiaven sistemes més avançats. El 1981 es va anunciar al Japó el projecte de la Cinquena Generació , un pla de deu anys per construir sistemes intel·ligents basats en Prolog . Com a resposta, els Estats Units d’Amèrica van crear Microelectronics and Computer Technology Corporation (MCC), com un consorci de recerca per garantir la competitivitat nacional. A Anglaterra, l' informe Alvey va recuperar els fons retallats de l'informe Lighthill , que el 1973 va portar el govern britànic a deixar de donar suport a la investigació en intel·ligència artificial. No obstant això, aquests projectes no van assolir els objectius previstos. La indústria de la intel·ligència artificial va assolir una xifra de l'ordre de milers de milions de dòlars el 1988, inclosos centenars d'empreses que creaven sistemes experts, robots i programari i maquinari especialitzats en aquests sectors.

El retorn de les xarxes neuronals (1986-)

A mitjans dels anys vuitanta, es va reinventar l'algorisme d'aprenentatge de les xarxes neuronals anomenat retropropagació , ideat inicialment el 1969 per Bryson i Ho. L'algorisme es va aplicar a molts problemes relacionats amb l'aprenentatge, inherents tant a la vessant informàtica com a la psicologia. Els anomenats models connexionistes per a la realització de sistemes intel·ligents van ser vistos com a alternatives als models simbòlics ideats per Newell i Simon, per McCarthy i els seus col·laboradors. Aquests models van intentar respondre a aquelles preguntes a les quals els models anteriors no havien tingut èxit, però en part també van fracassar. En conseqüència, els models basats en l'enfocament simbòlic i aquells amb un enfocament connexionista es van veure com a complementaris.

Intel·ligència artificial actual (1986-)

Avui en dia, els sistemes intel·ligents estan presents en tots els camps, fins i tot en les activitats diàries i excel·len en els jocs, tal com van teoritzar anys abans els exponents de la intel·ligència artificial. Hi ha programes que han pogut competir amb campions d’ escacs , com Deep Blue ; d'altres que s'han utilitzat en missions espacials, com el 1998 quan la NASA va utilitzar un programa anomenat Agent remot capaç de gestionar activitats relacionades amb un sistema espacial; alguns cotxes ara estan equipats amb un sistema capaç de conduir-los sense l’ús d’un conductor humà, per tant de manera totalment autònoma. En el context d’escenaris més quotidians, en canvi, penseu en termòstats per a calefacció i aire condicionat capaços d’anticipar el canvi de temperatura, gestionar les necessitats dels habitants i interactuar amb altres dispositius. En l’àmbit econòmic, la taxa d’ocupació en general és particularment sensible als canvis, [10] com en les tecnologies de la tecnologia fint on es produeix la revolució més profunda. [11] [12] [13]

Principis d'Asilomar

El 2017, arran de la conferència d’experts mundials en intel·ligència artificial promoguda per l’ Institut Future of Life, es va elaborar un vademecum amb 23 principis amb un consens molt ampli per abordar els problemes ètics, socials, culturals i militars de la IA. El document va ser immediatament signat per més de 800 experts i posteriorment per milers més [14] [15] .

Els principis d’Asilomar

1. OBJECTIU DE LA INVESTIGACIÓ: L’objectiu de la investigació en IA ha de ser crear una intel·ligència de la qual pugueu beneficiar-vos i no una intel·ligència sense un propòsit. 2. FINANÇAMENT DE LA INVESTIGACIÓ: Les inversions en IA han de ser equiparades amb finançament per a la investigació per garantir un ús al qual pot beneficiar-se, incloent qüestions espinoses en informàtica, economia, dret, ètica i estudis econòmics: - Com podem fer que els sistemes d’IA el futur és altament robust perquè no funcionin malament ni estiguin piratejats? - Com podem augmentar la nostra prosperitat mitjançant l’automatització mantenint els recursos i els propòsits de les persones? - Com podem actualitzar els nostres sistemes jurídics per tal de fer-los més correctes i eficients per anar de la mà de la IA i gestionar els riscos associats? - Amb quin tipus de valors hem d'alinear la IA i amb quins estats legals i ètics li hauríem d'atribuir? 3. ENLLAÇOS ENTRE LA POLÍTICA I LA CIÈNCIA: hauria d’haver un intercanvi constructiu i saludable entre investigadors i polítics d’IA. 4. CULTURA DE RECERCA: una cultura de cooperació, confiança i transparència hauria de constituir la base dels implicats en la investigació i el desenvolupament de la IA. 5. EVITAR CURSES: els equips de desenvolupament de sistemes d’IA han de cooperar activament per evitar dreceres en detriment dels sistemes de seguretat. 6. SEGURETAT: els sistemes d’IA han de ser segurs i protegits durant tot el seu cicle de vida i verificables en la seva viabilitat. 7. TRANSPARÈNCIA EN CAS DE FALLA: quan un sistema d’IA provoca danys, seria possible descobrir-ne les causes. 8. TRANSPARÈNCIA DE JUDICIS: Qualsevol implicació d’un sistema de decisió autònom en qüestions de justícia ha de proporcionar explicacions satisfactòries i verificables per part de les autoritats humanes competents. 9. RESPONSABILITAT: els dissenyadors i constructors de sistemes d’IA avançats tenen un paper actiu en les implicacions morals del seu ús i abús, així com de les accions, i tenen la responsabilitat i l’oportunitat de donar forma a aquestes implicacions. 10. ALINEACIÓ DEL VALOR: els sistemes d’IA molt autònoms haurien de ser dissenyats de manera que els seus objectius i comportaments puguin assegurar-se que estiguin alineats amb els valors humans en cada operació. 11. VALORS HUMANS: els sistemes d’IA han de ser dissenyats i gestionats per ser compatibles amb els ideals de dignitat humana, drets, llibertats i diversitat cultural. 12. PRIVACITAT PERSONAL: les persones haurien de tenir dret a accedir, gestionar i controlar les dades que generen i, alhora, donar als sistemes d’IA la possibilitat d’analitzar i utilitzar aquestes dades. 13. LLIBERTAT I PRIVACITAT: l’aplicació de la IA a les dades personals no ha de limitar irracionalment la idea de llibertat de les persones, tant real com percebuda. 14. BENEFICIS COMPARTITS: les tecnologies d’IA haurien de beneficiar i potenciar tanta gent com sigui possible. 15. PROSPERITAT COMPARTIDA: la prosperitat econòmica creada per la IA s’ha de compartir de manera àmplia, per beneficiar tota la humanitat. 16. CONTROL HUMÀ: els humans hauríem de triar com delegar les decisions als sistemes d’IA per assolir els seus objectius humans. 17. NO SOBREVERSIÓ: El poder conferit pel control de sistemes d’IA molt avançats hauria de respectar i millorar, en lloc de subvertir, els processos socials i civils entre el benestar de la societat. 18. CURSA D'ARMES AI: S'ha d'evitar una carrera armamentística d'armes autònomes letals. 19. GRAUS DE PRECAUCIÓ: en cas de manca de consentiment, hauríem d’evitar hipòtesis fermes sobre els límits màxims de les capacitats d’IA futures. 20. IMPORTÀNCIA: la IA avançada podria representar un canvi profund en la història de la vida a la Terra i s’hauria de planificar i gestionar amb una cura i recursos proporcionals. 21. RISCOS: els riscos associats als sistemes d’IA, en particular, els riscos catastròfics o existencials, han de ser objecte d’esforços de planificació i mitigació, de manera que siguin proporcionals al seu impacte esperat. 22. MILLORA PERSONAL RECURSIVA: els sistemes d’intel·ligència artificial dissenyats per millorar-se o autoreplicar-se de manera recurrent de manera que puguin conduir a un ràpid augment de qualitat o quantitat, han d’estar sotmesos a estrictes mesures de seguretat i control. 23. BÉ COMÚ: la superintel·ligència s’hauria de desenvolupar únicament al servei d’ideals ètics àmpliament compartits i en benefici de tota la humanitat, en lloc d’un sol país o organització.

Codi ètic de la UE per a la intel·ligència artificial

Icona de la lupa mgx2.svg El mateix tema en detall: ètica de la intel·ligència artificial .

Partint de la premissa que els governs han de garantir l’ús de la intel·ligència artificial amb el màxim respecte a l’ètica, a l’abril de 2019 la Unió Europea va elaborar el seu codi ètic , que conté directrius sobre l’ús i el desenvolupament dels sistemes d’intel·ligència artificial. El document, elaborat per un grup de 52 experts, representats per informàtics, enginyers, però també juristes, filòsofs, industrials, matemàtics, tenia un llarg procés i diverses fases d’estudi [16] .

El punt de partida de tot el document i de tots els principis legals que se n’han sorgit és que la Intel·ligència Artificial ha de tenir l’home al centre i ha d’estar al servei del bé comú per millorar el benestar i garantir la llibertat. En primer lloc, el grup d’experts va identificar els fonaments jurídics sobre els quals hauria de recolzar-se el codi, cercant-los als tractats de la UE , a la Carta de drets i a la llei internacional de drets humans . A partir d'aquesta anàlisi, s'han identificat aquells drets obligatoris que, a la Unió Europea, han de ser respectats per a la Intel·ligència Artificial, a saber:

  • Respecte per la dignitat de l’home
  • Llibertat de l'individu
  • Respecte per la democràcia i la justícia
  • Igualtat i no discriminació
  • Drets dels ciutadans

En aquest moment es va poder donar indicacions sobre quins eren els principis ètics que s’havien de seguir a la Unió per garantir que els sistemes d’Intel·ligència Artificial s’exploten de manera fiable, és a dir: respecte a l’autonomia humana, prevenció de danys, equitat i equitat [17] .

L’última fase del treball del grup d’experts va ser elaborar les directrius del codi ètic de la UE que hauran de seguir les empreses, investigadors i comunitats en general i que representin la traducció operativa i la síntesi dels drets i principis fonamentals enumerats. a dalt. [18] .

Pautes

  • Supervisió humana: la intel·ligència artificial ha d’estar al servei de l’home i no ha de reduir, limitar ni enganyar la seva autonomia, a més, no s’han de desenvolupar sistemes que posin en perill els drets humans fonamentals. La persona ha de romandre autònoma i capaç de supervisar el propi sistema.
  • Robustesa i seguretat tècniques: els algoritmes han de ser fiables i desenvolupats de manera que la seguretat no estigui en perill durant tot el cicle de vida del sistema.
  • Privacitat i governança de dades: els ciutadans sempre han d’estar informats de l’ús de les seves dades personals complint plenament la legislació de privadesa de la UE durant tot el cicle de vida del sistema que utilitza la intel·ligència artificial.
  • Transparència: la transparència significa la traçabilitat dels sistemes d’Intel·ligència Artificial. Totes les dades utilitzades, inclosos els algoritmes, s’han de documentar, només d’aquesta manera es podran entendre els motius pels quals, per exemple, una decisió basada en la Intel·ligència Artificial es va prendre incorrectament.
  • Diversitat, absència de discriminació, equitat: els sistemes d’intel·ligència artificial han de tenir en compte totes les capacitats i capacitats humanes, garantint l’accessibilitat a tothom.
  • Benestar social i ambiental: els sistemes d’intel·ligència artificial s’han d’utilitzar per donar suport als canvis ambientals positius i perseguir objectius de desenvolupament sostenible [19] .
  • Responsabilitat: s’han d’adoptar mecanismes de rendició de comptes per informar de les dades i algorismes utilitzats en els sistemes d’intel·ligència artificial. Aquest procés d’avaluació permet minimitzar els impactes negatius.

Recerca

El complex problema del desenvolupament de sistemes que presenten comportaments intel·ligents s’ha abordat dividint-se en subproblemes, cadascun amb una àrea específica de recerca. Cada subproblema consisteix en estudiar habilitats i propietats particulars que caracteritzen el sistema intel·ligent.

Quant a l’àmbit d’aplicació d’un determinat sistema intel·ligent, aquest presentarà solucions més o menys avançades per a cada subproblema.

Intel·ligència artificial forta i feble

Una distinció principal en la investigació en el camp de la intel·ligència artificial és la d' intel·ligència artificial feble i la intel·ligència artificial forta segons si només es reprodueixen algunes o totes les funcions de la ment humana.

Deducció, raonament i resolució de problemes

Els investigadors es van centrar inicialment en el desenvolupament d’algoritmes que imitessin fidelment el raonament emprat pels humans per resoldre jocs o fer deduccions lògiques perquè es poguessin integrar en sistemes intel·ligents. Aquests algoritmes normalment es basen en una representació simbòlica de l’estat del món i busquen seqüències d’accions que arribin a l’estat desitjat. Les evolucions d’aquests algoritmes es van fer tenint en compte aspectes més complexos com la incertesa o la incompletesa de la informació, inclosos conceptes de probabilitat , estadística i economia .

A causa de les dificultats relacionades amb la complexitat intrínseca dels problemes considerats, els algorismes per a la seva resolució de vegades poden requerir enormes recursos computacionals. L’optimització d’algoritmes és una prioritat absoluta dins de la investigació en aquesta àrea.

Representació del coneixement

Icona de la lupa mgx2.svg Mateix tema en detall: Representació del coneixement i enginyeria del coneixement .

La representació del coneixement i l'enginyeria del coneixement són contribucions centrals a la investigació en intel·ligència artificial.

En particular, aquestes disciplines se centren en quin tipus de coneixement és necessari o adequat per integrar-se dins d’un sistema intel·ligent i en com representar els diferents tipus d’informació. Entre les coses que ha de representar un sistema intel·ligent freqüentment trobem: objectes, propietats, categories i relacions entre objectes, situacions, esdeveniments, estats, temps, causes i efectes, coneixement que posseeixen els altres. La representació i l'enginyeria del coneixement s'associen sovint a la disciplina filosòfica de l' ontologia .

El coneixement i la seva representació són especialment crucials per a aquesta categoria de sistemes intel·ligents que basen el seu comportament en una representació explícita extensa del coneixement de l’entorn on operen.

Planificació

Icona de la lupa mgx2.svg El mateix tema en detall: Planificació .

Per permetre als sistemes intel·ligents predir i representar estats futurs del món i prendre decisions per arribar a aquests estats maximitzant el valor esperat de les accions, han de ser capaços de definir objectius i perseguir-los.

En els problemes de planificació clàssics, un sistema intel·ligent pot suposar que és l’única entitat que opera a l’entorn i pot estar absolutament segur de les conseqüències de qualsevol acció realitzada. Si no és l'únic actor de l'entorn o si l'entorn no és determinista, un sistema intel·ligent ha de controlar constantment el resultat de les seves accions i actualitzar les prediccions i plans futurs.

Aprenentatge

Icona de la lupa mgx2.svg El mateix tema en detall: aprenentatge automàtic i xarxa de neurones artificials .

L’aprenentatge automàtic és la disciplina que estudia algorismes capaços de millorar automàticament el rendiment mitjançant l’experiència. Ha estat una àrea d’investigació crucial dins de la intel·ligència artificial des dels seus inicis.

L’aprenentatge automàtic és particularment important per al desenvolupament de sistemes intel·ligents, principalment per tres raons:

  • Els desenvolupadors d’un sistema intel·ligent difícilment poden preveure totes les situacions possibles en què es pugui trobar el propi sistema, excepte en contextos extremadament simples.
  • Els desenvolupadors d’un sistema intel·ligent difícilment poden predir tots els canvis possibles en l’entorn amb el pas del temps.
  • Una àmplia categoria de problemes es pot resoldre amb més eficàcia mitjançant l'ús de solucions que impliquen l'aprenentatge automàtic. Aquesta categoria de problemes inclou, per exemple, el joc d'escacs i el reconeixement d'objectes.

Processament del llenguatge natural

Icona de la lupa mgx2.svg El mateix tema en detall:Processament del llenguatge natural .

La capacitat de processar el llenguatge natural proporciona sistemes intel·ligents amb la capacitat de llegir i comprendre el llenguatge utilitzat pels humans. Aquesta capacitat es demostra essencial en totes les aplicacions d’intel·ligència artificial que requereixen la cerca d’informació, la resposta a preguntes, la traducció o l’anàlisi de textos.

La difficoltà principale di questo processo è l'intrinseca ambiguità che caratterizza i linguaggi naturali, per questo motivo le soluzioni richiedono un'estesa conoscenza del mondo e una notevole abilità nel manipolarlo.

Movimento e manipolazione

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Robotica .

La robotica è una disciplina strettamente correlata con l'intelligenza artificiale.

I robot possono essere considerati sistemi intelligenti per tutti quei compiti che richiedono capacità di livello cognitivo per la manipolazione o lo spostamento di oggetti e per la locomozione, con i sotto-problemi della localizzazione (determinare la propria posizione e quella di altre entità nello spazio), della costruzione di mappe (apprendere le caratteristiche dello spazio circostante), e della pianificazione ed esecuzione dei movimenti.

Metodi

Agente intelligente

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Agente intelligente .

Il concetto di agente intelligente (o agente razionale ) è centrale in molti degli approcci più comuni all'intelligenza artificiale.

Un agente è un'entità in grado di percepire l'ambiente attraverso l'utilizzo di sensori e in grado di agire sull'ambiente attraverso l'utilizzo di attuatori . Ogni agente è quindi associato a una sequenza di percezioni , intesa come la cronologia completa di tutti i rilevamenti effettuati da ciascun sensore, ea una funzione agente , che specifica il comportamento dell'agente associando a ogni sequenza di percezioni un'azione da compiere.

Definita misura della performance una funzione che associa a ogni stato (o sequenza di stati) dell'ambiente un valore di utilità, un agente è intelligente (o razionale ) se per ogni possibile sequenza di percezioni la sua funzione agente lo porta a compiere sempre l'azione che massimizza il valore atteso della misura della performance, data la sua conoscenza definita dalla sequenza di percezioni stessa e dalla conoscenza integrata nell'agente.

Esistono metodologie differenti per l'implementazione concreta della funzione agente, ciascuna più o meno adatta al tipo di ambiente in cui è posto l'agente.

Agenti reattivi semplici

Questa categoria di agenti seleziona l'azione da compiere sulla base della percezione corrente, ignorando completamente la cronologia delle percezioni.

Agenti basati su modello

Questa categoria di agenti è caratterizzata dal mantenere uno stato interno che dipende dalla cronologia delle percezioni e contemporaneamente riflette alcuni degli aspetti dell'ambiente non osservati.

L'aggiornamento dello stato richiede due tipi di conoscenza:

  • dei modelli che descrivono l'evoluzione dell'ambiente indipendentemente dalle azioni compiute dall'agente,
  • dei modelli che descrivono l'effetto delle azioni dell'agente sull'ambiente.

Agenti basati su obiettivi

In molte applicazioni, tenere traccia dello stato attuale dell'ambiente non è sufficiente per determinare le azioni da compiere, ma l'agente necessita di informazioni che rappresentano situazioni desiderabili, che prendono il nome di obiettivi, o goal . Questo tipo di agenti intelligenti è quello in cui maggiormente vengono impiegati i concetti di pianificazione e ricerca per problem solving.

Agenti basati su utilità

Il concetto di goal da solo non è sufficiente per ottenere dei comportamenti qualitativamente elevati in molte applicazioni, poiché l'informazione contenuta può essere utilizzata esclusivamente per distinguere gli stati desiderabili dagli stati non desiderabili. Attraverso il concetto di utilità è invece possibile caratterizzare in maniera precisa ogni stato, determinando quanto ogni stato è utile al fine del buon comportamento dell'agente.

Applicazioni

L'intelligenza artificiale è stata impiegata in un'ampia varietà di campi e applicazioni come la medicina , il mercato azionario , la robotica , la legge , la ricerca scientifica e perfino i giocattoli. In alcune applicazioni, l'intelligenza artificiale si è radicata a tal punto all'interno della società o dell'industria da non essere più percepita come intelligenza artificiale. [20]

Anche nel campo dell'informatica stessa, molte soluzioni sviluppate originariamente per rispondere a problemi o necessità dell'intelligenza artificiale sono state adottate da altre discipline e non vengono più considerate parte dell'intelligenza artificiale. In particolare: time-sharing , interprete (informatica) , interfaccia grafica , mouse , la struttura dati lista concatenata , la programmazione funzionale , la programmazione simbolica , la programmazione dinamica e laprogrammazione orientata agli oggetti .

Il primo utilizzo dell'intelligenza artificiale nelle banche è datato 1987 quando la Security Pacific National Bank negli USA organizzò una task force per la prevenzione delle frodi legate all'utilizzo non autorizzato delle carte di credito. Attualmente, e non solo in ambito bancario, le reti neurali vengono utilizzate per identificare fenomeni non riconducibili a un comportamento nominale e che richiedono un intervento umano.

Le reti neurali sono anche largamente impiegate per supportare le diagnosi mediche, e molte altre applicazioni sono attualmente in sviluppo, come ad esempio:

  • Interpretazione delle immagini mediche.
  • Analisi del suono del cuore [21] .
  • Diagnosi del cancro [22] .
  • Creazione di medicine.
  • Robot di accompagnamento per gli anziani [23] .

L'intelligenza artificiale è largamente utilizzata per la realizzazione di assistenti automatici online principalmente dalle compagnie telefoniche e di telecomunicazione, con l'intento di ridurre i costi di assunzione e formazione del personale.

Anche nell'ambito dei trasporti l'utilizzo dell'intelligenza artificiale sta aumentando rapidamente [24] . Applicazioni della logica fuzzy sono state impiegate nella realizzazione di cambi di velocità per le automobili. Le automobili a guida autonoma sviluppate da Google e Tesla fanno largamente uso di tecniche di intelligenza artificiale [25] [26] .

L'intelligenza artificiale viene anche impiegata nel campo della videosorveglianza. Gli algoritmi consentono il riconoscimento degli oggetti presenti nella scena al fine di generare allarmi.

Ultimo, ma non per importanza, è l'applicazione di reti neurali complesse nella generazione di testi, o meglio, nella trasformazione di un input generalmente testuale in un output anch'esso espresso in caratteri. In particolar modo negli ultimi anni, OpenAI ha rilasciato numerose versioni del suo "modello" denominato GPT, il quale ha riscontrato notevole successo e scalpore. Attraverso questo modello basato su una particolare rete neurale, è stato possibile generare dei racconti, riassumere automaticamente dei testi, tradurre in maniera sempre più precisa da una lingua all'altra. Attraverso questa disciplina le applicazioni sono le più disparate, tra cui, degno di nota ea forte impatto sociale, quello riguardo al binomio giornalismo e scrittura. Il Washington Post ad esempio, gìà nel 2017 dichiarò di aver pubblicato in un anno 850 news elaborate da un'intelligenza artificiale. Storykube [27] sfrutta l'intelligenza artificiale a supporto della stesura di news e loro fact-checking. E infine il giornale canadese The Globe and Mail, interamente diretto da una intelligenza artificiale [28] .

Il mercato dell'intelligenza artificiale in Italia

Il mercato italiano dell'intelligenza artificiale si presenta ancora agli albori, ma le prospettive per il futuro sono positive: nel 2018 ha raggiunto un valore di 85 milioni di euro , una cifra che fa riferimento agli investimenti nello sviluppo e nell'implementazione di progetti come:

  • sviluppo di algoritmi di IA;
  • hardware per l'immagazzinamento e l'elaborazione di dati;
  • software per la gestione dei dati;
  • servizi di integrazione e personalizzazione.

Per capire il valore dell'intelligenza artificiale nel contesto tecnologico italiano, è sufficiente notare come si intreccia con altre tendenze digitali come la Cloud Transformation e l' Internet of Things [29] . Il primo rende scalabile l'infrastruttura necessaria alla raccolta ed elaborazione dei dati , mentre il secondo crea dispositivi e sensori utili non solo per la raccolta dati ma anche per veicolare servizi basati sull'IA [29] .

Il significato di IA per le aziende italiane

I media e le aziende stanno rivolgendo sempre più l'attenzione verso il tema dell'intelligenza artificiale, ma questo talvolta comporta una visione poco chiara su questa tecnologia. Infatti, spesso le aziende ritengono che si tratti di una soluzione in grado di replicare completamente l'intelligenza umana, ma questa definizione, che si rifà all'approccio dell' intelligenza artificiale forte , ha poco a che fare con le applicazioni effettive di questa disciplina. D'altra parte, le aziende con una maggiore consapevolezza sul tema, ritengono che l'IA si definisca come un insieme di sistemi dotati di capacità tipiche degli esseri umani.

Intelligenza Artificiale e disoccupazione

Un grande problema economico legato all'implementazione di intelligenze artificiali nel mondo del lavoro è la disoccupazione che essa inevitabilmente provoca. Sempre più persone infatti perdono il lavoro perché un'IA li ha sostituiti.

Il futuro dell'intelligenza artificiale in Italia

Benché le aziende italiane nel complesso non abbiano ancora una visione omogenea sul tema, si individuano già aree di sviluppo particolarmente interessanti:

  • Smart home speaker

Si tratta di assistenti vocali intelligenti in grado di gestire oggetti intelligenti presenti in casa . Sono stati introdotti di recente, ma il loro mercato in Italia vale già 60 milioni di euro e il valore sembra destinato a crescere: in un futuro non troppo lontano, questi assistenti potrebbero fungere da canale con cui veicolare servizi e applicazioni legate al mondo dell'AI, creando nuove opportunità di sviluppo per le aziende del settore.

  • Robot intelligenti

A questa categoria appartengono i collaborative robot e gli AGV ( Automated Guided Vehicle ). I primi collaborano con un operatore umano e sono in grado di adattare il proprio comportamento agli stimoli esterni, mentre i secondi si adattano all'ambiente esterno muovendosi in autonomia, senza il supporto di guide fisiche o percorsi predeterminati. [30]

  • Tutor Intelligenti

A questa categoria appartengono gli avatar degli Edugames oppure dei robot che all'interno dei musei, e altri luoghi dell'apprendimento, guidano i discenti-visitatori e fungere dai docenti-educatori artificiali [31] [32] [33] [34] .

AI for Good

AI for Good è la piattaforma informatica dell' ONU che ha l'obiettivo di promuovere il dialogo nella comunità scientifica finalizzato allo sviluppo di progetti concreti nell'ambito dell'intelligenza artificiale, mediante un uso etico e orientato al bene comune di questa famiglia di tecnologie.

A partire dal 2017, AI for Good organizza ogni anno un evento globale, la cui quarta edizione è fissata per il 21 settembre 2020 a Ginevra, in Svizzera. L'iniziativa operando in relazione a obiettivi di respiro globale [35] [36] , in particolare riguardo allo sviluppo sostenibile , e si propone di ottenere risultati più immediati e concreti rispetto ai documenti programmatici e di indirizzo generalmente prodotti dai meeting dell'ONU.

Le applicazioni di intelligenza artificiale sono state classificate in tre macrocategorie: AI per la Terra ( AI for Earth ) [37] [38] , AI per fini umanitari ( Humanitarian AI ) [39] [40] e AI per l' assistenza sanitaria ( AI for Healthcare ). [41]

Il primo AI for Good Global Summit si è tenuto dal 7 al 9 giugno 2017 a Ginevra [42] [43] [44] è stata la creazione di un focus group del' ITU-T in tema di apprendimento automatico per la tecnologia di connessione 5G . [45]

Il secondo AI for Good Global Summit si è svolto dal 15 al 17 maggio 2018 presso la sede dell' ITU a Ginevra, e ha prodotto un totale di 35 progetti [46] , anche in collaborazione con l' OMS per la categoria AI 4 Health (FG-AI4H). [47] [48] [49]
Fra i relatori erano presenti Roger Penrose e Samantha Cristoforetti . [50] [51] In tale occasione, è stato attivato un repository dei progetti di AI for Goods e dei relativi esempi finalizzato agli obbiettivi dello sviluppo sostenibile [52] [53] , mentre l'ITU ha lanciato la rivista ICT Discoveries [54] , la cui prima edizione straordinaria è stata dedicata all'intelligenza artificiale. [55]

Il terzo AI for Good Global Summit ha avuto luogo dal 28 maggio al 31 maggio 2019, sempre nella città svizzera che è sede dell'ONU [56] , relativamente alle applicazioni civili e militari dell'AI nello spazio, quali ad esempio le previsioni meteorologiche affidabili entro un orizzonte temporale di 2 settimane, la previsione di asteroidi e corpi celesti in rotta di collisione con la Terra, il monitoraggio delle migrazioni animali di balene o specie in via di estinzione, la gestione satellitare di servizi basati sula geolocalizzazione (come il controllo automatico di autoveicoli privi di guidatore). [57]

Critiche e controversie

Una maggiore attenzione è rivolta alle implicazioni etiche, ambientali e sociali dell'intelligenza artificiale e alla necessità di aumentare la trasparenza e la responsabilità delle grandi aziende tecnologiche per i loro algoritmi. Le principali critiche si riferiscono a:

  • Pregiudizio algoritmico
  • La mancanza di responsabilità per i risultati generati dagli algoritmi "black-box” [58]
  • Approvvigionamento non etico di minerali rari utilizzati nei dispositivi alimentati dall'IA [59]
  • Impronta ambientale dei datacenter, il loro utilizzo di energia e acqua [60] [61]
  • Sfruttamento del lavoro digitale "clickwork" coinvolto nell'etichettatura dei dati per IA training e nella moderazione dei contenuti [60]
  • Manipolazione algoritmica delle preferenze di consumo e di voto degli utenti [62]

Dibattito filosofico

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Funzionalismo (filosofia della mente) e Qualia .

Rispondere alla domanda “Può una macchina pensare?” è dibattito tuttora aperto a causa di argomentazioni a favore ( Daniel Dennett , Hilary Putnam , Roger Penrose ) e contro ( Hubert Dreyfus , John Searle , Gerald Edelman , Jerry Fodor ) .

Esistono due correnti filosofiche diverse che cercano di definire una macchina intelligente come prodotto della:

  • Intelligenza artificiale debole (weak AI) : alla base di questo pensiero sta la convinzione che una macchina possa essere programmata con delle regole ben definite, in modo da comportarsi in modo intelligente.
  • Intelligenza artificiale forte (strong AI) : alla base di questo pensiero sta il fatto che una macchina agisca in modo intelligente implica che essa sia anche cosciente di come realmente si comporta.

Nel 1950 Alan Turing , nel suo articolo “Computing Machinery and Intelligence” [63] , porta il dibattito filosofico a un livello più pragmatico, dando una definizione operativa di intelligenza basata su un test comportamentale inventato da lui stesso, chiamato "The Imitation Game" e ricordato anche come " Test di Turing ".

Il test si basa sull'esistenza di tre stanze allineate in cui nella prima c'è un uomo e nell'ultima una donna; in quella centrale invece risiede l'interrogante. L'uomo e la donna possono comunicare messaggi di testo solamente con l'interrogatore scrivendo tramite una tastiera e leggendo tramite uno schermo. L'obiettivo della donna è quello di farsi identificare come donna, mentre quello dell'uomo è quello di trarre in inganno l'interrogante, facendogli credere di essere una donna. Il gioco è ripetuto una seconda volta, scambiando l'uomo con una macchina.

La macchina è definita come intelligente se la frequenza con cui l'interrogante individua correttamente l'uomo e la donna è almeno la stessa con cui individua correttamente la macchina e la donna.

Una macchina può quindi ritenersi intelligente se e solo se si comporta come un essere umano, quindi solo se riesce a ingannare l'interrogante come farebbe un uomo.

In seguito, John Searle descrive nell'articolo "Minds, Brains and Programs" [64] un esperimento mentale contro l'intelligenza artificiale forte, chiamato “la stanza cinese ”. Egli vuole dimostrare che una macchina in grado di superare il test di Turing, non è capace di capire cosa succede al suo interno; non è, quindi, cosciente di come agisce. L'esperimento consiste in una persona che conosce solo l'inglese, munita di un libro di grammatica cinese scritto in inglese e vari fogli, alcuni bianchi e alcuni con dei simboli. La persona è dentro alla stanza con una piccola finestra verso l'esterno. Attraverso la finestra appaiono simboli indecifrabili. La persona trova delle corrispondenze con i simboli del libro delle regole e segue le istruzioni. Le istruzioni possono includere scrivere simboli su un nuovo foglio, trovare nuovi simboli, ecc. Infine, questi fogli scritti verranno passati al mondo esterno, attraverso la finestra. Per un osservatore esterno, la macchina sta ricevendo simboli cinesi, li sta elaborando e sta rispondendo con altri simboli, esattamente come farebbe un uomo cosciente. In questo senso, secondo il test di Turing dovrebbe essere ritenuta intelligente. Il problema, che sottolinea Searle, è che in realtà al suo interno, niente della macchina conosce effettivamente il cinese, per cui non è cosciente di quello che sta effettivamente facendo. Secondo Searle essa sta semplicemente seguendo un insieme di regole descritte nel libro. Secondo Daniel Dennett il dibattito rimane però aperto in quanto Searle non riesce a dimostrare pragmaticamente la sua tesi, dovendo far così ricorso alla intuizione.

Fantascienza

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Ribellione della macchina .
Arrows-folder-categorize.svg Le singole voci sono elencate nella Categoria:Androidi e robot immaginari e Categoria:Computer immaginari
L'"occhio" di HAL 9000 , supercomputer senziente del film 2001: Odissea nello spazio (1968) di Stanley Kubrick
Robby il robot nella locandina del film Il pianeta proibito

Nelle opere di fantascienza l'intelligenza artificiale è un tema ricorrente, come semplice elemento narrativo o come argomento centrale della storia. Generalmente è presentata sotto forma di computer avanzati, robot o androidi . Il tema è spesso legato a quello classico della ribellione della macchina , in cui un computer (nella maggior parte dei casi senziente) si rivolta contro gli esseri umani che l'avevano costruito. [65]

Tra i computer senzienti rientrano ad esempio Multivac , presente in alcuni racconti di Isaac Asimov , paragonabile ai moderni sistemi di grid computing , e HAL 9000 del film 2001: Odissea nello spazio (1968) di Stanley Kubrick . Invece Pensiero Profondo , nella Guida galattica per autostoppisti , è un'intelligenza artificiale capace di fornire la risposta alla "domanda fondamentale sulla vita, l'universo e tutto quanto" . Nella serie cinematografica di Terminator , il supercomputer Skynet è presentato come un evolutissimo insieme di network che, costruiti dal Dipartimento della difesa degli Stati Uniti verso la fine della guerra fredda , finiranno per divenire un insieme autocosciente e intraprendere, al comando di un esercito di robot e cyborg , una spietata guerra per lo sterminio della specie umana. Nel film Matrix le macchine intelligenti tengono in schiavitù miliardi di esseri umani, per trarre da essi energia elettrica.

Oltre a quello del cinema e della televisione, anche il mondo dei cartoni animati e dei videogiochi ha sfruttato il tema dell'intelligenza artificiale. Un esempio è Cortana, l'intelligenza artificiale presente nella saga di Halo (nome affidato da Microsoft anche alla propria assistente virtuale: Cortana su Windows 10 ).

I robot o androidi senzienti sono anch'essi un classico. Nell'ipotesi che le macchine possano man mano diventare più simili agli esseri umani, gli autori hanno ipotizzato macchine con enorme capacità di calcolo e dotate di personalità . I " robot positronici " come il robot R. Daneel Olivaw del romanzo Fondazione , Marvin l'androide paranoico , R2-D2 e C-3PO di Guerre stellari , Data di Star Trek: The Next Generation e Chappie di Humandroid sono solo alcuni esempi tra i più noti. Queste macchine si distinguono dai semplici robot per una personalità spiccata e "umanizzata", resa possibile da un'intelligenza artificiale estremamente evoluta.

Note

  1. ^ L'acronimo invertito, AI, in italiano, sta per "agenti intelligenti", mentre corrispondenti inglesi sono a loro volta invertiti: l'intelligenza artificiale si indica con AI, da Artificial Intelligence , mentre gli agenti intelligenti si indicano con IA, da Intelligent Agents
  2. ^ ( EN ) Kaplan Andreas e Haenlein Michael, Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence , 2018, DOI : 10.1016/j.bushor.2018.08.004 .
  3. ^ ( EN ) Rory Cellan-Jones, Hawking: AI could end human race , in BBC News , 2 dicembre 2014. URL consultato il 27 ottobre 2018 .
  4. ^ ( EN ) Rory Cellan-Jones, Stephen Hawking - will AI kill or save? , in BBC News , 20 ottobre 2016. URL consultato il 28 ottobre 2018 .
  5. ^ tweet di Elon Musk del 2 agosto 2014
  6. ^ https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf
  7. ^ Copia archiviata ( PDF ), su minicomplexity.org . URL consultato il 14 dicembre 2016 (archiviato dall' url originale il 10 febbraio 2017) .
  8. ^ Antonio Lieto, Cognitive Design for Artificial Minds , London, UK, Routledge, Taylor & Francis, 2021, ISBN 978-1-138-20792-9 .
  9. ^ https://www.cs.cornell.edu/selman/cs672/readings/mccarthy-upd.pdf
  10. ^ Eugenio Occorsio, Intelligenza artificiale e Big Data. Così i robot cambiano il lavoro , su repubblica.it . URL consultato il 6 ottobre 2019 .
  11. ^ Marco Ciotola, 5 modi in cui l'intelligenza artificiale sta rivoluzionando la finanza , su money.it . URL consultato il 6 ottobre 2019 .
  12. ^ Alessandra Caparello, FinTech e Intelligenza Artificiale: come cambia la finanza , su wallstreetitalia.com . URL consultato il 6 ottobre 2019 .
  13. ^ Riccardo Barlaam, La rivoluzione dei robot taglierà 200mila posti nelle banche Usa , su ilsole24ore.com . URL consultato il 6 ottobre 2019 .
  14. ^ https://www.digitalic.it/economia-digitale/stephen-hawking-elon-musk-firmano-23-principi-per-ai
  15. ^ https://futureoflife.org/ai-principles/?cn-reloaded=1
  16. ^ https://www.ilsole24ore.com// L'Europa pubblica un codice etico sull'intelligenza artificiale di L. Tremolada
  17. ^ https://www.hdblog.it
  18. ^ https://www.ilsole24ore.com Intelligenza artificiale,ecco le nuove linee guida dell'Europa di L.Tre
  19. ^ https://www.ai4business.it
  20. ^ Nick Bostrom
  21. ^ TR Reed, NE Reed e P. Fritzson, Heart sound analysis for symptom detection and computer-aided diagnosis , in Simulation Modelling Practice and Theory , vol. 12, n. 2, 2004, p. 129, DOI : 10.1016/j.simpat.2003.11.005 .
  22. ^ "IBM Watson for Oncology" , su ibm.com .
  23. ^ A. Yorita e N. Kubota, Cognitive Development in Partner Robots for Information Support to Elderly People , in IEEE Transactions on Autonomous Mental Development , vol. 3, n. 1, 1º marzo 2011, pp. 64-73, DOI : 10.1109/TAMD.2011.2105868 , ISSN 1943-0604 ( WC · ACNP ) .
  24. ^ Transportation | One Hundred Year Study on Artificial Intelligence (AI100) , su ai100.stanford.edu . URL consultato il 18 novembre 2016 .
  25. ^ Google Self-Driving Car Project , su google.com .
  26. ^ Tesla Explains How AI Is Making Its Self-Driving Cars Smarter , su inc.com .
  27. ^ Storykube - The first newsroom where journalists and artificial intelligence team up to bring you the news every day. , su storykube.com .
  28. ^ Il giornale diretto da una intelligenza artificiale funziona , su la Repubblica , 20 ottobre 2020. URL consultato il 24 novembre 2020 .
  29. ^ a b ( EN ) Massimo Merenda, Carlo Porcaro e Demetrio Iero, Edge Machine Learning for AI-Enabled IoT Devices: A Review , in Sensors , vol. 20, n. 9, 29 aprile 2020, p. 2533, DOI : 10.3390/s20092533 . URL consultato il 23 novembre 2020 .
  30. ^ Osservatori Digital Innovation, L'Intelligenza Artificiale in Italia: mercato, trend e prospettive , su blog.osservatori.net . URL consultato il 30 maggio 2019 .
  31. ^ Todino MD, Di Tore S, De Simone G, and Sibilio M (2018). Virtual Reality Head-Mounted Display Used In Online & Distance Education. In: (a cura di): Papanikos G, Athens: ATINER'S Conference Paper Series, No: EDU2017-2407. , in ATINER'S CONFERENCE PAPER SERIES, p. 1-21, Athens:Athens Institute for Education and Research, ISBN 9789605981150 , ISSN 2241-2891 .
  32. ^ Di Tore S., TODINO MD, Sibilio M (2020). La realtà virtuale come strumento didattico per favorire lo sviluppo della presa di prospettiva. , in In: (a cura di): Panciroli C., Animazione digitale per la didattica. p. 155-164, MILANO:FrancoAngeli, ISBN 978-88-351-0728-6 .
  33. ^ TODINO MD, Di Tore S., De Simone G. (2020). Media Education e formazione docenti: contestualizzare le esperienze videoludiche dei propri studenti. , in STUDI SULLA FORMAZIONE, vol. 23, ISSN 2036-6981, doi: 10.13128/ssf-11625 .
  34. ^ TODINO MD, Di Tore S, Maffei S, De Simone G, Sibilio M (2017). L'utilizzo di tecnologie head-mounted display a supporto della didattica attraverso ambienti di apprendimento virtuali in contesti non formali . , in GIORNALE ITALIANO DELLA RICERCA EDUCATIVA, p. 165-176, ISSN 2038-9744 .
  35. ^ ( EN ) Declan Butler, AI summit aims to help world's poorest , in Nature , vol. 546, n. 7657, 6 giugno 2017, pp. 196-197, DOI : 10.1038/546196a , ISSN 0028-0836 ( WC · ACNP ) (archiviato dall' url originale il 30 aprile 2019) .
  36. ^ ( EN ) How Can We Optimize AI for the Greatest Good, Instead of Profit? [ collegamento interrotto ] , su www.technologyreview.com . URL consultato il 29 giugno 2018 .
  37. ^ ( EN ) National Geographic Society, RFP: AI for Earth Innovation , su www.nationalgeographic.org . URL consultato il 10 marzo 2019 .
  38. ^ ( EN ) Microsoft AI for Earth , su www.microsoft.com . URL consultato il 10 marzo 2019 .
  39. ^ ( EN ) AI for Humanitarian Action , su www.microsoft.com . URL consultato il 10 marzo 2019 .
  40. ^ ( EN ) Humanitarian AI (Cambridge, MA) , su Meetup . URL consultato il 10 marzo 2019 .
  41. ^ ( EN ) Yongjun Wang, Haipeng Shen, Qiang Dong, Yilong Wang, Sufeng Ma, Hao Li, Yi Dong, Hui Zhi e Yong Jiang, Artificial intelligence in healthcare: past, present and future , in Stroke and Vascular Neurology , vol. 2, n. 4, 1º dicembre 2017, pp. 230-243, DOI : 10.1136/svn-2017-000101 , ISSN 2059-8688 ( WC · ACNP ) , PMC 5829945 , PMID 29507784 .
  42. ^ AI for Good Global Summit 2017 , su ITU .
  43. ^ ( EN ) AI for Good - YouTube , su YouTube . URL consultato il 2 luglio 2018 .
  44. ^ ( EN ) AI for Good Global Summit - 2017 Report , su slideshare.net .
  45. ^ Machine Learning for 5G , su itu.int .
  46. ^ ( EN ) ITU annual global summit generates 35 pioneering AI for Good proposals | OpenGovAsia , su www.opengovasia.com . URL consultato il 29 giugno 2018 .
  47. ^ Simon Bradley, AI has 'enormous' potential to transform health sector , in SWI swissinfo.ch . URL consultato il 29 giugno 2018 .
  48. ^ An AI can now tell how malnourished a child is just from a photo | New Scientist , su www.newscientist.com . URL consultato il 21 giugno 2018 .
  49. ^ ITU, Artificial Intelligence for Health: ITU and WHO call for proposals , su ITU News , 2 ottobre 2018. URL consultato il 21 giugno 2019 .
  50. ^ Meet the Experts , su www.itu.int . URL consultato il 2 giugno 2018 ( archiviato il 14 dicembre 2018) .
  51. ^ ( EN ) AI for Good Global Summit 15-17 May 2018, Geneva - YouTube , su YouTube . URL consultato il 2 luglio 2018 .
  52. ^ ( EN ) AI Repository , su www.itu.int . URL consultato il 29 giugno 2018 .
  53. ^ ITU, Tell the world about your AI for Good project on ITU's AI Repository , in ITU News , 25 aprile 2018.
  54. ^ Sito della rivista ICT Discoveries , su itu.int .
  55. ^ ( EN ) The impact of Artificial Intelligence , su www.itu.int . URL consultato il 3 luglio 2018 ( archiviato il 24 maggio 2019) .
  56. ^ Day 1, 28 May 2019 Programme , su AI for Good Global Summit . URL consultato il 28 maggio 2019 (archiviato dall' url originale il 5 novembre 2019) .
  57. ^ AI for Good Global Summit 2019: AI for Space [ collegamento interrotto ] , su AI + News , 1º giugno 2019.
  58. ^ Kirsten Martin, Ethical Implications and Accountability of Algorithms , in Journal of Business Ethics , 2018, DOI : https://doi.org/10.1007/s10551-018-3921-3 .
  59. ^ Kate Crawford e Vladan Joler, Anatomy of an AI System , 2018.
  60. ^ a b Kate Crawford, The Atlas of AI. , Yale University Press, 2021, DOI : https://doi.org/10.12987/9780300252392 .
  61. ^ ( EN ) Mél Hogan, Data flows and water woes: The Utah Data Center , in Big Data & Society , vol. 2, n. 2, 1º dicembre 2015, p. 2053951715592429, DOI : 10.1177/2053951715592429 . URL consultato il 24 giugno 2021 .
  62. ^ Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power , 2019.
  63. ^ ( EN ) Alan Mathison Turing, Computing machinery and intelligence , in Mind . URL consultato l'11 novembre 2016 (archiviato dall' url originale il 2 luglio 2008) .
  64. ^ http://cogprints.org/7150/1/10.1.1.83.5248.pdf
  65. ^ ( EN ) Robert B. Fisher, AI and Cinema - Does artificial insanity rule? , University of Edinburgh

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Scienze cognitive
Phrenology1.jpg Nicolas P. Rougier's rendering of the human brain.png
Filosofia della mente · Intelligenza artificiale · Linguistica cognitiva · Neuroscienze cognitive · Psicologia cognitiva
Antropologia cognitiva · Economia cognitiva · Ergonomia cognitiva · Etologia umana · Finanza comportamentale · Genetica comportamentale
Mente · Cervello · Cognizione · Comportamento · Comunicazione
Tutte le voci
Controllo di autorità Thesaurus BNCF 7253 · LCCN ( EN ) sh85008180 · GND ( DE ) 4033447-8 · BNF ( FR ) cb11932084t (data) · BNE ( ES ) XX4659822 (data) · NDL ( EN , JA ) 00574798