CHI
COSA
COME
PERCHÈ
Partiamo da chi ha creato l’intelligenza artificiale, quasi universalmente è ad Alan Turing che è riconosciuto il primato di essere stato il primo uomo a teorizzare e chiedersi se una macchina potesse pensare. Dal 1950 si procede quindi a creare rappresentazioni sempre più complesse del cervello umano (o non) creando diverse sovrastrutture per cercare di comprendere se e come una macchina può raggiungere quel risultato. Da allora (salvo qualche freddo inverno) non ci siamo mai fermati, consapevoli che dei semplici chip in silicio potevano e dovevano essere in grado di risolvere problemi complessi.
Dati grezzi, tristi 1 e 0. Nonostante le nuove innovazioni ci descrivano le AI come capaci di comprendere audio testo e video, la verità è un po’ più banale di così. I nuovi sistemi nascondono trasformazioni automatiche dei nostri input in array (o tensori) di dati, semplici da digerire per i modelli, in realtà dagli anni 90 è cambiato ben poco in rispetto a quali sono input e output dei modelli di Machine Learning, questi sono ancora numerici, siamo però diventati molto più bravi a trasformarli e metterli insieme. Allo stesso modo (salvo rare eccezioni) i modelli sono rimasti simili e a cambiare è stata la potenza computazionale a loro disposizione.
Ok qui qualcuno potrebbe arrabbiarsi, ma come questi modelli funzionano è piuttosto banale… con l’utilizzo di formule matematiche. Fine. Nessun complesso di Dio, nessuna tessitura della Trama, sono solo un insieme di formule piuttosto complesse dove è stato lasciato del margine per errori e per insorgere di bias al fine di permettere l’apprendimento. Questo chiaramente è permesso grazie alla potenza computazionale e anni di studio, è per questo spesso costoso sviluppare modelli custom ma allo stesso modo non sempre è necessario costruire da zero il proprio LLM.
Ad ora il motivo dovrebbe essere chiaro, è complesso analizzare grandi moli di dati, e le macchine sono tendenzialmente più brave di noi a farlo, specie quando si tratta di classificare degli elementi o clusterizzare in base a un numero di caratteristiche superiore alle migliaia. E il fine ultimo resta lo stesso di sempre trasformare un gran numero di dati grezzi in valore, alle volte basta estrarre insight da un insieme di diversi CSV, altre volte si tratta di costruire complesse pipeline di data ingestion, un intero ETL e dashboard interattive altre ancora il valore è una chat in grado di creare immagini di gattini. Noi ci occupiamo di questo, prendiamo dati brutti, utilizziamo un sacco di matematica e la trasformiamo in valore per te.