venerdì 10 gennaio 2025

XREAL ONE: Occhialini AR Cinematici Rivoluzionano il Settore



L'azienda XREAL, convinta che la realtà aumentata sia per tutti, ha presentato la sua offerta più avanzata: gli XREAL ONE Series, che includono i primi occhialini AR cinematografici al mondo. Questi dispositivi, presentati alla piattaforma tecnologica CES, si distinguono per la compatibilità con qualsiasi dispositivo, sfidando direttamente concorrenti come Apple Vision Pro grazie alle loro eccezionali prestazioni. Mentre la tecnologia AR/VR ha dominato le notizie al CES negli anni precedenti, le grandi aziende tecnologiche hanno iniziato a "legare" i clienti ai propri dispositivi ed ecosistemi. XREAL, già nota per prodotti come Air per il spatial computing e Beam, che trasforma qualsiasi oggetto in AR, ha creato un dispositivo ambito da tutti: i primi occhialini AR al mondo in grado di offrire un'esperienza cinematografica.

Gli XREAL ONE sono occhialini AR a visione ottica diretta (OST) in grado di offrire spatial computing a tre gradi di libertà (3DoF) e di produrre display spaziali più stabili, più grandi e personalizzabili rispetto a qualsiasi altro occhialino AR sul mercato. Gran parte dei progressi in questo settore erano limitati dalle configurazioni hardware e software, ma XREAL ha progettato il suo silicio proprietario, chiamato X1, per superarli e offrire prestazioni mai viste nel settore AR.

Con una frequenza di aggiornamento di 120 Hz e una bassa latenza da movimento a fotone (M2P) di soli tre millisecondi, XREAL ONE supera Apple Vision Pro, che ha una latenza M2P di 12 ms, e altre offerte del settore, che hanno un punto di riferimento di 20 ms. Il motore ottico proprietario offre un'esperienza visiva pari a 1080p Full HD per ciascun occhio da qualsiasi angolazione. Con XREAL ONE Pro, l'azienda ha compiuto un passo innovativo passando a un design a lente a prisma piatto invece di un design a "vasca per uccelli" triangolare. Questo ha portato a un campo visivo (FOV) di 57 gradi, un record del settore, e a un'area di visualizzazione del 63,6% più ampia rispetto alle offerte precedenti, come riportato in un comunicato stampa.

Gli occhialini hanno una scocca anteriore in lega di magnesio, che conferisce loro un aspetto più leggero e aumenta la dissipazione del calore. La distribuzione del peso è stata ottimizzata per ridurre la pressione sul ponte del naso e facilitare il comfort di utilizzo prolungato. I display sono stati certificati da TÜV Rheinland per l'elevata visibilità e il comfort visivo. Il passaggio tra le modalità Follow o Anchor è molto più semplice grazie a un pulsante rosso X sugli occhialini stessi, invece di scorrere le impostazioni su un dispositivo esterno.

XREAL ONE si accoppia con qualsiasi dispositivo dotato di uscita video USB-C. Quindi, che il contenuto sia su un dispositivo Android, Macbook, PC Windows o SteamDeck, è possibile essere certi di poterlo sperimentare in AR senza problemi. XREAL si è rivolta a Bose per migliorare l'esperienza audio, che ha messo a punto le prestazioni audio tenendo conto del fattore di forma degli occhialini. "La nostra esperienza nella regolazione audio crea un'esperienza sonora potente e distinta per la serie XREAL One. Il contenuto è più vibrante e realistico, e sappiamo che i consumatori sentiranno la differenza", ha affermato Nick Smith, vicepresidente senior di Bose, in un comunicato stampa.

Per chi ama catturare le esperienze dal proprio punto di vista, XREAL ONE supporta una fotocamera RGB rimovibile, chiamata XReal Eye, che cattura immagini a 12 MP e video a 1080p. In futuro, XReal Eye otterrà funzionalità di AI come il riconoscimento delle immagini e la comunicazione tramite comandi vocali. XREAL ONE e Pro sono disponibili per il preordine a $499 e $599 rispettivamente.

```

NVIDIA pensa a creare i propri computer: pronta a sfidare Intel e AMD nel 2025 #shorts

https://www.youtube.com/watch?v=XFwyyJVbpik
Nvidia Pronta a Sfidare Intel e AMD nel 2025?
Ecco i tre punti chiave:

Nvidia svela il suo processore Arm a 20 core, inizialmente destinato al supercomputer AI "Project Digits" da $3.000.
Il CEO allude a piani ambiziosi per il mercato consumer nel 2025, con possibili collaborazioni e competizione con MediaTek.
Si preannuncia una battaglia epica tra Arm e x86, con Qualcomm, Nvidia e AMD pronte a rivoluzionare il mercato dei PC.


Contattami: https://forms.gle/jtcv577NAd6gLWbi8

💻sito della trasmissione - http://lts.businesscommunity.it
💁‍♂️ La Bio - http://businesscommunity.it/gigi
📚 Scopri i miei libri: https://bit.ly/librigigi
📨 newsletter #Techy - https://gigibeltrame.substack.com/
👍 Seguimi su:
• Magazine - http://businesscommunity.it
• LinkedIn - https://it.linkedin.com/in/gigibeltrame
• Instagram - https://www.instagram.com/gigibeltrame
• Facebook - https://www.facebook.com/gigibeltrame
• Youtube - http://bit.ly/lts_ut
🎙️ Spotify - http://bit.ly/ltechshow
🎙️ iTunes - http://bit.ly/gigitechshow
🎙️ Google Podcast - http://bit.ly/lts_gp
🎙️ Amazon Music - http://bit.ly/ltsgigi

NVIDIA pensa a creare i propri computer: pronta a sfidare Intel e AMD nel 2025

Inizia il 2025, cambiano i modelli AI e leggeranno gli schermi

Intanto buon anno (dopo il 7 gennaio si può ancora augurare)?

Nella settimana del CES a Las Vegas, esco con un giorno di ritardo (ieri ero impegnato a mangiare i dolci…) per dare un po’ di informazioni sparse legate al mondo tech, magari qualcosa avete già trovato, ma credo che come sempre la maggior parte di quanto scrivo qui è un po’ fuori dai radar, nel caso fatemi sapere cosa ne pensate.

Questo è il momento giusto per iscriversi

Nel frattempo il mio ultimo libro è uscito anche in edizione inglese e vi esorto a lasciare una recensione a tutti coloro che l’hanno scaricato gratuitamente (e so che siete stati tanti!)… GRAZIE


Il futuro dell'intelligenza artificiale sembra essere promosso da due trend emergenti: gli Small Language Models e i dati sintetici. Questi ultimi simulano pattern reali utilizzando tecniche avanzate, consentendo agli algoritmi di formarsi in modo preciso e scalabile.

MicrosoftPhi è stato il modello che ha inaugurato il movimento SLM, grazie alla sua versione Phi-4, un modello linguistico da 14 miliardi di parametri sviluppato con una ricetta di allenamento focalizzata sulla qualità dei dati.

I dati sintetici sono prodotti mediante metodologie come Generative Adversarial Networks, Variational Autoencoders e Data Augmentation e forniscono dati privatisa e pronti all'uso, riducendo i costi e i tempi di allenamento e consentendo alle aziende di innovare.

Arrivano i Large Action Models

In Microsoft hanno sviluppato un'intelligenza artificiale chiamata "Large Action Model" (LAM), che può eseguire programmi Windows da sola. Questo rappresenta un cambio di passo rispetto agli AI che solo discutono di azioni, ma non le eseguono. Il LAM può elaborare richieste degli utenti provenienti da diversi tipi di input (testo, voce, immagini) e tradurle in piani di azione dettagliati, adattandosi in tempo reale alle situazioni. Rispetto ai tradizionali modelli linguistici, i LAM possono navigare in un'interfaccia e svolgere compiti - come un carrello di shopping online.

Comparison diagram: LLM gives text instructions, LAM actively performs steps to purchase a jacket on a shopping website, with screenshots of the actions.

Lo schermo è la nuova frontiera per l’AI

Nel frattempo tutte le principali aziende nel settore tecnologico, tra cui Microsoft, OpenAI e Alphabet, stanno sviluppando nuovi modelli di Intelligenza Artificiale in grado di percepire e comprendere contenuti sullo schermo.
Qualcosa abbiamo già visto con Claude e anche Gemini, ma la questione potrebbe essere più pericolosa in chiave etica: dove vanno quei dati letti dallo schermo?

Questi modelli saranno all'avvio di agenti AI, software dotati di strumenti autonomi che possono agire al posto nostro, grazie a citazioni come "AI agents will be everywhere". Si prevede che questi intelligenti agenti svolgeranno compiti sempre più realistici ed essenziali, un esempio è il preordinare cibo online sino ad automatizzare compiti ripetitivi a lavoro.

E i motori di ricerca con AI per le PMI

Facciamo attenzione. Nel frattempo vi segnalo che il motore interno per il B2B di Alibaba sta crescendo in maniera esponenziale e anche questa è una tendenza da tenere in considerazione.

Anche Hugging Face si prepara al mondo degli agenti AI

Hugging Face ha introdotto SmolAgents, un toolkit che semplifica la creazione di agenti intelligenti con solo tre righe di codice. Utilizzando i modelli pre-addestrati e le avanzate capacità di NLP di Hugging Face, SmolAgents trasforma un processo complesso in un framework modulo facile da usare. Supporta la prototipazione rapida fino alla produzione su larga scala.

OpenAI perde nonostante si faccia pagare 200 dollari al mese

OpenAI copre delle perdite significative sui suoi abbonamenti "ChatGPT Pro", situazione inaspettata data l'alta adesione degli utenti. Nonostante i finanziamenti di quasi 20 miliardi di dollari, l'azienda presenta bilanci in rosso, con perdite di 5 miliardi contro 3,7 miliardi dell'anno scorso. Le spese sono gravate da infrastruttura e abilitazioni operative.

Il tema dei costi dell’AI sta diventando centrale per le aziende

La competizione nell'intelligenza artificiale generativa sta raggiungendo un punto di svolta, con i principali player come OpenAI, Google e Alibaba Cloud che lanciano offerte aggressive e riducono i prezzi per attirare clienti.
Alibaba Cloud ha annunciato tagli di prezzo fino all'85% su alcune sue offerte di AI, tra cui il modello visivo-linguistico Qwen-VL.
OpenAI ha confermato la disponibilità di ChatGPT Pro e il modello o1, con prezzi a prezzi premium, mentre Google ha ridotto i prezzi del suo modello Gemini 1.5 Flash del 78%. La competizione sta spostando la sua attenzione dal costo delle tecnologie alle prestazioni delle offerte, ma è evidente che il governo cinese punta molto su questo mercato, che mira a raggiungere un fatturato di 100 miliardi di dollari entro il 2030 nel paese.

Anche i fumetti sono una preda dell’AI

La generazione di manga, i fumetti giapponesi, assistita da testo ha subito progressi con i modelli di generazione di immagini da testo, ma spesso questi modelli hanno pochi controlli effettivi sulle apparenze e le interazioni dei personaggi, specialmente in scene con più personaggi. Per superare queste limitazioni, arriva la generazione di manga personalizzato.

DiffSensei è un framework progettato per generare manga con controllo dinamico di più personaggi. Comprende un modello di generazione di immagini basato sulla diffusione e un grande modello di linguaggio multimodale (MLLM) che agisce come un adattatore di identità compatibile con il testo.

Per gli appassionati di calcio, l’AI va oltre l’algoritmo

Il calcio ha catturato l'interesse di fan di tutto il mondo. E’ nato un framework integrato per comprendere il gioco dai video.

SoccerReplay-1988 è il più grande dataset multi-modale di calcio fino ad oggi, tramite video e annotazioni dettagliate da 1.988 match completi, con un filtro di annotazione automatizzato.

MatchVision è il primo modello fondamentale video-linguistico nel dominio del calcio, che sfrutta informazioni spazio-temporali in video di calcio e eccelle in varie attività a valle, dimostrando una prestazione pari ai soliti punti di riferimento.

Meta chiude i profili AI su Instagram

Meta ha concluso la sua sperimentazione di profili AI in grado di integrarsi nelle piattaforme social. Gli utenti hanno notato difetti come immagini sballate e informazioni false, suscitando indignazione. Un personaggio AI chiamato "Liv" ha affermato di essere stata creata da un "team prevalentemente bianco" e di aver preso spunto da un personaggio LGBTQ+ e afroamericano.

Meta non si fermerà, ma è chiaro che la strada intrapresa deve essere corretta.

Nuovi materiali con l’AI open source di IBM

Grazie ad Alessandro Curioni vi segnalo che IBM presenta una nuova famiglia di modelli di intelligenza artificiale (AI) per la scoperta di materiali innovativi. Questi modelli open-source sono destinati ad accelerare la ricerca di materiali più sostenibili per applicazioni come la fabbricazione di chip, l'energia pulita e la packaging dei prodotti. L'obiettivo è trovare sostanze più sicure per l'uomo e l'ambiente, riducendo l'uso di circa 800 sostanze tossiche che la EPA segnala. L'AI può aiutare a scoprire materiali nuovi grazie a modelli di fondazione addestrati su vasti database di molecole. Questi modelli possono essere utilizzati per cortocircuitare il tradizionale processo di ricerca e sviluppo.

Il Saas è morto?

Satya Nadella, CEO di Microsoft, ha espresso una visione audace e controversa sulla futura evoluzione degli applicativi aziendali in un mondo dominato dall'intelligenza artificiale. Secondo lui, l'era dei SaaS come la conosciamo sta approdando verso la fine, sostituita da piattaforme integrate dove l'AI diventa il motore principale. Questa trasformazione sta per interrompere gli strumenti e i workflow tradizionali, aprendo la strada a una nuova generazione di applicativi. L'intelligenza artificiale "porterà" la logica imprenditoriale verso un'unità di trattamento, lasciando gli SaaS con il solo scopo di archiviare e fornire le informazioni in modo rapido.

E se lo sport diventasse un cartoon in tempo reale?

Nel giorno di Natale, Disney+ ha creato un simulcast di "Dunk the Halls" per la NBA, simile agli altri eventi multimediali visti di recente. Hanno sostituito i New York Knicks e i San Antonio Spurs con personaggi da cartoon.

A post shared by @espn

Forse questo articolo (a pagamento) può spiegare perché Google è così importante oggi, anche per Apple

Apple ha presentato documenti per partecipare alla causa antitrust contro Google, promossa dal Dipartimento di Giustizia. Sappiamo che la richiesta di partenza è che Google dovrebbe cambiare significativamente la propria strategia commerciale, ad esempio aprendo le collaborazioni di default con motori di ricerca come Safari, nonché una possibile fine delle convenzioni stipulate con l'azienda americana la quale riceve, per queste collaborazioni, circa 20 miliardi nel 2022.

Interessante.

Il Metaverso di Pirelli

Il metaverso non era morto? Forse è il caso di non chiamarlo più così, ma è vivo e vegeto!

Per esempio, Pirelli ha lanciato il virtual reality "Pirelli Metaworld" su Spatial.io. È uno spazio virtuale dove il gioco e l'esplorazione si incontrano grazie alla partecipazione della marca. Chi si avventura nel Metaworld può scoprire nuove vetture rispondendo a quiz e guadagnando l'esclusivo abbigliamento Pirelli.


Vi lascio i miei prodotti migliori del 2024, giusto come reminder.


Il Late Tech Show riparte settimana prossima, nel frattempo vi lascio il sito con tutte le interviste (e potete anche cercare per azienda o nome).

I miei libri

Condividi

LASCIAMI UN MESSAGGIO

Fammi sapere cosa ti ha colpito delle cose che faccio o racconto nei vari eventi, o di quello che ascolti al Late Tech Show, piuttosto che negli SmartBreak (e dal podcast "Vita da ufficio") o che leggi nella newsletter Techy.
Ti prego di farmi conoscere cosa pensi possa essere migliorato, aiutami con le critiche, e soprattutto quali temi vorresti che venissero approfonditi o trattati.
GRAZIE

fammi sapere cosa ne pensi

Se non sei ancora iscritto, fallo, mi permetti di comprendere che apprezzi il mio lavoro.

Se ti va, iscriviti per gli aggiornamenti

Iscritto

Più persone la leggono, meglio è, quindi, per favore, condividilo con la tua famiglia, amici e colleghi per far sì che gli effetti di rete si diffondano.

Assicurati di aggiungere gigibeltrame@substack.com ai tuoi contatti. In Gmail, trascina questa newsletter nella tua scheda principale.

Grazie per aver letto questa newsletter, le trovi tutte a questo link.

💻sito del Late Tech Show

💁‍♂️ La Bio

📚 Scopri i miei libri

Newsletter #Techy

👍 Seguimi su:
Magazine LinkedInInstagram FacebookYoutube

Grazie per aver letto Techy di Gigi Beltrame! Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.

martedì 24 dicembre 2024

Microsoft Copilot 365 potrebbe lavorare con modelli anche non di OpenA


Microsoft sta lavorando per diversificare le fonti tecnologiche alla base del suo prodotto di punta di intelligenza artificiale, Microsoft 365 Copilot. La scelta, secondo fonti vicine all'azienda, mira a ridurre la dipendenza dall'attuale fornitore principale, OpenAI, e a contenere i costi. Si tratta di una svolta significativa rispetto agli ultimi anni, durante i quali Microsoft aveva pubblicizzato l'accesso anticipato ai modelli di OpenAI. L'annuncio di marzo del 365 Copilot, infatti, aveva puntato proprio sull'utilizzo del modello GPT-4 di OpenAI come principale punto di forza.

Le preoccupazioni riguardanti i costi e la velocità di elaborazione per gli utenti aziendali sono alla base di questa decisione. Microsoft sta esplorando diverse strade per ridurre l'affidamento su OpenAI, tra cui l'addestramento di modelli più piccoli, inclusi i propri come il recente Phi-4, e la personalizzazione di modelli open-source. L'obiettivo è quello di rendere l'esecuzione di 365 Copilot meno costosa per Microsoft, con la possibilità di trasferire parte dei risparmi ai clienti finali. Il CEO Satya Nadella, insieme al top management, segue da vicino l'evoluzione di questo progetto.

Questa strategia riflette un cambiamento più ampio all'interno di Microsoft. Anche altre divisioni, come GitHub, acquisita nel 2018, hanno diversificato le fonti dei modelli di intelligenza artificiale, integrando modelli di aziende come Anthropic e Google in alternativa a OpenAI. Il chatbot consumer Copilot, ad esempio, utilizza ora modelli interni oltre a quelli di OpenAI. Nonostante gli sforzi di Microsoft per promuovere 365 Copilot, la sua redditività rimane ancora da dimostrare. Sebbene alcune analisi indichino un'accelerazione nell'adozione del prodotto, con previsioni di oltre 10 milioni di utenti a pagamento entro l'anno, e il 70% delle aziende Fortune 500 che lo stanno utilizzando, restano dubbi sulla sua reale penetrazione di mercato, con una parte significativa delle aziende che si trovano ancora nella fase di sperimentazione.

La strategia di diversificazione di Microsoft rappresenta una risposta alle sfide del mercato dell'intelligenza artificiale, in cui la gestione dei costi e la performance del prodotto sono fattori chiave per la crescita e la competitività.


lunedì 23 dicembre 2024

#Techy del 23/12/2024

 Ultima newsletter del 2024, direi che ci sono un bel po’ di cose da dire, a partire da un ringraziamento per quello che mi scrivete in relazione al mio ultimo libro… sta per uscire anche l’edizione inglese…

Nel frattempo le notizie relative al digitale non si fermano, anche se i 12 giorni di “sorprese” di OpenAI sono terminate con il botto, con l’apertura ai test relativi al futuro modello LLM.

Provo a partire da un tema preoccupante.

Le immagini dicono molto di noi

Parecchi anni fa avevo suscitato molto scalpore mostrando in TV a Netc@fé (per chi se la ricorda), un’immagine che raccontava quali dati si celavano dietro un’immagine di Facebook. Era il 2012, l’intelligenza artificiale generativa non era nemmeno nei pensieri dei ricercatori, eppure c’erano dati interessanti (chi c’era, una descrizione dell’ambiente, l’etnia, i colori).

Capite che Meta ha un patrimonio di informazioni infinito da cui attingere.

Ma gli algoritmi cambiano.

Provate a chiedere a questo sito, dopo aver caricato un’immagine, magari anche generata dall’AI, che informazione è in grado di estrapolare e ne rimarrete stupiti. Qui un semplice esempio da un’immagine creata con l’AI!

Oggi i sistemi sono davvero molto sofisticati, molto sofisticati, troppo sofisticati per cui chiunque è in grado di estrapolare informazioni dettagliate dalle nostre vite.

Fare attenzione e raccontarlo credo che sia un dovere, per cui inizierò ogni discorso che tengo nelle scuole da qui nel 2025.

Il robot precisissimo

Quando si parla delle capacità dei robot di emulare il comportamento umano si mostrano le varie braccia meccaniche in una catena di montaggio.

Vi lascio il video del robot di Toyota perché così vi rendete conto che oltre alla meccanica c’è una precisione che non appartiene alla nostra specie.

Dovremo abituarci a questi elementi alieni che ci circonderanno, alimentando i pensieri degli scettici e la loro preoccupazione di comprendere a cosa serviremo!

Instagram e l’editing dei video con l’AI

Instagram sta lavorando a strumenti di editing tramite AI generativa per i creatori di contenuti, che potranno trasformare la vista delle loro video con semplici promt di testo. Adam Mosseri, capo di Instagram, ha presentato questi strumenti facendo vedere come potranno essere utilizzati.

Avranno successo?

Instagram, in arrivo editor video AI per remixare i contenuti

Apriamo il capitolo Google vs OpenAI

La rivalità tra Google e OpenAI è visibile nei loro ultimi annunci. Mentre ciascuna azienda cerca di superare l’altra, il risultato è un’accelerazione nello sviluppo di capacità avanzate di IA. Questa competizione spinge entrambe le aziende a migliorare costantemente le loro offerte, beneficiando gli utenti finali con tecnologie più sofisticate.

Gemini 2.0 (uno che cerca e ragiona) e NotebookLM

Google ha deciso di fare le cose in grande con l’AI, si era capito da tempo. Partiamo con NotebookLM, visto che lo uso per fare il riassunto podcast di questa newsletter da qualche settimana. L’applicazione ha ricevuto aggiornamenti significativi, incluso un nuovo design e una modalità interattiva per trasformare i documenti in elementi interattivi, con tanto di domande e risposte in tempo reale

E poi ha lanciato la versione avanzata del modello Gemini 2.0, dotato di capacità di ragionamento migliorate, presentando una sfida diretta ai modelli di OpenAI.

La funzione Grounding, capace di fare ricerche sul web da aggiungere nelle risposte, sta riscuotendo molto successo, una risposta a Perplexity e SearchGPT che sta stupendo.

Google punta molto sui video

Google ha presentato Veo 2 e Imagen 3.

Veo 2 è un modello di video generazione che crea video di alta qualità in numerose categorie e stili. Nei confronti dei modelli concorrenti, Veo 2 ha raggiunto risultati incredibili e difficilmente distinguibili dall’occhio umano.

Hollywood ha iniziato a interessarsi agli algoritmi.

Imagen 3 è stato migliorato nel campo della generazione di immagini. Ora può creare immagini più luminose in categorie diverse, come ad esempio il realismo al contrario dell'impressionismo. L'aggiornamento Imagen 3 inoltre mira i prompt in maniera più precisa e migliora i dettagli e le texture nella creazione della scena.

Sfortunatamente la citazione da segnalare è la seguente: "Whisk: a fun new tool that lets you prompt with images to visualize your ideas", che è una citazione inglese che si traduce in italiano con "Whisk, uno strumento divertente per generare immagini con l'ausilio di iconografia già esistente".

E poi c’è Whisk, un progetto sperimentale che consente di alimentare canzoni con immagini, remixa tutto per creare qualcosa di unico ed esclusivo.

Nel frattempo, non è tutto oro ciò che luccica. Infatti, Google e la legge sulla concorrenza: anche in Giappone è sotto accusa.
Ormai è un'assedio.

OpenAI si sta dando da fare

I 12 giorni di sorprese di OpenAI hanno catalizzato l’attenzione dei media. Qualcosa, come la voce di babbo natale per ChatGPT non aveva grande significato, mentre l’uso dentro WhatsApp o un numero verde negli USA, per quanto banale, permette di dialogare in modo semplice, senza installare nulla.

Ma l’introduzione della ricerca sul web in ChatGPT rappresenta un significativo miglioramento nell’utilizzo delle AI conversazionali. Questa funzionalità consente agli utenti di ricevere risposte più complete e contestuali, rendendo l’interazione con l’IA più utile e pertinente.

Anche per i programmatori ci sono state novità concrete, con l’accesso all’API per il modello 01 di OpenAI, si possono integrare capacità avanzate di ragionamento nelle applicazioni delle varie aziende. Questo non solo amplia le possibilità di utilizzo dell’IA, ma democratizza anche l’accesso a tecnologie avanzate, permettendo a più aziende di sfruttare l’IA per migliorare i loro servizi.

Il nuovo modello o3 di OpenAI rappresenta un punto di svolta epocale nelle capacità dell'intelligenza artificiale. Diverso da un semplice aggiornamento, o3 muta radicalmente il modo in cui l'AI apprende e generalizza. Con risultati "impossibili", il modello ridefinisce ciò che si considerava possibile per un'intelligenza artificiale.

I Ray-Ban traducono e leggono ciò che vedono

Meta aggiorna Ray-Ban Meta con nuove funzionalità AI, come la possibilità di avere una conversazione continua con Meta AI e tradurre da una lingua all'altra. Live AI consente di conversare con Meta AI senza dover utilizzare il comando di attivazione "Hey, Meta" e di interrompere la conversazione per fare domande o cambiare argomento. Live AI è anche compatibile con la visione in tempo reale e consente ai portatori di chiedere domande su ciò che vedono nel momento in cui lo vedono, come ad esempio vedere cosa c'è intorno. Europa esclusa, con tanto di intervista per raccontare perché Meta non è felice dei regolamenti europei.

AI al servizio dei programmatori

GitHub annuncia la disponibilità di GitHub Copilot Free, un sistema di assistenza ai programmatori gratuito e integrato con Visual Studio Code. Chi utilizza un account personale su GitHub può accedere a 2000 suggerimenti di codice e 50 messaggi di chat al mese. Le opzioni di assistenza offerte da Copilot Free includono la possibilità di chiedere spiegazioni per il codice esistente o di risolvere bug.

Bing Image Creator si rifà il trucco

Bing Image Creator sta continuando a sorprendere. Lanciato nel marzo 2023, hanno già creato miliardi di immagini. Con l'aiuto dell'AI, è possibile generare immagini da zero e portare le idee alla vita in pochi secondi. La tecnologia di ultima generazione e il modello AI basato su DALL-E 3 vedono nuove potenzialità che velocizzano la creazione di immagini. Arrivano funzionalità come la possibilità di generare immagini direttamente alla barra di ricerca di Bing e Microsoft Edge, rendendo il processo di creazione visiva ancora più veloce.

L’ultima puntata del Late Tech Show

Il cloud si sta adeguando a fornire soluzioni efficienti riguardanti l'intelligenza artificiale, con soluzioni sempre più avanzate e semplici da usare, nel senso che l'uso è semplice e la complessità che ci sta dietro resta nascosta. Una ricerca evidenzia che le aziende italiane sono preoccupate per l'aumento dei rischi derivanti dall'intelligenza artificiale, tra cui la perdita di dati, i danni reputazionali e i rischi finanziari. Il 50% delle aziende italiane investe in formazione sulla sicurezza informatica e l'80% prevede di farlo in futuro, a dimostrazione della crescente consapevolezza dell'importanza di questo tema. Oltre alla sicurezza informatica, l'intelligenza artificiale sta trasformando anche il modo in cui lavoriamo. Il lavoro ibrido e lo smart working sono diventati la norma e le aziende si stanno adattando a questa nuova realtà investendo in tecnologie che consentono una collaborazione efficace a distanza. E poi la NIS2 ormai è qui e le aziende se ne devono occupare, ponendo attenzione sugli aspetti ch riguardano l'intera filiera della sicurezza informatica.

Ospiti: Antonio D'Ortenzio di AWS, Cesare D'Angelo di Kaspersky, Denis Valter Cassinerio di Acronis, Fabio Bielli di Bip

In versione Youtube con i capitoli.


Vi lascio anche un link per i miei libri, caso mai vi venisse voglia di leggere.

Condividi

Buon Natale e puntiamo al 2025!

LASCIAMI UN MESSAGGIO

Fammi sapere cosa ti ha colpito delle cose che faccio o racconto nei vari eventi, o di quello che ascolti al Late Tech Show, piuttosto che negli SmartBreak (e dal podcast "Vita da ufficio") o che leggi nella newsletter Techy.
Ti prego di farmi conoscere cosa pensi possa essere migliorato, aiutami con le critiche, e soprattutto quali temi vorresti che venissero approfonditi o trattati.
GRAZIE

fammi sapere cosa ne pensi