Comunque, per onor del vero, anche #beckham sbagliava.
#italiabosnia #calcio #mondiali #figc
Un blog per parlare di cultura digitale, prodotti, servizi e molto, molto di più.
Questa settimana l’AI ha compiuto un altro passo verso l’evoluzione agentica: GPT-5.4 di OpenAI controlla il computer da sola, cambiando i workflow. Ma nel frattempo non sono sicuro che placherà l’emorragia di utenti che stanno passando da ChatGPT a Claude. Ma vediamo con calma, intanto partiamo con il link alla versione podcast automatica. Ecco il punto: non è più fantascienza, è produzione.
Qui la versione podcast automatica.
Inutile dire che il video di presentazione è fantastico, veramente bello, a livello di design il Mac Neo è stupendo, ma ci sono diversi interrogativi sulla sua potenza di calcolo, a partire dal processore che è quello degli iPhone di qualche generazione fa.
Lo metterò alla prova alla prima occasione.
Negli ultimi giorni la frattura tra OpenAI e Anthropic sul rapporto con il Pentagono è diventata il caso simbolo del nuovo asse AI–militare negli Stati Uniti. Al centro c’è una domanda molto semplice e molto scomoda: fino a che punto le aziende di AI sono disposte a vincolare l’uso dei loro modelli quando il cliente si chiama Dipartimento della Difesa.
Anthropic ha provato a mettere dei paletti netti: niente uso dei suoi modelli per sorveglianza domestica di massa e niente gestione di armi autonome senza controllo umano diretto. Il Pentagono ha risposto chiedendo “any lawful purpose”, cioè la possibilità di utilizzare l’AI per qualsiasi scopo consentito dalla legge, senza clausole etiche aggiuntive definite dall’azienda. Il risultato è stato lo strappo: le trattative si sono interrotte, la società è stata classificata come “supply chain risk”, una etichetta che di fatto la esclude dai contratti di difesa federali e che Anthropic ha annunciato di voler contestare in tribunale.
OpenAI è entrata esattamente in quel vuoto. Poche ore dopo la rottura con Anthropic ha firmato un accordo con il Pentagono per portare i propri modelli su reti classificate, accettando la logica dell’utilizzo per tutti gli impieghi legali ma negoziando, almeno sulla carta, alcune clausole aggiuntive. Dopo un’ondata di critiche e un’ondata di disinstallazioni dell’app, l’azienda ha annunciato una versione emendata del contratto che vieta esplicitamente il “tracking deliberato” e la sorveglianza di cittadini americani, così come lo sviluppo di armi letali completamente autonome. I critici però sottolineano che il confine tra sorveglianza “di intelligence” legalmente permessa e sorveglianza di massa è molto sfumato, e che la combinazione tra sistemi legali esistenti e modelli avanzati può amplificare enormemente le capacità di raccolta e analisi dati.
Dentro OpenAI, la scelta ha acceso un incendio interno. Nei giorni successivi al contratto, all’esterno della sede di San Francisco sono comparse scritte come “Where are your red lines?” e “What are the safeguards?”, mentre sui canali interni diversi dipendenti hanno contestato la rapidità e l’opacità del processo decisionale. Il segnale più forte è arrivato con le dimissioni di una figura senior nella divisione robotica, Caitlin Kalinowski, che ha motivato pubblicamente l’uscita proprio con i timori su sorveglianza senza adeguate garanzie e sull’uso di capacità autonome in contesti letali. Nelle sue parole il punto non è solo l’etica dell’applicazione, ma la governance: decisioni di questo peso non dovrebbero essere prese in fretta per “cogliere l’occasione” lasciata libera da un competitor, senza un confronto più ampio con staff, società civile, esperti.
In sintesi, mentre Anthropic ha scelto di perdere il contratto pur di fissare un perimetro rigido su sorveglianza e armi autonome, OpenAI ha accettato il quadro “any lawful use” cercando di definirne meglio i limiti in fase contrattuale, pagando però un prezzo in termini di fiducia interna ed esterna. È una diatriba che va oltre i due nomi: è il test in tempo reale di quanto potere reale hanno le big dell’AI nel dire no al complesso militare–industriale americano, e di quanto gli stessi team tecnici sono disposti a restare se sentono che quelle linee rosse vengono spostate.
Sfruttando questa diatriba sulla difesa, Anthropic ha introdotto una funzione per trasferire la “memoria” AI da ChatGPT a Claude in pochi istanti. La funzione “Memory” di Claude è ora gratuita, mentre su ChatGPT resta limitata. Per trasferire la memoria, basta copiare un prompt su claude.com/import-memory e incollarlo su ChatGPT, poi trasferire l’output su Claude.
Il numero di download e di utenti di Claude è in grande ascesa, OpenAI è sotto attacco, sia da parte di Claude, molto diretta, ma anche dalle novità di Google con Gemini 3.1 Flash Lite (che troverete sotto).
Secondo l’Osservatorio Politecnico Milano, AI italiana a 1,8 miliardi € nel 2025 (+50% YoY), GenAI al 46%. 71% grandi imprese con progetti, manifatturiero e retail trainano. Licenze Copilot/ChatGPT +31%.
Sfide: competenze e post-PNRR. Agentic AI next wave, human-in-the-loop resta fondamentale.
Molta enfasi sul manifatturiero (che sta anche pensando alla Physical AI), ma anche a un controllo migliore del ritorno degli investimenti. Interessante notare che il CAGR è del 54% e l’osservatorio ci ricorda che è una vera opportunità per le PMI.
Anthropic ha creato una ricerca per trovare una nuova misura di rischio di sostituzione dell’AI, l’esposizione osservata, che combina la capacità teorica dei modelli di linguaggio e i dati di utilizzo nel mondo reale, ponderando maggiormente gli usi automatizzati e legati al lavoro. Le occupazioni con maggiore esposizione sono previste in calo fino al 2034, con lavoratori più anziani, donne, più istruiti e meglio pagati. Non si nota un aumento sistematico della disoccupazione per i lavoratori esposti dal 2022, ma una rallentata assunzione di giovani lavoratori in occupazioni esposte.
Anthropic ha firmato un accordo da 200M con il Dipartimento della Guerra USA, stabilendo due condizioni: no sorveglianza di cittadini USA e no armi autonome. Tuttavia, è stata designata “supply-chain risk” e di fatto blacklisted. OpenAI ha poi firmato un accordo analogo con tre condizioni, ma il CEO Sam Altman ha ammesso di non avere controllo sulle decisioni militari finali. Nel frattempo, Claude ha lanciato tool per importare memorie da altri provider e ha sbloccato la memoria sul piano free, attirando utenti che abbandonano ChatGPT.
OpenAI ha lanciato GPT-5.4, il modello “più intraprendente per il lavoro professionale”. Può navigare nel browser, usare tool esterni e gestire task multi-step autonomamente, riducendo errori del 33% vs GPT-5.2.
Si tratta di un modello che combina chatbot e lavoratori autonomi. Il modello può utilizzare il computer come un utente, spostando il mouse e digitando per completare flussi di lavoro professionali complessi. GPT-5.4 ha un contesto di 1 milione di token e ha stabilito record nei test GDPval e in altri benchmark. Il modello è anche meno incline a commettere errori e presenta una nuova funzione di ricerca per strumenti. Come afferma, “take it from here” una volta assegnato un obiettivo, il modello può procedere autonomamente.
La “Thinking” version mostra il ragionamento chain-of-thought, ideale per audit e compliance.
Per le aziende, l’Agentic AI riduce il tempo di sviluppo fino al 50% sulle automazioni aziendali.
Il modello Gemini 3.1 Flash-Lite di Google è progettato per carichi di lavoro ad alto volume che richiedono velocità e bassi costi. Offre efficienza, prestazioni migliorate e integrazione tramite Gemini APIs e Vertex AI, supportando fino a 3.000 file per prompt e ideale per automazione di compiti ripetitivi e analisi di immagini.
Gli sviluppatori lo stanno già usando massicciamente, soprattutto per “una pre-lavorazione” delle operazioni, grazie ai costi veramente ridotti.
Luma (valutata 4 miliari di dollari) è un po’ fuori dai radar in europa e soprattutto in Italia, ma ha lanciato Luma Agents, basati su modelli “Unified Intelligence”. Un agente gestisce testo, image, video e audio end-to-end: dal brief al montato finale.
Il vantaggio è rispondere al caos multi-tool: integra tutto in un flusso agentico. API rollout graduale per enterprise.
Google annuncia un cambiamento radicale al Play Store a seguito della battaglia legale con Epic Games. Dal giugno, nello Spazio Economico Europeo, le commissioni scenderanno dal 30% a una forchetta tra il 10% e il 20%. Sarà introdotto anche il programma “Registered App Stores” per semplificare l’installazione di negozi di app di terze parti e verrà consentito l’integrazione di sistemi di pagamento esterni.
Da vedere e ascoltare per comprendere come il mondo degli sviluppatori sia cambiato drasticamente.
Il Giappone ospita la più grande expo di robot umanoidi di sempre, con macchine che camminano, parlano, mostrano emozioni e interagiscono col pubblico in modo quasi “umano”.
È un concentrato di embodied AI: vedi in pratica come stanno evolvendo movimento, mani, espressioni facciali e interazione con le persone.
Figure ha mostrato più esemplari della terza generazione di umanoidi che girano liberamente nel loro Head Quarter in California, con l’obiettivo dichiarato di metterli su linee produttive già quest’anno.
Il CEO Brett Adcock parla apertamente di “robot che costruiscono robot in 24 mesi” e prevede robot domestici in grado di svolgere task complessi in ambienti mai visti entro fine 2026.
Meta è stata citata in giudizio negli Stati Uniti per i suoi smart glasses con AI, dopo un’indagine che ha rivelato che operatori umani esaminavano footage intime dei clienti. La denuncia afferma che, nonostante la pubblicità che le descrive come “progettate per la privacy”, i lavoratori all’estero potevano visualizzare registrazioni sensibili, incluso nudo e momenti privati in bagno. Come dice la denuncia, Meta affermava di utilizzare l’AI per oscurare i volti, ma gli investigatori hanno trovato che questi filtri spesso fallivano.
Una causa da seguire, perché potrebbe aprire tanti fronti, non ultimi i video citofoni già nell’occhio del ciclone.
Poche applicazioni sono così interessanti come Granola e vedo che si sta diffondendo molto (Granola permette di trascrivere in modo trasparente una conversazione online).
Quando evidenzio che con la versione free quello che viene “registrato” verrà usato per le fasi di training dell’applicazione, mi guardano tutti perplessi, come se non si sia pensato alle implicazioni!
Nelle call diciamo cose che devono restare tra di noi, piuttosto che segreti o operazioni che stiamo progettando: possiamo permetterci che quanto detto serva per addestrare i sistemi?
Ovviamente era una domanda retorica!
In un incontro con i sacerdoti, Papa Leone ha detto, con tono scherzoso ma schietto, ”bisogna resistere alla tentazione di preparare le omelie con l’AI perché fare una vera omelia è «condividere la fede e l’intelligenza artificiale mai arriverà a poter condividere la fede.
Eppure c’è chi ha una “fede” incondizionata nell’AI…
In questa puntata del Late Tech Show:
📱 Samsung S26: la privacy diventa hardware Nicolò Bellorini (Samsung Italia) ha presentato i nuovi S26, dove spicca il rivoluzionario Privacy Display. Non è un semplice filtro, ma una tecnologia a livello molecolare che permette di bloccare la visuale laterale per proteggere i dati da sguardi indiscreti, mantenendo una qualità d'immagine superlativa. Sotto il cofano, il processore Snapdragon Elite 8 Gen 5 potenzia la Galaxy AI, permettendo un'elaborazione "on-device" più sicura, veloce e amica della batteria.
⚖️ Lexroom: L'IA al servizio degli avvocati Spazio poi all'eccellenza italiana con Andrea Lonza, co-founder di Lexroom. Questa startup sta trasformando il lavoro legale grazie a un'IA specializzata che aumenta l'efficienza nella redazione di pareri fino al 70%. Con un fatturato di 10 milioni di euro (ARR) e l'obiettivo di quadruplicarlo entro l'anno, Lexroom punta a diventare un vero "sistema operativo" per avvocati, espandendosi già in Germania e Spagna.
Settimana scorsa non ho fatto nemmeno una puntata live alle 11:00 e credo che anche questa settimana farò molta fatica, nel frattempo stamattina ce l’ho fatta…
Le puntate registrate le trovate qui.
Se non vi siete ancora iscritti, fatelo, mi permettete di comprendere che apprezzate il mio lavoro.
Più persone la leggono, meglio è, quindi, per favore, condividilo con la tua famiglia, amici e colleghi per far sì che gli effetti di rete si diffondano.
Assicurati di aggiungere gigibeltrame@substack.com ai tuoi contatti. In Gmail, trascina questa newsletter nella tua scheda principale.
Grazie per aver letto questa newsletter, le trovi tutte a questo link.
💁♂️ La Bio
👍 Seguimi su:
Magazine • LinkedIn • Instagram • Facebook • Youtube
Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.
Grazie per aver letto Techy di Gigi Beltrame! Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.
Andiamo incontro alla pausa pasquale, ma l’AI e l’innovazione non si fermano.
Iniziate a segnarvi il 20 maggio, che mi troverete all’AI Week, ma arriverò più avanti a dirvi cosa farò! Settimana prossima, salvo novità clamorose, non ci sarà Techy, pretendo che siate tutti a godervi la pasquetta!
Nel frattempo qui trovate la versione podcast automatica.
Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.
C’è una frase che sento ripetere molto spesso: l’AI sostituirà i sistemi aziendali.
Francamente, quando la sento sorrido e lancio uno sguardo di scherno. Martedì, in una conversazione, una persona che aveva detto la frase mi ha chiesto “perché non sei convinto, guarda che è così”.
La mia risposta è sempre la stessa, probabilmente qualcuno di voi che sta leggendo mi ha sentito pronunciarla o l’ha letta in qualche mio scritto: “l’AI si alimenta dei dati aziendali e, almeno per il momento, le applicazioni sono lo strumento migliore per creare e gestire questi dati”.
Ci sono poi due temi per nulla secondari: il costo dell’AI, che anche se decresce, ha un impatto per cui ogni “consiglio chiesto” costa parecchio, in secondo luogo deve rispettare le policy, del settore a cui appartiene all’azienda e dell’azienda stessa. Si tratta di processi operativi e di collegamenti e adattamenti. Di preciso, in che cosa l’AI, per come la conosciamo ora, anche quella agentica avanzata, potrebbe sostituire i software tradizionali?
Ho chiuso con questa frase: “Ma secondo te, perché le aziende di software si impegnano nel creare AI interne ai sistemi e agenti (Oracle da sola ne ha più di 400 per i propri prodotti)? Se pensassero di essere finiti venderebbero solo gli agenti e l’AI, non ti pare?
Attendo ancora una risposta ;) . Magari anche da te!
Una storica sentenza a Los Angeles ha condannato Meta e YouTube per negligenza nel design. La giuria ha stabilito che le piattaforme sono responsabili per l’architettura delle loro piattaforme, considerata progettata per creare dipendenza. Ciò significa che è l’algoritmo a decidere cosa mostrare per catturare l’attenzione, invece che i contenuti generati dagli utenti.
Non vi suona un po’ come quelle leggi europee che impongono un controllo e una responsabilità?
Lo so che c’è una parte scomoda: l’applicazione pratica delle varie leggi è complessa, specie per modelli e sistemi erogati via cloud extra-UE. Ma per aziende che vendono in Europa, poter dimostrare conformità by design può diventare un forte argomento commerciale verso clienti, dalle piccole aziende fino alle grandissime e alla PA.
OpenAI si trova in una situazione complessa dopo l’annuncio del progetto “Stargate” da 1400 miliardi di dollari, che ora è stato ridotto a 600 miliardi. La società non ha ancora un data center e dipende da Oracle, Microsoft e Amazon per il calcolo. La costruzione di nuove infrastrutture è un processo molto lungo, che può durare tra i tre e i dieci anni. Ora, OpenAI deve dimostrare di poter generare ricavi sostenibili per poter effettuare una possibile IPO e quindi si sta riposizionando lato bilancio, ma nel frattempo la concorrenza sui modelli si sta facendo molto agguerrita.
OpenAI punta a passare da circa 4.500 a 8.000 dipendenti entro fine 2026, con assunzioni soprattutto in ingegneria, ricerca e vendite, secondo il Financial Times. Il piano arriva mentre Microsoft, Nvidia e Amazon stanno trattando per investire decine di miliardi nel maxi-round da 100 miliardi di dollari dell’azienda alla base di ChatGPT.
Nel frattempo, Alphabet (Google), Amazon, Meta e Microsoft pianificano complessivamente fino a 650 miliardi di dollari di spesa in infrastrutture AI entro il 2026, tra data center, GPU e rete.
Una delle obiezioni che sento fare più spesso da chi fatica ad utilizzare Copilot è che “non funziona bene se non dentro le applicazioni di Office e preferisco usare ChatGPT”. Ovviamente Copilot usa gli stessi modelli di ChatGPT, ma il suo funzionamento era mitigato, nel senso che il prompt veniva “interpretato” per ridurre il numero di token usati e questa modifica aveva un impatto sulle risposte. L’azienda, dal canto suo, è concentrata sui propri prodotti ed era normale che funzionasse così. Sembra che questo approccio stia cambiando radicalmente, un po’ con l’apertura ad altri modelli LLM, un po’ per un passaggio a funzioni agentiche che in tanti forum si vociferano. Insomma, anche Copilot non è più quello di una volta e, per esempio, l’integrazione in Windows sarà sempre più spinta (ma è sempre un prodotto di punta dell’azienda). Vedremo.
Arm annuncia il cambiamento strategico di produrre direttamente chip, abbandonando il modello di licenza dei propri design. La prima CPU, Arm AGI, è destinata a server ad alte prestazioni e applicazioni di intelligenza artificiale agentica. Prodotta da TSMC con processo 3 nm e si integra con altri chip nei data center per gestire compiti agentici. Arm sostiene che sarà la CPU più efficiente per queste applicazioni. Sono inclusi primi clienti come Meta, OpenAI e SK Telecom. La produzione completa è prevista entro la seconda metà del 2026.
Ipazia, una boutique tecnologica milanese fondata nel 2021 da Giorgio Alverà, ha sorprendentemente superato i modelli di punta di Google e OpenAI nel benchmark WorkArena++. In questo contesto, i modelli linguistici sono valutati non solo sulla loro capacità di generare testi, ma anche di eseguire processi di business complessi come navigare liste prodotti, ordinare articoli e recuperare dati da database. I risultati sono sorprendenti: Ipazia ha ottenuto un punteggio del 90,3%, mentre Gemini-3 Flash di Google raggiungeva l’86,1%, GPT-5 di OpenAI l’79,1% e Claude-4-Sonnet di Anthropic solo il 63,3%.
La neuroscienza si affronta da decenni un grande ostacolo: la necessità di nuove registrazioni di attività cerebrale per ogni nuovo esperimento. Questo rallenta, rende costoso e complesso comprendere meccanismi cerebrali. Meta ha presentato TRIBE v2, un modello di base digitale che riflette l’attività cerebrale umana in risposta a visione, suono e linguaggio, trasformando mesi di lavoro di laboratorio in secondi di calcolo. Il modello, a tre stadi, predice attività cerebrale utilizzando: codifiche multimodalistiche per catturare le caratteristiche condivise tra modelli di IA e cervello umano; processamento tramite un trasformatore che apprende rappresentazioni universali comuni a tutte le stimolazione, compiti e individui; mappatura del cervello che traduce queste rappresentazioni in individui su voxel fMRI, 3D pixel.
Mark Zuckerberg starebbe testando un assistente virtuale personale, un agente AI, per supportarlo nella direzione di Meta, come riportato dal Wall Street Journal. L’obiettivo è trasformare l’azienda in un’entità tecnologicamente autonoma, con l’intelligenza artificiale come motore organizzativo, riducendo la necessità di team intermediari e aumentando l’automazione.
La società ha annunciato la chiusura di Horizon Worlds VR, un progetto chiave per il Metaverso, solo per poi ricredersi e riconsiderare la decisione.
L’attuale aumento del prezzo dei componenti RAM è un problema per molti. Per mitigarlo, stiamo introducendo un nuovo sistema di ottimizzazione della memoria ComfyUI chiamato Dynamic VRAM. Questo sistema rivoluziona la gestione delle pesi dei modelli, rendendo l’esperienza più fluida anche per i utilizzi con hardware a bassa capacità di memoria. Tra le novità ci sono una riduzione dei consumi di RAM, la scomparsa degli errori OOM e tempi di caricamento più rapidi.
Google Research ha sviluppato un nuovo algoritmo chiamato TurboQuant che risolve un problema chiave dell’AI generativa: la memoria. Grazie a questo innovativo approccio, i modelli AI possono essere resi 8 volte più veloci e consumare 6 volte meno spazio senza compromettere l’accuratezza. Il segreto di quest’impareggiabile performance sta nella compressione dei vettori di numeri utilizzati dai modelli AI da 32 valori a soli 3, riducendo lo spazio occupato da un sesto. Questo è possibile grazie alla rappresentazione dei vettori come coordinate polari, anziché salvare ogni coordinata precisa. Le implicazioni di questo innovativo metodo sono enormi e possono portare a un utilizzo più efficiente delle risorse, a modelli AI eseguibili in locale con maggiore sicurezza e a costi più tollerabili per le memorie.
Gemini 3.1 Flash Live, il nuovo modello per agenti conversazionali in tempo reale, è ora disponibile in anteprima tramite l’API Live di Google AI Studio. Questo upgrade migliora la latenza, la affidabilità e la qualità del dialogo naturale, permettendo ai sviluppatori di creare agenti vocali e visivi in tempo reale capaci di comprendere il mondo e rispondere rapidamente.
L’europea Mistral ha rilasciato un nuovo modello di Text-to-Speech (TTS) chiamato Voxtral, un modello da 4B di parametri open-source che sta dando battaglia ai leader di mercato. È incredibile quanto sia veloce: necessita solo di 3 secondi di audio per clonare una voce. La sua superiorità rispetto alle altre tecnologie è evidente: batte ElevenLabs con un win-rate del 68,4% e ha un’architettura ibrida che combina il decoding autoregressivo e il flow-matching per creare suoni naturali senza la “bronchite” robotica. È multilingua e supporta già 9 lingue con ottimi risultati. Un nuovo game-changer del mondo dell’AI?
Cohere annuncia Transcribe, un modello di riconoscimento della parola automatica (ASR - Automatic Speech Recognition) di ultima generazione disponibile gratuitamente per il download. L’obiettivo era migliorare la precisione del modello ASR in condizioni pratiche, mantenendo disponibilità e basso consumo di risorse. Transcribe è quindi disponibile in open source, con pieno controllo dell’infrastructure, piccoli footprint di inferenza, alta efficienza di servizio e integrazione via Model Vault, il platform di inferenza gestito da Cohere. Transcribe risulta primo nella classifica ASR di HuggingFace, stabilendo un nuovo benchmark per la precisione nella trascrizione della parola. Ovviamente c’è l’italiano.
Il metaverso è morto, dice qualcuno, eppure sta influenzando tantissime applicazioni. Per esempio, WorldAgents utilizza un’architettura multi-agente per creare mondi 3D coerenti a partire da modelli 2D. La sintesi è affidata a tre agenti: il Direttore elabora le mosse, il Generatore crea nuove prospettive, il Verificatore seleziona e cura le immagini da entrambi lo spazio 2D e 3D.
A Shanghai, un McDonald’s ha introdotto robot umanoidi dietro il bancone per servire i clienti e gestire alcune fasi del servizio, sviluppati da Keenon Robotics.
Vi lascio questo video, giusto per capire che direzione sta prendendo la robotica applicata.
Ecco di cosa abbiamo parlato in questa puntata:
🏭 Industrial AI e Fabbriche Autonome Insieme a Floriano Masoero (CEO di Siemens Italia), abbiamo approfondito come l'intelligenza artificiale stia diventando il vero "sistema operativo" dell'industria.
Dalla Physical AI alla manutenzione predittiva, scopriamo come la tecnologia democratica stia rendendo le aziende più veloci e sostenibili.
☁️ Sovranità Digitale e Cloud Europeo Con Damian Lucas di Scalaway (gruppo Iliad), facciamo il punto sull'infrastruttura cloud a Milano.
Perché è fondamentale per le aziende italiane affidarsi a un provider europeo immune da leggi extraterritoriali e capace di reinvestire il valore nel nostro ecosistema?
📱 Hardware e AI: Il nuovo Pixel 10A Torna Giovanni Bergamaschi (Google) per presentarci il nuovo dispositivo di fascia media che punta tutto su sicurezza (grazie al chip Tensor G4), sostenibilità e una totale integrazione con l'ecosistema Gemini.
🏠 Investimenti Immobiliari 3.0 Infine, entriamo nel mondo Fintech con il team di Piece: Riccardo Momigliano (Co-founder), Luigi Radicati di Brozolo (Head of Product) e Jader Manno (Growth Marketing Sales Leader).
Scopriamo come la blockchain e la tokenizzazione permettano di investire in immobili a reddito partendo da soli 100€, in modo trasparente e sicuro.re viaggiatori simili a te direttamente sul posto.
Versione su Youtube con i capitoli.
Faccio molta fatica a fare le mie live alle 11:00 e credo che anche questa settimana sarà dura…
Le puntate registrate le trovate qui.
Se non vi siete ancora iscritti, fatelo, mi permettete di comprendere che apprezzate il mio lavoro (qui trovi i miei libri, tra cui “Dati & AI” che riscuote sempre successo).
Più persone la leggono, meglio è, quindi, per favore, condividilo con la tua famiglia, amici e colleghi per far sì che gli effetti di rete si diffondano.
Assicurati di aggiungere gigibeltrame@substack.com ai tuoi contatti. In Gmail, trascina questa newsletter nella tua scheda principale.
Grazie per aver letto questa newsletter, le trovi tutte a questo link.
Se ti va, contattami a questo link!
💁♂️ La Bio
👍 Seguimi su:
Magazine • LinkedIn • Instagram • Facebook • Youtube
Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.
Grazie per aver letto Techy di Gigi Beltrame! Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.
Grazie per aver letto Techy di Gigi Beltrame! Iscriviti gratuitamente per ricevere nuovi post e supportare il mio lavoro.