Media Key

SNOWFLAKE E MISTRAL AI COLLABORANO PER OFFRIRE AVANZATI MODELLI LINGUISTICI ALLE IMPRESE TRAMITE SNOWFLAKE CORTEX

Snowflake, la Data Cloud company, e Mistral AI, uno dei principali fornitori europei di soluzioni AI, hanno stretto una partnership mirata a portare i modelli linguistici più potenti di Mistral AI direttamente ai clienti di Snowflake nel Data Cloud. Tramite questo accordo pluriennale, che include un investimento parallelo su Mistral da parte di Snowflake Ventures, Mistral AI e Snowflake forniranno le funzionalità di cui le aziende hanno bisogno per utilizzare senza problemi tutta la potenza degli LLM, garantendo al contempo sicurezza, privacy e governance dei dati.

Grazie alla partnership, i clienti Snowflake hanno accesso al più recente e potente LLM di Mistral AI, Mistral Large, identificato dai benchmark come uno dei modelli più performanti al mondo. Al di là di questi risultati, il nuovo modello ha capacità di ragionamento uniche, è abile nella codifica e nella matematica e parla correntemente cinque lingue - francese, inglese, tedesco, spagnolo e italiano - in linea con l’impegno di Mistral AI nel promuovere le specificità culturali e linguistiche della tecnologia AI generativa. Inoltre, è in grado di elaborare centinaia di pagine di documenti in un’unica istanza. In aggiunta, i clienti di Snowflake hanno accesso a Mixtral 8x7B, il modello open source di Mistral AI che supera GPT3.5 di OpenAI in velocità e qualità nella maggior parte dei benchmark, e a Mistral 7B, il primo modello di Mistral AI ottimizzato per una bassa latenza con ridotte necessità di memoria e un elevato throughput per le sue dimensioni. I modelli di Mistral AI sono disponibili in public preview per i clienti in quanto parte di Snowflake Cortex, il servizio di ricerca vettoriale e LLM completamente gestito di Snowflake che consente di accelerare le analisi e creare rapidamente app di AI in modo sicuro con i dati aziendali.

“Grazie alla collaborazione con Mistral AI, Snowflake permette ai propri clienti di accedere direttamente a uno dei più potenti LLM presenti sul mercato, garantendo a tutti gli utenti la possibilità di costruire app avanzate, basate sull’AI, con semplicità e su ampia scala”, dichiara Sridhar Ramaswamy, CEO di Snowflake. “Con Snowflake come base affidabile per i dati, stiamo trasformando il modo in cui le aziende utilizzano la potenza degli LLM attraverso Snowflake Cortex, al fine di affrontare in maniera economicamente vantaggiosa i nuovi casi d’uso dell’AI dentro ii confini di sicurezza e privacy del Data Cloud”.

“Gli impegni di Snowflake in materia di sicurezza, privacy e governance sono in linea con l’ambizione di Mistral AI di offrire l’intelligenza artificiale a tutti rendendola accessibile ovunque. Mistral AI condivide i valori di Snowflake per lo sviluppo di modelli di intelligenza artificiale efficienti, utili e affidabili che fanno progredire il modo in cui le organizzazioni di tutto il mondo utilizzano la Gen AI”, aggiunge Arthur Mensch, CEO e co-fondatore di Mistral AI. “Rendendo i nostri modelli disponibili in Snowflake Data Cloud, siamo in grado di democratizzare ulteriormente l’intelligenza artificiale in modo che gli utenti possano creare applicazioni AI più sofisticate che generano valore su scala globale”.

In occasione dello Snowday 2023, Snowflake ha annunciato per la prima volta il supporto dei più avanzati LLM per compiti specializzati quali analisi del sentiment, traduzione e sintesi, oltre agli LLM di base - a partire dal modello Llama 2 di Meta AI - per casi d’uso come la Retrieval-Augmented Generation (RAG). Snowflake continua a puntare sulla Gen AI, collaborando con Mistral AI e facendo evolvere le suite LLM di base in Snowflake Cortex, fornendo alle organizzazioni un percorso facile per portare soluzioni di AI generativa all’avanguardia ovunque nel proprio business. Per offrire un’esperienza serverless che renda l’intelligenza artificiale accessibile a un’ampia gamma di utenti, Snowflake Cortex elimina i tempi lunghi del procurement e la complessa gestione dell’infrastruttura GPU, collaborando con NVIDIA per mettere a disposizione una piattaforma di elaborazione accelerata full-stack che sfrutta NVIDIA Triton Inference Server e altri strumenti.

Con Snowflake Cortex LLM Functions, gli utenti Snowflake possono sfruttare l’intelligenza artificiale tramite i propri dati aziendali per supportare un’ampia gamma di casi d’uso. Utilizzando funzioni specializzate, qualsiasi utente con competenze SQL può avvalersi di LLM di dimensioni contenute per affrontare senza grosse spese attività specifiche come analisi del sentiment, traduzione e sintesi in pochi secondi. Per i casi d’uso più complessi, gli sviluppatori Python possono passare dall’idea alle applicazioni AI full-stack, come i chatbot, in pochi minuti, combinando la potenza degli LLM di base - compresi gli LLM di Mistral AI in Snowflake Cortex - con elementi di chat, presto in public preview, all’interno di Streamlit in Snowflake. Questa esperienza semplificata vale anche per i RAG con le funzioni vettoriali e i tipi di dati vettoriali integrati in Snowflake, entrambi in public preview a breve, che garantiscono che questi dati non fuoriescano dal perimetro di sicurezza e governance di Snowflake.

Snowflake è impegnata a promuovere l’innovazione dell’AI non solo per i suoi clienti e per l’ecosistema del Data Cloud, ma anche per la più ampia comunità tecnologica. Infatti, ha recentemente aderito all’AI Alliance, una community internazionale di sviluppatori, ricercatori e organizzazioni dedicata alla promozione di un’intelligenza artificiale aperta, sicura e responsabile. Attraverso l’AI Alliance, Snowflake continuerà ad affrontare sia le sfide che le opportunità della Gen AI in modo completo e aperto, al fine di democratizzarne ulteriormente i vantaggi.