TESI E TIROCINI
IN LIQUID REPLY

Proposte per laureandi triennali e magistrali,
delle facoltà legate al mondo dell'informatica.

STAI CERCANDO UNA POSSIBILITÀ DI TESI O TIROCINIO E VORRESTI ACQUISIRE UNA CONOSCENZA PIÙ APPROFONDITA DEL MONDO LAVORATIVO?


Maximizing IT Efficiency: Leveraging Generative AI for Process Automation in a Multicloud Environment

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Nel complesso panorama dell'IT, gestire processi su più piattaforme cloud rappresenta una sfida. L'automazione gioca un ruolo fondamentale nell'ottimizzazione dell'utilizzo delle risorse, garantendo scalabilità e mantenendo operazioni senza interruzioni nel contesto dinamico degli ambienti multicloud. L'IA generativa introduce un cambiamento di paradigma trasformativo nell'automazione multicloud. A differenza dei metodi tradizionali, l'IA generativa si adatta dinamicamente agli ambienti mutevoli, migliorando l'adattabilità e l'intelligenza nel processo decisionale. Rivoluziona l'automazione apprendendo autonomamente dai dati, prevedendo schemi e ottimizzando i processi multicloud.

OBIETTIVO

Il tirocinio si concentra sull'implementazione pratica dell'IA generativa nell'automazione multicloud. Gli obiettivi includono la valutazione della sua efficacia nell'allocazione delle risorse, l'analisi della sua adattabilità in diversi scenari multicloud e la fornitura di informazioni utili per i professionisti IT per migliorare l'efficienza e la resilienza nelle operazioni multicloud.

TECNOLOGIE

Modelli GPT, Red Hat OpenShift, Red Hat Ansible, Red Hat Ansible Lightspeed, Terraform

COSA CERCHIAMO

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

COSA IMPARERAI

Architetture di infrastruttura cloud-native, automazione dell'infrastruttura, utilizzo dell'IA generativa nel panorama IT

Optimizing the Software Development Lifecycle with a GENERATIVE AI

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Il ciclo di vita dello sviluppo software (SDLC) è una metodologia strutturata che guida l'intero processo di creazione del software, dalla concezione alla distribuzione e manutenzione. Comprende fasi come pianificazione, progettazione, implementazione, testing e manutenzione, garantendo un approccio sistematico ed efficiente allo sviluppo del software.

Adattare l'SDLC per agenti intelligenti comporta affrontare le sfide uniche presentate dai sistemi guidati dall'IA. Questo approccio specializzato considera fattori come lo sviluppo iterativo per algoritmi in evoluzione, l'integrazione continua dei modelli di machine learning e l'incorporazione di cicli di feedback per migliorare l'adattabilità degli agenti intelligenti.

OBIETTIVO

Questo tirocinio si concentra sull'ottimizzazione del ciclo di vita dello sviluppo software (SDLC) per agenti intelligenti in un contesto multicloud. L'obiettivo è sviluppare un framework completo che si integri perfettamente con più piattaforme cloud. Inoltre, lo stage mira a sfruttare l'automazione per migliorare le varie fasi del SDLC, inclusi l'integrazione continua, il deployment e il testing.

TECNOLOGIE

Modelli GPT, Docker, Jenkins, Red Hat Ansible, GitLab

COSA CERCHIAMO

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

COSA IMPARERAI

Architetture di infrastruttura cloud-native, automazione dell'infrastruttura, utilizzo dell'IA generativa nel panorama IT, DevOps and CI/CD Automation

Platform Engineering Strategies for the Success of Digital Services in multicloud

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

L'ingegneria delle piattaforme è una disciplina che si occupa della progettazione, sviluppo e gestione di infrastrutture tecnologiche complesse, note come piattaforme, sulle quali vengono forniti servizi digitali. Queste piattaforme fungono da fondamenta per la creazione e il deployment di applicazioni software, garantendo scalabilità, sicurezza, disponibilità e gestione efficiente delle risorse digitali. L'ingegneria delle piattaforme si concentra sull'ottimizzazione delle architetture e dei processi per fornire servizi digitali affidabili e ad alte prestazioni, adattabili alle mutevoli esigenze del mercato e degli utenti.

La tesi si concentrerà sull'analisi e lo sviluppo di strategie di ingegneria delle piattaforme in un contesto multicloud, con l'obiettivo di ottimizzare l'efficacia dei servizi digitali. Esaminerà come progettare e implementare un'infrastruttura tecnologica che promuova la scalabilità e la resilienza dei servizi offerti attraverso piattaforme digitali distribuite su più cloud. La tesi esplorerà le migliori pratiche e metodologie specifiche per gestire in modo efficiente le sfide e le opportunità in un ambiente multicloud, con particolare attenzione alla soddisfazione del cliente e alla competitività sul mercato.

OBIETTIVO

L'obiettivo di questa tesi è proporre strategie di ingegneria delle piattaforme efficienti per ottimizzare i servizi digitali in un ambiente multicloud. Questo comporta la progettazione e l'implementazione di infrastrutture che migliorino la scalabilità e la resilienza su più piattaforme cloud, esplorando al contempo le migliori pratiche per gestire sfide e opportunità in questo contesto

TECNOLOGIE

Kubernetes, terraform, Jenkins,ArgoCD

COSA CERCHIAMO

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

COSA IMPARERAI

Architetture di infrastruttura cloud-native, DevOps and CI/CD Automation

AI BASED MODERNIZATION

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Secondo i recenti trend di mercato, la maggior parte delle organizzazioni ha già delineato una strategia di migrazione in cloud, prevedendo che il 70% dei workloads saranno in Cloud entro il 2024, per migliorare la scalabilità dei servizi ed ottimizzarne i costi di gestione, cogliendo i benefici derivanti da modelli architetturali ed infrastrutturali agili.
Ciò nonostante, uno dei maggiori ostacoli della cloud-journey è modernizzare complesse applicazioni monolitiche, spesso denominate “New Legacy”: si tratta di applicazioni mediamente recenti (es. Java EE Monolitiche, realizzate nei passati 3-5-10 anni) che tipicamente presentano limiti in termini di reattività al cambiamento: flessibilità, scalabilità e time-to-market.
Tuttavia, quando si parla di modernizzazione, la maggior parte dei team di sviluppo non ha idea di dove partire. In aggiunta, una recente analisi di mercato ha rivelato che il 79% dei progetti di modernizzazione falliscono, con un costo di 1.5 milioni e 16 mesi di lavoro. Esistono piattaforme che guidano e supportano la modernizzazione attraverso l’analisi statica, analisi dinamica e algoritmi di IA, trasformando automaticamente complesse applicazioni monolitiche in microservizi.
Inoltre, la recente popolarità acquisita da modelli di linguaggio molto grandi (Large Language Models, o LLM) ha aperto nuove prospettive per l'applicazione di intelligenza artificiale nell'ambito enterprise. I modelli LLM, come GPT-3 e successivi, hanno dimostrato la loro capacità di comprendere e generare testo in modo coerente e semantico, offrendo opportunità uniche per automatizzare e migliorare il processo di modernizzazione del software.

OBIETTIVO

L’obiettivo della tesi è quello di sviluppare una pipeline di strumenti basati su intelligenza artificiale, con particolare enfasi sui modelli LLM, per accelerare la modernizzazione delle applicazioni legacy e migliorare la qualità del codice risultante.

TECNOLOGIE

Questa pipeline sarà progettata per affrontare diverse sfide chiave:

  • Scalabilità a livello enterprise: Sarà fondamentale creare un sistema che possa essere adattato alle esigenze specifiche di grandi organizzazioni, garantendo la gestione efficiente di un gran numero di applicazioni legacy e la scalabilità delle risorse computazionali necessarie per l’analisi e la generazione automatica di codice.
  • Vincoli relativi alla privacy e alla sicurezza dei dati: L’impiego di modelli di intelligenza artificiale potrebbe comportare la manipolazione di dati sensibili. Sarà cruciale sviluppare meccanismi di protezione dei dati e garantire la conformità alle normative sulla privacy.
  • Performance dei modelli LLM: La scelta dei modelli LLM appropriati e l'ottimizzazione delle loro prestazioni per il contesto specifico dell'analisi e della generazione di codice sarà una sfida importante. Sarà necessario valutare attentamente le prestazioni e l'efficacia dei modelli LLM disponibili e adottare strategie per migliorare la loro efficienza.

COSA CERCHIAMO

Ci piacerebbe molto averti a bordo se:

  • Sei appassionato di tematiche AI e innovative;
  • Ti interessano nuovi pattern infrastrutturali, come sistemi ibridi ed architetture a microservizi;
  • Sei curioso di approfondire come gestire, in scenari reali, le necessità di rimodernizzazione relative all’adozione di una strategia multi-cloud.

HOW GEN-AI CAN SUPPORT API MANAGEMENT

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Le sempre più diffuse architetture a microservizi hanno reso di cruciale importanza l'esposizione sicura verso l'esterno dei servizi tramite API, rendendo le soluzioni di API Management sempre più diffuse tra le organizzazioni. In parallelo, l'avvento della Gen-AI ha segnato una svolta radicale in moltissimi settori.
In questo contesto, la tesi proposta vuole analizzare e testare come l'AI Generativa può essere applicata relativamente all' API Management.
Il lavoro consisterà in:

  • Analisi approfondita, ed ideazione, delle possibili applicazioni della Gen-AI all' API Management.
  • Design e testing in ambiente di laboratorio delle soluzioni identificate.
  • Enumerazione e testing delle soluzioni già messe a disposizione dai principali vendor (e.g. Google Duet AI integrato nell' API Gateway APIGEE per il design delle API tramite linguaggio naturale (cloud.google.com/blog/products/api-management/introducing-duet-ai-in-apigee-api-management-and-application-integration).

OBIETTIVO

Svolgere un lavoro teorico e pratico volto a: formalizzare le applicazioni della Gen-AI all' API Management; valutarne i possibili impatti (e.g. riduzione del carico di lavoro, ottimizzazione costi); enumerare e testare le soluzioni commerciali già a disposizione.

TECNOLOGIE

Prodotti API Gateway, strumenti di Gen-AI, Postman, SSH, Linux , strumenti di analisi e rappresentazione dati

COSA CERCHIAMO

Predisposizione per le tematiche di sicurezza e le architetture a microservizi, Scripting

COSA IMPARERAI

HTTP, TCP/IP, Access Security in ambito multicanale distribuito, Gen-AI applicato all' API Management.

UNLEASHING THE POWER OF GENERATIVE AI IN TOOL MIGRATION FOR ENHANCED SECURITY

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

L'implementazione di tecnologie basate sull'IA in ambito di sicurezza informatica è un argomento che attira sempre più l'attenzione, poiché le aziende cercano costantemente di migliorare la gestione degli accessi e di rafforzare la sicurezza delle loro risorse digitali. Fanno parte di questo processo anche i nuovi tool per l'Access Management, in continua evoluzione. Questi tool permettono agli applicativi un accesso sicuro e controllato, fornendo diversi strumenti per l'autenticazione degli utenti.
La migrazione dei sistemi più obsoleti verso quelli moderni non è però priva di sfide e ostacoli, portando le aziende ad avere forti rallentamenti nell'adozione di sistemi sicuri ed efficaci. Si ritiene dunque fondamentale studiare a fondo la possibilità di utilizzare la generative AI per semplificarne il processo di migrazione.

OBIETTIVO

La tesi ha l’obiettivo di approfondire lo studio dei sistemi di gestione degli accessi andando ad individuare i punti in cui la generative AI potrebbe apportare benefici qualora si avviasse un processo di migrazione di questi sistemi. Il candidato effettuerà una analisi costi benefici e proverà ad implementare almeno un caso d’uso funzionante. Tutto questo lavoro sarà supportato dagli esperti di access management che guideranno il candidato durante il percorso.

TECNOLOGIE

Docker, OpenAI, LangChain, SQL, programmazione Java/Python

COSA CERCHIAMO

Conoscenze basilari di intelligenza artificiale, prompting, programmazione java e python, sicurezza (protocolli SAML/OIDC).

COSA IMPARERAI

Conoscenza approfondita di scenari di implementazione di generative AI e delle tematiche di sicurezza con particolare riguardo verso l'access management. Conoscenze dei temi di integrazione e implementazione di casi reali nel mondo del lavoro.

ENHANCE IDENTITY GOVERNANCE WITH GENERATIVE AI

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Si parla di multi-cloud quando un'organizzazione utilizza e orchestra più di una piattaforma cloud per fornire servizi applicativi. La gestione dei DNS e dei percorsi può essere difficile in un ambiente multi-cloud senza l'integrazione di uno strumento di terze parti.

OBIETTIVO

Durante lo stage il candidato lavorerà all'implementazione di un'infrastruttura multi-cloud con una soluzione DNS multi-cloud e network traffic route orchestrator che integra l'AI per l'ottimizzazione della rete in tempo reale sia sul carico di rete che sul costo della rete cloud. La sfida principale consiste nello sviluppare un orchestratore AI di rete multi-cloud ad alte prestazioni che utilizzi gli strumenti nativi del CSP e i feedback di monitoraggio per ottimizzare il traffico di rete attraverso la gestione delle tabelle di routing VPC/Vnet. L'obiettivo è creare una solida infrastruttura multi-cloud con l'integrazione dell'intelligenza artificiale per l'ottimizzazione dei percorsi, con conseguente riduzione della latenza, miglioramento delle capacità di failover e ottimizzazione dei costi. Il progetto misurerà il successo attraverso indicatori di performance chiave come la riduzione dei tempi di risposta, il risparmio sui costi e il miglioramento dell'affidabilità della rete.

COSA CERCHIAMO

Sistema operativo Linux, linguaggi di programmazione moderni, cloud computing

COSA IMPARERAI

Architetture infrastrutturali multi-cloud e strategie di fornitura multi-cloud.

MULTICLOUD NETWORK TRAFFIC ORCHESTRATION - MULTICLOUD ROUTE AI OPTIMIZATION

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Si parla di multi-cloud quando un'organizzazione utilizza e orchestra più di una piattaforma cloud per fornire servizi applicativi. La gestione dei DNS e dei percorsi può essere difficile in un ambiente multi-cloud senza l'integrazione di uno strumento di terze parti.

OBIETTIVO

Durante lo stage il candidato lavorerà all'implementazione di un'infrastruttura multi-cloud con una soluzione DNS multi-cloud e network traffic route orchestrator che integra l'AI per l'ottimizzazione della rete in tempo reale sia sul carico di rete che sul costo della rete cloud. La sfida principale consiste nello sviluppare un orchestratore AI di rete multi-cloud ad alte prestazioni che utilizzi gli strumenti nativi del CSP e i feedback di monitoraggio per ottimizzare il traffico di rete attraverso la gestione delle tabelle di routing VPC/Vnet. L'obiettivo è creare una solida infrastruttura multi-cloud con l'integrazione dell'intelligenza artificiale per l'ottimizzazione dei percorsi, con conseguente riduzione della latenza, miglioramento delle capacità di failover e ottimizzazione dei costi. Il progetto misurerà il successo attraverso indicatori di performance chiave come la riduzione dei tempi di risposta, il risparmio sui costi e il miglioramento dell'affidabilità della rete.

COSA CERCHIAMO

Sistema operativo Linux, linguaggi di programmazione moderni, cloud computing

COSA IMPARERAI

Architetture infrastrutturali multi-cloud e strategie di fornitura multi-cloud.

COST OPTIMIZATION STRATEGIES FOR CLOUD INFRASTRUCTURE USING GENERATIVE AI

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

L'adozione diffusa dei servizi cloud ha trasformato il modo in cui le organizzazioni gestiscono la propria infrastruttura IT. I principali fornitori di servizi cloud (CSP) come AWS, Azure e Google Cloud offrono soluzioni scalabili e flessibili, ma i costi associati possono aumentare rapidamente. L'AI generativa (GenAI) è emersa come un potente strumento con il potenziale di analizzare e ottimizzare questi costi attraverso analisi predittive e raccomandazioni automatizzate.

OBIETTIVO

L'obiettivo di questa tesi è utilizzare modelli GenAI per ottimizzare i costi dell'infrastruttura cloud per le organizzazioni che utilizzano i principali CSP. La ricerca mira a fornire un quadro completo che le organizzazioni possono adottare per migliorare la gestione dell'infrastruttura cloud minimizzando i costi.
Sfide:

  • Integrare i modelli GenAI con i sistemi di gestione del cloud esistenti.
  • Garantire l'accuratezza e l'affidabilità delle previsioni e delle raccomandazioni GenAI.
  • Bilanciare l'ottimizzazione dei costi con i requisiti di performance e scalabilità.
  • Affrontare le questioni di sicurezza e conformità relative ai dati e ai modelli di IA nel cloud.

Il candidato condurrà un'indagine dettagliata su come l'IA generativa possa essere utilizzata per ottimizzare i costi dell'infrastruttura cloud. Ciò comporterà la progettazione di una soluzione di GenAI, integrandola con gli strumenti di gestione del cloud e convalidandone l'efficacia attraverso casi di studio. Il candidato dovrà inoltre fornire approfondimenti e raccomandazioni per le aziende sull'implementazione di queste misure di risparmio.

TECNOLOGIE

Piattaforme cloud (AWS, Azure, Google Cloud), framework di intelligenza artificiale generativa, strumenti di analisi dei dati.

COSA CERCHIAMO

Competenze di programmazione (Python), Cloud Computing, Analisi dei dati.

COSA IMPARERAI

Ottimizzazione dei costi del cloud, Data Analytics, competenze avanzate di GenAI applicate alle infrastrutture del cloud

AUTOMATED IAC COVERAGE USING GEN AI

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

L'adozione diffusa dei servizi cloud ha trasformato il modo in cui le organizzazioni gestiscono la propria infrastruttura IT. I principali fornitori di servizi cloud (CSP), come AWS, Azure e Google Cloud, offrono servizi scalabili e flessibili.
AWS, Azure e Google Cloud offrono servizi scalabili e flessibili, ma la complessità di gestione associata può aumentare rapidamente. L'IA generativa (GenAI) è emersa come un potente strumento in grado di analizzare e ottimizzare l'implementazione e la gestione degli ambienti IT.

OBIETTIVO

L'obiettivo di questa tesi è utilizzare i modelli GenAI per ottimizzare la fornitura e la gestione dell'infrastruttura cloud per le organizzazioni che utilizzano i principali CSP. La ricerca mira a fornire un quadro completo che le organizzazioni possono adottare per automatizzare l'adozione dell'infrastruttura come codice (IaC).
Sfide:

  • Integrare i modelli GenAI con i sistemi di gestione del cloud esistenti.
  • Garantire l'accuratezza e l'affidabilità delle previsioni e delle raccomandazioni di GenAI.
  • Creare un framework per automatizzare la copertura IaC per i servizi CSP.

Il candidato condurrà un'indagine dettagliata su come l'IA generativa possa essere utilizzata per ottimizzare la gestione dell'infrastruttura cloud. Ciò comporterà la progettazione di una soluzione GenAI, la sua integrazione con gli strumenti di gestione del cloud e la convalida dell'efficacia attraverso casi di studio. Il candidato fornirà inoltre approfondimenti e raccomandazioni praticabili per le aziende sull'implementazione della soluzione.

TECNOLOGIE

Piattaforme cloud (AWS, Azure, Google Cloud), strutture AI generative.

COSA CERCHIAMO

Competenze di programmazione (Python), Cloud Computing

COSA IMPARERAI

IaC, Cloud Computing, competenze avanzate di GenAI applicate alle infrastrutture cloud.

BUSINESS CONTINUITY USING AI

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

L'adozione diffusa dei servizi cloud ha cambiato il modo in cui le organizzazioni gestiscono la propria infrastruttura IT. I principali fornitori di servizi cloud (CSP), come AWS, Azure e Google Cloud offrono servizi scalabili e flessibili, ma la disponibilità delle applicazioni associate può essere lasciata al cliente finale. IA generativa (GenAI) è emersa come un potente strumento con il potenziale per analizzare e ottimizzare la resilienza e la disponibilità degli ambienti IT.

OBIETTIVO

L'obiettivo di questa tesi è utilizzare i modelli GenAI per ottimizzare la disponibilità e la gestione dell'infrastruttura cloud per le organizzazioni che utilizzano i principali CSP. Si procederà alla creazione di un agente che utilizza i dati acquisiti, a runtime, a livello infrastrutturale ed applicativo per generare in output azioni da intraprendere in modo preventivo, quali creazione di nuove risorse, bilanciamento del carico, ecc., per garantire la disponibilità dei servizi.
Sfide:

  • Integrare i modelli GenAI con i sistemi di gestione del cloud esistenti.
  • Garantire l'accuratezza e l'affidabilità delle previsioni e delle raccomandazioni di GenAI.
  • Creare un framework per automatizzare la copertura IaC per i servizi CSP.

Il candidato condurrà un'indagine dettagliata su come l'IA generativa possa essere utilizzata per ottimizzare la disponibilità dell'infrastruttura cloud. Ciò comporterà la progettazione di una soluzione GenAI, la sua integrazione con gli strumenti di gestione del cloud e la convalida dell'efficacia attraverso casi di studio. Il candidato fornirà inoltre approfondimenti e raccomandazioni praticabili per le aziende sull'implementazione della soluzione.

TECNOLOGIE

Piattaforme cloud (AWS, Azure, Google Cloud), strutture AI generative.

COSA CERCHIAMO

Competenze di programmazione (Python), Cloud Computing

COSA IMPARERAI

IaC, Cloud Computing, competenze avanzate di GenAI applicate alle infrastrutture cloud.