Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.
Sei alla ricerca di una tesi o di un tirocinio e, al tempo stesso, vuoi iniziare a conoscere meglio il mondo del lavoro?
Ti proponiamo i seguenti ambiti sperimentali (non per tesi compilative) dove potrai metterti alla prova lavorando su casi reali utilizzando le tecnologie più innovative, ed avere il supporto dei nostri esperti. Questa lista di proposte è in costante aggiornamento, qualora non riuscissi a trovare un titolo d'interesse, o la proposta non rispecchiasse a pieno la tua aspettativa, nessun problema, contattaci e cercheremo di trovare la soluzione più adeguata a te.
Sede: BOLOGNA/BARI | Durata 6 mesi | Scade il 30/06/2025
Contesto
Nel contesto dello sviluppo software, l'efficienza e la rapidità di implementazione sono fattori critici per il successo dei progetti. L'emergere di tecnologie di intelligenza artificiale offre nuove opportunità per l'automazione dei task di sviluppo, in particolare attraverso l'uso di agenti AI empowered. Questi agenti sono in grado di leggere e interpretare il contenuto di un task, comprendere gli impatti delle modifiche richieste sul codice esistente e procedere con implementazioni automatiche basate su analisi contestuali.
Obiettivi
L'obiettivo di questa tesi è progettare e sviluppare un sistema automatizzato che utilizzi agenti AI empowered per gestire i task di sviluppo a partire da requisiti funzionali e tecnici. Nella fase iniziale, si procederà a un'analisi approfondita delle tecnologie AI disponibili, con particolare attenzione alle capacità di elaborazione del linguaggio naturale e di analisi del codice. Successivamente, verrà realizzato un prototipo di agente AI in grado di interpretare le richieste, valutare le modifiche necessarie e implementarle autonomamente nel codice applicativo. L'efficacia del sistema sarà valutata attraverso metriche quali il tempo di implementazione, il tasso di errori post-implementazione e la soddisfazione degli sviluppatori. Questo progetto mira a dimostrare come l'automazione dei task di sviluppo possa migliorare la produttività e ridurre il carico di lavoro manuale, contribuendo a un ciclo di sviluppo più efficiente e reattivo.
Tecnologie
Github, Langchain, LangGraph, OpenAI, AWS, Bedrock, MCP (Model Context Protocol).
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 30/06/2025
Contesto
Nel contesto delle architetture a microservizi in ambienti cloud, la sicurezza e l'isolamento dei container costituiscono fattori cruciali, soprattutto nel caso di applicazioni multi-tenant o con elevati requisiti di sicurezza. Docker ha rivoluzionato lo sviluppo e il deploy delle applicazioni, ma la sua condivisione del kernel tra i container rappresenta una potenziale vulnerabilità. Kata Containers, una tecnologia emergente, combina la leggerezza dei container con l'isolamento avanzato delle macchine virtuali, offrendo una soluzione alternativa per migliorare la sicurezza.
Obiettivi
L'obiettivo di questa esperienza è confrontare le prestazioni e la sicurezza di Kata Containers rispetto a Docker nell'implementazione di architetture a microservizi. Nel corso di questo studio ci si focalizzerà sulla robustezza di questi due sistemi rispetto a tentativi di violazione della sicurezza, inclusi attacchi basati su tecniche di container escape, e si valuterà l’impatto dell’isolamento delle macchine virtuali di Kata Containers rispetto all'uso del kernel condiviso di Docker. Il confronto riguarderà anche fattori rilevanti quali prestazioni, utilizzo delle risorse e facilità di implementazione in ambienti cloud.
La sperimentazione prevede la realizzazione di due architetture identiche a microservizi, la prima eseguita su Docker e la seconda su Kata Containers, utilizzando Kubernetes per la gestione e l'orchestrazione dei container. Saranno individuate e monitorate metriche di performance quali tempi di avvio dei container, utilizzo di CPU e memoria, oltre alla risposta a tentativi di attacco simulati. Le analisi permetteranno di determinare quale tecnologia offra un miglior equilibrio tra sicurezza e performance per specifici casi d'uso.
Tecnologie
Kata Containers, Docker, Kubernetes, AWS, Prometheus, Grafana, Java, Spring Boot.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 30/06/2025
Contesto
Grazie alla loro semplicità e scalabilità, le API REST rappresentano uno standard consolidato per la comunicazione tra le varie componenti in architetture a microservizi. Tuttavia, l'emergere di GraphQL ha offerto nuove prospettive per un recupero dei dati più efficiente, specialmente in contesti dove la complessità delle query e l'over-fetching di informazioni rappresentano un problema. GraphQL permette di richiedere solo i dati necessari, riducendo così il traffico di rete e ottimizzando la comunicazione tra frontend e backend.
Obiettivi
Questo studio si propone di confrontare GraphQL e REST dal punto di vista dell'efficienza nel recupero dei dati in architetture a microservizi. L’obiettivo principale è valutare le prestazioni, l’efficacia nel ridurre l’over-fetching e l’impatto sui tempi di risposta in scenari reali. Sarà esaminata anche la facilità di adozione e integrazione di GraphQL rispetto a REST in applicazioni esistenti, nonché i potenziali vantaggi e svantaggi per gli sviluppatori e gli utenti finali.
La sperimentazione coinvolgerà lo sviluppo di due versioni di un’applicazione a microservizi, una che utilizza API REST tradizionali e una che implementa GraphQL. Entrambe le architetture verranno sottoposte a test di carico per valutare tempi di risposta, utilizzo delle risorse e volume di dati trasferiti. L’analisi si concentrerà anche sulla gestione della complessità delle query e sulla flessibilità di entrambe le soluzioni in scenari complessi con elevata personalizzazione delle richieste di dati.
Tecnologie
GraphQL, REST, AWS, Gatling, Apache JMeter, Prometheus, Grafana, Java, Spring Boot.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025
Contesto
In ingegneria dei requisiti, i requisiti non funzionali rappresentano i vincoli di funzionamento di un sistema, e.g., i vincoli di natura temporale, vincoli sul processo di sviluppo e sugli standard da adottare, e sono fondamentali nel determinare la qualità dei servizi forniti attraverso una soluzione software.
Le caratteristiche di run-time riferite ad un insieme di NFR dipendono dall'infrastruttura operativa in cui è stata implementata la soluzione. Quando si gestiscono più requisiti non funzionali in un sistema, possono sorgere conflitti causati da diversi fattori, e.g., cambiamenti nell'ambiente aziendale, modifiche all'infrastruttura operativa, e requisiti in evoluzione. Questi conflitti possono porre sfide significative e richiedono un’attenta considerazione per garantire che i requisiti non funzionali siano soddisfatti in modo ottimale. I conflitti tra requisiti non funzionali non individuati possono avere un impatto dannoso sulle prestazioni di un sistema operativo.
In "Minimizing conflicts among run-time non-functional requirements within DevOps" è stato proposto un framework per la minimizzazione dei conflitti tra requisiti non funzionali, con lo scopo di migliorare la qualità del software ed aumentare la produttività.
Obiettivi
Questa tesi ha lo scopo di:
individuare ed analizzare i requisiti non funzionali, ed i loro conflitti, richiesti da un applicativo aziendale;
indagare l'applicabilità del framework sopra menzionato in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.
Tecnologie
Java, Eclipse, Python, SQL Server.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025
Contesto
Alcune delle decisioni prese durante il flusso di valore tecnologico possono sfociare in errori software complessi, le cui possibili soluzioni vengono ridotte dal passare del tempo. Questo, a sua volta, fa sì che le organizzazioni dimostrino sempre più interesse nel gestire in modo efficiente il flusso di valore di un prodotto software.
In "Driving the Technology Value Stream by Analyzing App Reviews" è stato proposto un framework che analizza i riscontri degli utenti finali di un'applicazione software, che combina:
tecniche di sentiment analysis
un key phrase extraction model basato su un'architettura transformer-based
un topic recognition classifier di recensioni, con lo scopo di facilitare le organizzazioni a prendere delle decisioni per ottenere un alto grado di soddisfazione da parte degli utenti finali del software proposto.
Obiettivi
Questa tesi ha lo scopo di indagare l'applicabilità del framework sopra menzionato in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.
Tecnologie
Jupyter notebook, OpenAI account.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025
Contesto
Il codice sorgente spesso non viene documentato; questo porta ad un forte aumento del tempo dedicato alla risoluzione degli errori software, difficoltà nella manutenzione e nell'aggiornamento del codice, e talvolta anche il completo abbandono dello stesso.
"CoDescribe: An Intelligent Code Analyst for Enhancing Productivity and Software Quality" è un framework che utilizza transformer-based models e knowledge graphs per generare documentazione di codice sorgente, tra le altre cose.
Obiettivi
Questa tesi ha lo scopo di indagare l'applicabilità di CoDescribe in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.
Tecnologie
Python, OpenAI account.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Silea/Padova | Durata 3-6 mesi | Scade il 30/06/2025
Contesto
Nel campo dello sviluppo software, l'automazione dei test è essenziale per garantire la qualità e la stabilità delle applicazioni. Tuttavia, la creazione manuale di testcase può essere laboriosa e suscettibile di errori. In risposta a questa sfida, l'utilizzo dell'intelligenza artificiale (AI) per la generazione automatica di testcase rappresenta un'opportunità promettente. Questa tesi si propone di sviluppare un tool innovativo che, dato un input in linguaggio naturale, generi automaticamente delle specifiche compatibili con il processo di Behavior-Driven Development e generi degli script automatici sfruttando le capacità delle API di ChatGPT o un analogo modello di AI.
Obiettivi
L'obiettivo principale di questa tesi è lo sviluppo di un tool che consenta di generare testcase a partire da prompt espressi in linguaggio naturale. Il tool utilizzerà le API di ChatGPT o un framework simile per interpretare i prompt degli utenti e tradurli in specifiche Behavior-Driven Development (es. Cucumber). Successivamente sempre tramite AI si genereranno dei test automatici sotto forma di script eseguibili. Ti occuperai di:
Progettazione dell'Architettura del Tool: Si definirà l'architettura del tool, identificando i componenti necessari per l'interazione con le API di ChatGPT e l'esecuzione dei comandi.
Implementazione delle Funzionalità di Intelligenza Artificiale: Si studieranno modelli di linguaggio naturale e le API di ChatGPT o un analogo framework, per interpretare i prompt degli utenti.
Integrazione con il Generatore di Testcase: Si implementeranno le funzionalità per tradurre le istruzioni generate in script Behavior-Driven Development.
Scrittura dei test automatici: Tramite l'utilizzo dell'AI si implementeranno test automatici eseguibili.
Testing e Valutazione: Si condurranno test per valutare l'accuratezza e l'efficacia del tool nella generazione di testcase in base a prompt in linguaggio naturale.
Valutazione Comparativa: Si effettuerà un confronto con altri approcci disponibili per il test automation, valutandone l'efficienza e la manutenibilità.
Tecnologie
Cucumber, ChatGPT o equivalente.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Silea/Padova | Durata 3 mesi | Scade il 30/06/2025
Contesto
L'adozione crescente del paradigma serverless ha portato molte organizzazioni a considerare l'uso del Serverless Framework come uno strumento principale per lo sviluppo e il deployment delle loro applicazioni. Tuttavia, l'ambiente multicloud presenta sfide uniche in termini di portabilità delle applicazioni e gestione delle risorse. Questa tesi si concentra sull'indagine dell'efficacia del Serverless Framework in contesti multicloud, con particolare attenzione alla sua portabilità e alla gestione delle risorse.
Obiettivi
Analizzare le funzionalità e l'architettura del Serverless Framework e comprendere come si adatta agli ambienti multicloud.
Progettare e implementare un ambiente di sperimentazione multicloud utilizzando una selezione di provider cloud, come AWS e Azure.
Deployare applicazioni di esempio utilizzando il Serverless Framework su ciascuna piattaforma cloud selezionata.
Valutare la portabilità delle applicazioni sviluppate utilizzando il Serverless Framework tra i diversi fornitori di servizi cloud.
Esplorare le strategie e gli strumenti per la gestione delle risorse nell'ambiente multicloud utilizzando il Serverless Framework.
Tecnologie
Git, Serverless framework, Aws, Azure.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025
Contesto
Il presente lavoro di tesi si propone di analizzare e approfondire le tecniche più avanzate di risoluzione di problemi di ottimizzazione applicati alla gestione logistica dello spostamento merci, con un focus particolare sulle metodologie che prevedono l'aggiornamento parziale della soluzione. La logistica rappresenta una componente cruciale per il successo delle aziende, poiché influisce direttamente sull'efficienza operativa e sui costi complessivi. In un contesto caratterizzato da una crescente complessità delle reti di distribuzione e da una domanda sempre più esigente di tempi di consegna ridotti e di alta qualità del servizio, diventa essenziale adottare soluzioni innovative e ottimizzate.
Obiettivi
La tesi si suddivide in tre parti principali:
La prima parte prevede l’analisi teorica delle tecniche di ottimizzazione, con un focus particolare su algoritmi evolutivi, algoritmi di ottimizzazione basati su swarm intelligence, programmazione matematica avanzata e metodi di machine learning. Viene esplorata l'applicabilità di tali tecniche in diversi scenari logistici, con un'enfasi speciale sulle metodologie che consentono l'aggiornamento parziale della soluzione, permettendo di adattarsi in tempo quasi reale a variazioni dei dati e delle condizioni operative.
La seconda parte del lavoro approfondisce gli strumenti software open source attualmente disponibili per l'implementazione delle suddette tecniche di ottimizzazione. Vengono analizzati diversi software open source, mettendo in luce le funzionalità, le prestazioni e la facilità d'uso. Particolare attenzione viene riservata agli strumenti che integrano algoritmi di intelligenza artificiale e apprendimento automatico, nonché alle capacità di questi strumenti di gestire aggiornamenti parziali della soluzione in risposta a nuove informazioni o cambiamenti nei requisiti logistici.
Nella terza e ultima parte, verrà presentato come caso di studio l'applicazione pratica di una delle tecniche sopra discusse su un problema reale. Attraverso un'analisi dei risultati ottenuti, si valuterà quanto l'utilizzo di tecniche di ottimizzazione avanzate con aggiornamento parziale della soluzione abbia portato a miglioramenti significativi in termini di riduzione dei costi ed aumento dell'efficienza operativa.
Tecnologie
Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud, Python, Java.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025
Contesto
La Data Harmonization è un processo cruciale ma estremamente dispendioso in termini di tempo nella gestione dei dati, volto a creare un dataset coerente, accurato e completo a partire da fonti eterogenee. A questo si aggiunge l'importanza del Data Lineage, che garantisce la tracciabilità e la trasparenza del ciclo di vita dei dati. Questa tesi esplora l'applicazione innovativa dell'Intelligenza Artificiale Generativa, in particolare dei Large Language Models (LLMs), per automatizzare e ottimizzare i processi di Data Harmonization e Data Lineage.
Obiettivi
Gli LLMs hanno dimostrato notevoli capacità di comprensione e generazione del testo, rendendoli particolarmente adatti a gestire le complessità dell'armonizzazione dei dati e della tracciabilità delle loro trasformazioni. La ricerca indaga il potenziale degli LLMs nell'automazione delle principali fasi della Data Harmonization, compresa la standardizzazione, la pulizia e l'integrazione dei dati, nonché nel miglioramento della tracciabilità del Data Lineage attraverso l'analisi e la documentazione automatizzata delle trasformazioni dei dati.
Attraverso sperimentazioni e analisi comparative, si valuterà l'efficacia degli LLMs nel ridurre i tempi e i costi associati a questi processi, migliorando al contempo la qualità, l'affidabilità e la trasparenza dei dati armonizzati e tracciati. I risultati attesi potrebbero rappresentare un significativo avanzamento nelle pratiche di gestione dei dati, offrendo soluzioni più rapide, accurate e trasparenti per le organizzazioni che operano con grandi volumi di dati complessi.
Tecnologie
Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025
Big Data - AI Data Test Automation Framework
Contesto
L'evoluzione dell'Intelligenza Artificiale (AI) e della gestione dei dati ha aperto nuove opportunità per l'automazione dei test, specialmente nel contesto dei processi di estrazione, trasformazione e caricamento (ETL). Questa tesi propone la realizzazione di un framework innovativo, denominato AI Data Test Automation Framework, progettato per automatizzare e ottimizzare i test dei processi ETL.
Obiettivi
La tesi prevede lo studio e l’implementazione di tre principali funzionalità:
Generazione di Test Book dal Codice ETL: Il framework sarà in grado di analizzare automaticamente il codice ETL e generare un test book dettagliato, evidenziando le peculiarità dei test presenti nel codice, come i casi di edge, le condizioni di errore e i comportamenti attesi. L'obiettivo è fornire una documentazione strutturata che faciliti la comprensione e la verifica del codice da parte dei tester.
Generazione di Dati Sintetici con Validazione Matematica/Statistica: Un modulo del framework sarà dedicato alla generazione di dati sintetici. Questi dati verranno creati per coprire tutte le possibili casistiche di test, garantendo la rappresentazione di scenari reali senza compromettere la privacy su dati sensibili (GDPR compliant). La validità dei dati sintetici sarà assicurata attraverso tecniche di validazione matematica e statistica, permettendo di simulare accuratamente i dati di produzione.
Automazione dei Test e Reportistica Dettagliata: Un apposito Agent testerà automaticamente il codice ETL utilizzando i dati sintetici generati. Verranno eseguiti vari test, inclusi test di integrazione, di regressione e di performance. Al termine dei test, il framework genererà un report dettagliato che descriverà i risultati ottenuti, le eventuali anomalie riscontrate e le raccomandazioni per migliorare il codice.
Tecnologie
Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 30/06/2025
AI-Driven unit test generation: enhancing Devops practices for software quality assurance
Contesto
Nel contesto dello sviluppo software in cloud su Amazon Web Services (AWS), l'adozione delle pratiche DevOps tramite servizi come AWS CodePipeline rappresenta un approccio fondamentale per garantire Continuous Integration e Continuous Delivery, soddisfacendo standard elevati di qualità del software. Tuttavia, l'integrazione di test automatizzati all'interno delle pipeline può essere complessa, specialmente quando si cerca di generare test esaustivi, di alta qualità e con una buona copertura complessiva. In risposta a questa sfida, questa esperienza propone l'uso di tecniche di generazione di test guidate dall'intelligenza artificiale (IA) all'interno di pipeline DevOps su AWS CodePipeline, seguite da una fase di approvazione manuale per i test generati.
Obiettivi
L'obiettivo principale di questo studio è quello di esplorare l’utilizzo dell’IA per generare test automatici al fine di ottimizzare tali pratiche, migliorando la qualità del software e accelerando i cicli di rilascio. La ricerca si basa sulla realizzazione di una pipeline con AWS CodePipeline che dovrà contenere tutte le fasi SDLC tipiche (source, build, test e deploy), identificando la fase di generazione dei test automatici come un'opportunità chiave per introdurre tecniche di generazione di test guidate dall'IA. L’infrastruttura necessaria verrà realizzata mediante AWS CloudFormation, un servizio AWS di Infrastructure as Code (IaC).
La sperimentazione sarà particolarmente focalizzata su architetture a microservizi (Java, Spring Boot) che forniranno la base sorgente per l'obiettivo di tesi: l'approccio proposto prevede l'utilizzo di strumenti di IA come OpenAI o soluzioni personalizzate, integrati nell'architettura della pipeline stessa, per generare test automatici. Successivamente, i test generati verranno sottoposti a una fase di approvazione per valutarne la qualità, la pertinenza e l'adeguatezza, tali da garantire un controllo qualitativo sulle suite di test generate. I risultati di questa ricerca dovranno dimostrare il potenziale delle tecniche di generazione di test guidate dall'IA nel migliorare la qualità del software, la produttività nello sviluppo e nel rilascio di nuove componenti, sfruttando appieno le pratiche DevOps.
Tecnologie
AWS, AWS CodePipeline, AWS CloudFormation, AWS SAM, OpenAI, Java, Spring Boot.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Milano/Torino e/o Smart working | Durata 6 mesi | Scade il 30/06/2025
La Generative AI nei processi di gestione del software, studio di un caso reale
Contesto
Questo studio di tesi mira ad esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nel processo di gestione del software, affrontando aspetti specifici mediante lo studio e la prototipazione di un caso reale.
Un contesto in continua e rapida evoluzione, che può portare a diversi vantaggi e impatti positivi, contribuendo a migliorare l'efficienza, la produttività e la qualità dello sviluppo del software.
Obiettivi
Lo studio di tesi si pone l’obiettivo di esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nell’interpretazione dei documenti di specifiche funzionali e nelle successive fasi di disegno e generazione del codice.
Lo studio sarà applicato ad un caso concreto che preveda l’addestramento di modelli su documenti multiformato, come word ed excel, per la generazione modelli concettuali coerenti e alla generazione del codice software.
Tecnologie
LLM, Gaph DB.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Torino e/o Smart Working | Durata 3-6 mesi | Scade il 30/06/2025
Innovazione nello sviluppo: un'indagine sull'impatto della Generative AI
Contesto
Questa tesi si propone di esplorare il ruolo rivoluzionario della Generative Artificial Intelligence (Generative AI) nell'ambito dello sviluppo di applicazioni Angular. Concentrandosi sull'integrazione di tale tecnologia innovativa, l'obiettivo è migliorare l'efficienza, la coerenza e la produttività complessiva durante il ciclo di sviluppo.
Obiettivi
L'indagine inizia con un'esplorazione approfondita delle basi dei framework di sviluppo e dei loro requisiti di sviluppo, per poi introdurre la Generative AI come supporto chiave. Quest'ultima, attraverso la generazione automatica di codice e componenti, mira a semplificare il processo di sviluppo, riducendo i tempi e mitigando potenziali errori umani.
L'analisi pratica si basa su studi di casi specifici, dimostrazioni di implementazione e misurazioni quantitative delle prestazioni.
La tesi conclude con linee guida pratiche per gli sviluppatori che desiderano integrare la Generative AI nei loro progetti di sviluppo, evidenziando le potenzialità di questa tecnologia nel migliorare la qualità del codice, la velocità di sviluppo e la sostenibilità a lungo termine delle applicazioni.
Tecnologie
Java, Angular, React, Spring.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Milano/Torino | Durata 3-6 mesi | Scade il 30/06/2025
AI-Powered Robot Framework Code Generator: la rivoluzione nella test automation e nella creazione di bot
Contesto
La ricerca sottolinea l’importanza della generazione di codice basata sull’intelligenza artificiale come principale acceleratore per raggiungere la massima agilità nei progetti IT. Offre una soluzione pratica per team di test, sviluppatori e in generale per tutti coloro che cercano di migliorare la velocità, l'affidabilità e la scalabilità delle loro iniziative di automazione, siano esse relative alla test automation o al mondo della RPA. Il potenziale dello strumento è dimostrato attraverso casi di studio reali e valutazioni empiriche, che dimostrano la sua capacità di accelerare la creazione del codice mantenendo elevati livelli di copertura dei test e precisione di automazione dei processi.
Obiettivi
L’obiettivo di questo percorso di tesi è disegnare e realizzare un tool che automatizzi la generazione di codice sfruttando l'intelligenza artificiale per create dei bot su Robot Framework che svolgano attività di automazione di test e processi robotici (RPA). Robot Framework è uno strumento di automazione versatile, che funge da base per questa ricerca. Il nostro obiettivo è consentire a tester, sviluppatori e professionisti RPA di progettare e generare rapidamente codice su Robot Framework, eliminando la necessità di codifica manuale e accelerando significativamente il processo di automazione.
Lo sviluppo di questo strumento ruota attorno all'integrazione di algoritmi di intelligenza artificiale avanzati, consentendo allo strumento di interpretare input, requisiti e scenari di test o automazione forniti dagli utenti. Attraverso l’intelligenza artificiale, il processo di generazione del codice è automatizzato, consentendo agli utenti di esprimere i propri requisiti in linguaggio naturale e ottenere in risposta del codice che soddisfi determinate soglie di qualità.
Tecnologie
Robot Framework, RPA, AI, LLM.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Milano/Torino | Durata 3-6 mesi | Scade il 30/06/2025
Strategie e sfide nell'implementazione e nella distribuzione di Large Language Model (LLM) come agenti interattivi
Contesto
Questa tesi approfondisce le molteplici strategie, sfide e risultati ottenibili grazie all’utilizzo di Large Language Model (LLM) per l’implementazione di agenti interattivi a supporto della nostra operatività quotidiana. Oggi gli LLM giocano un ruolo centrale nel rimodellare il panorama dell'elaborazione del linguaggio naturale e delle interazioni guidate dall'intelligenza artificiale, pertanto risulta necessario comprendere a fondo le complessità nella loro implementazione per poterne sfruttare al meglio le potenzialità.
Obiettivi
In particolare, lo studio è focalizzato sull'implementazione di un agente interattivo basato su LLM. Questo agente è progettato per interpretare le istruzioni umane con un elevato grado di precisione e successivamente interrogare lo strumento appropriato per soddisfare tali richieste, sia esso un tool aziendale, un documento o una risorsa web. L’agente dovrà essere in grado di assolvere compiti diversi, come la generazione di testi sofisticati, la generazione di immagini dinamiche, la segmentazione precisa delle immagini e altre funzionalità avanzate.
In sintesi, la tesi indaga le strategie, le sfide e i risultati nell'implementazione dei Large Language Model (LLM) come agenti intelligenti in grado di elaborare istruzioni umane e svolgere compiti articolati che prevedono di manipolare diverse tipologie di informazioni, come testo ed immagini.
Tecnologie
AI, LLM, Langchain.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Sede: Milano/Torino | Durata 3-6 mesi | Scade il 30/06/2025
L'Intelligenza Artificiale come acceleratore nell'utilizzo di tool low code
Contesto
Nel contesto dell'evoluzione delle pratiche di sviluppo software, l'approccio low code è emerso come una soluzione innovativa per accelerare il processo di creazione di applicazioni grazie all'adozione di interfacce grafiche intuitive che riducono la necessità di scrivere manualmente grandi quantità di codice. Questo studio si concentra sull'integrazione di tecnologie di Intelligenza Artificiale come acceleratore chiave all'interno di piattaforme con approccio low code, quali IBM Business Automation Workflow (BAW) e PEGA.
Obiettivi
La ricerca esplora come l'AI può essere implementata per ottimizzare il ciclo di vita dello sviluppo delle applicazioni, migliorando la produttività degli sviluppatori, riducendo i tempi di sviluppo e garantendo una maggiore qualità del software risultante. Vengono analizzate le funzionalità specifiche di IBM BAW e PEGA che sfruttano l'AI, evidenziando casi di studio, best practice e sfide riscontrate durante l'implementazione di progetti.
Attraverso un approccio metodologico che include la revisione della letteratura, lo studio di progetti concreti e l'analisi comparativa delle performance, la tesi mira a fornire una panoramica completa sull'impatto dell'AI nell'ecosistema low code. I risultati ottenuti contribuiscono a delineare le prospettive future di questa sinergia, offrendo insight utili per gli sviluppatori e per le aziende che cercano di massimizzare l'efficienza e la qualità nello sviluppo di applicazioni attraverso l'uso di strumenti low code potenziati dall'AI.
Tecnologie
Low code, AI, LLM, PEGA, IBM BAW.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Possiamo provare a costruire insieme un nuovo titolo di tesi. Avrai il supporto dei nostri esperti per scegliere le tecnologie più adeguate.