- Scalabilità: la capacità di gestire esigenze crescenti in termini di quantità di dati e frequenza di aggiornamento
- Repository centralizzato dei dati: capacità di memorizzare i dati multi-strutturati, centralizzando dataset eterogenei
- Efficienza di processo: capacità di incrementare notevolmente la fase di caricamento dei dati (fast ingestion) e di eseguire operazioni batch su grossi volumi di dati (elaborazione distribuita)
- Efficacia analitica: possibilità di utilizzare sia la disponibilità di una grande quantità di dati che algoritmi di Machine Learning per identificare gli elementi d’interesse (quali, ad esempio, le target list)
- Real time: la ricezione ed analisi in tempo reale di flussi dati e lo sfruttamento in qualità di trigger allo scopo di cogliere opportunità di business disponibili per periodi di tempo molto limitati (quali, ad esempio, Customer Engagement, Recommendation, Retention, eccetera)
- Data governance: migliori opportunità di controllare il ciclo di vita del dato in funzione di reali necessità del business
- Cost efficiency: la possibilità di basare il sistema su piattaforme di commodity hardware, presentando costi inferiori a parità di storage e capacità di elaborazione
L’intero processo, svolto con strumenti tradizionali, richiede frequenti interventi manuali e comporta elevati tempi di elaborazione. Con la migrazione ad un’architettura dell’informazione basata su paradigmi big data, il calcolo del rischio e la riallocazione dei portafogli possono essere svolti con maggiore efficienza e completa automazione, riducendo il tempo necessario all’elaborazione a meno di 5 minuti nella maggior parte delle circostanze.