Informatica quantitativa: la disciplina scientifica per una “cultura della qualità dei servizi digitali”
Nella comunità di esperti, denomitata InfQ, presenti anche docenti e ricercatori del Dipartimento di Informatica UniTo
Cosa hanno in comune i disservizi del sito dell’INPS, in occasione di uno dei bonus previsti nel decreto “Cura Italia”, o quelli evidenziati in occasione del cosiddetto “Click day” per ottenere lo sconto sull’acquisto di biciclette e monopattini, oppure il malfunzionamento di alcuni servizi erogati da Google il 14 dicembre 2020? E gli acquisti dei biglietti di grandi eventi sportivi o musicali come accadde per i concerti degli U2, dei Coldplay nei primi anni 2000? Le partite a scatti del campionato di Serie A appena iniziato? È possibile fare delle analisi che portino a identificare le cause e motivazioni? Esistono delle ‘lezioni’ che tali eventi insegnano? Si possono identificare delle strategie di progettazione che evitino in futuro il ripresentarsi di eventi simili?
Queste sono alcune domande che animano le riflessioni dei ricercatori che si occupano di “Informatica quantitativa” presenti in molte università italiane e dal 2010 uniti in una ‘comunità’ chiamata InfQ. Nel Dipartimento di Informatica dell’Università degli Studi di Torino è presente un nutrito gruppo di afferenti. I professori Elvio Amparore, Susanna Donatelli, e Matteo Sereno del Dipartimento di Informatica dell’Università di Torino, che hanno partecipato al gruppo di lavoro, illustrano alcune considerazioni che possono essere fatte a partire dall’analisi di questi ‘fallimenti’. Nel 2021, dopo che le cronache hanno descritto numerosi episodi di disservizio in sistemi informatici della Pubblica Amministrazione e di aziende private, la comunità di InfQ ha deciso di avviare un'iniziativa di comunicazione pubblica sulla cultura della qualità dei servizi e dei sistemi informatici.
Una caratteristica che accomuna queste applicazioni (o servizi) è la complessità. Tali applicazioni infatti, sono composte da un elevato numero di moduli software e hardware che interagiscono tra di loro per produrre i risultati attesi. A volte, la causa del degrado della qualità dei servizi offerti, o del totale disservizio, è da ricercarsi proprio nelle interazioni tra i vari moduli. Altre volte è un problema di non adeguato dimensionamento del sistema, o anche di sottostima della domanda e di mancanza di opportuni meccanismi per la gestione dei momenti di picco. L’assenza di una diffusa cultura della qualità porta a preferire al metodo scientifico-quantitativo più elementari approcci empirici. La qualità del servizio percepita dagli utenti è la risultante di caratteristiche diverse, quali ad esempio affidabilità, efficienza, scalabilità, sicurezza, solo per citarne alcune. Queste caratteristiche sono, da sempre, le direzioni che ispirano gli studi di informatica quantitativa. La formazione e il mondo della ricerca in questi ambiti, può offrire un contributo importante. Si tratta proprio di avere un approccio al progetto meno ‘empirico’, più basato su metodologie e modelli per la pianificazione, verifica e controllo della ‘qualità’.
Nel corso di laurea in Informatica, presso l’ateneo torinese, sicuramente la dovuta attenzione c’è. In particolare queste tematiche sono presenti in diversi corsi , tipicamente al livello di laurea magistrale in Informatica. Il problema, nella sua complessità, ha diversi attori: dal committente al decisore, dal progettista del sistema/servizio al soggetto politico che indirizza le scelte. Purtroppo, la “cultura della qualità” e la progettazione rigorosa di sistemi e servizi non hanno lo spazio che meriterebbero. Al più ci si pone problemi di sicurezza (uno degli attributi di qualità). Su questo aspetto c’è molta attenzione, anche perché i problemi legati alla privacy varcano i confini etici e sono, in un certo senso, di un interesse comune molto più tangibile. Sulla ‘qualità del servizio’ o sui veri e propri ‘disservizi’, che potrebbero anche provocare piccole catastrofi, molta superficialità e molta meno attenzione.