Il tuo collega più produttivo scrive test inutili
Dettagli
La qualità dei test è diventata ancora più critica con l'avvento degli strumenti di AI generativa: più codice prodotto, più test generati, più copertura. Eppure i bug arrivano lo stesso. Il problema, spesso, non è nel codice che scriviamo ma nelle verifiche che costruiamo sopra.
La coverage risponde a una domanda precisa: questo codice viene eseguito? Non risponde alla domanda che conta davvero: se questo codice fosse sbagliato, i test se ne accorgerebbero? In questo talk partiamo da un bug reale in produzione: un subtotale calcolato con Max invece di Sum, invisibile a tutti i test nonostante il 93% di coverage. Vedremo come il mutation testing colma questo gap: introduce modifiche controllate nel codice e misura quanti bug i vostri test lascerebbero passare.
I partecipanti usciranno con una demo live su un progetto .NET reale con Stryker, la comprensione concreta della differenza tra coverage e affidabilità, e gli strumenti per integrare il mutation testing nel proprio workflow, dal primo run locale fino alla CI.
Speaker: Francesco Montelli
