La Cache di ASP.NET è un tipico esempio di risorsa condivisa, a cui accedono contemporaneamente diversi thread. Un tale scenario è potenzialmente a rischio di race condition: quando due thread agiscono nello stesso istante sul medesimo oggetto, in generale il risultato finale non è determinabile a priori e questo, in assenza di meccanismi di sincronizzazione, può portare a bug e malfunzionamenti che sono difficili da individuare.
Se leggiamo la documentazione di MSDN relativa all'oggetto System.Web.Caching.Cache, possiamo notare che fortunatamente si tratta di un oggetto Thread Safe, ossia che possiede già internamente tutti i meccanismi per gestire correttamente accessi concorrenti. Tuttavia ciò non ci mette al riparo da utilizzi errati che, come sviluppatori, potremmo compiere interagendo con esso.
Consideriamo ad esempio questo frammento di codice, piuttosto comune quando si vuole determinare se aggiungere o meno un oggetto in cache:
var myResult = Cache["MyResult"] as SomeType; // (1) if (myResult == null) { myResult = ExecuteSomeQueryOnDatabase(); this.Cache["MyResult"] = myResult; // (2) }
Lo snippet precedente sembra formalmente corretto, eppure in un ambiente multithreading, come tipicamente è una Web Application, nulla vieta che, tra l'istante in cui viene recuperato il contenuto della cache (1) e quello in cui tale valore viene effettivamente scritto (2), un altro thread abbia eseguito il medesimo codice e già popolato la cache con il dato MyResult.
Nel migliore dei casi, l'effetto è l'esecuzione di una seconda query sul database (che comunque potrebbe essere evitata), ma in casi più complessi una tale situzione potrebbe comportare bug difficilmente diagnosticabili e riproducibili.
Per evitare queste eventualità, è sufficiente sincronizzare l'accesso in scrittura alla cache utilizzando una risorsa statica:
private static object syncObject = new object(); public SomeType GetSomeResult() { var myResult = Cache["MyResult"] as SomeType; if (myResult == null) { lock (syncObject) { if (Cache["MyResult"] == null) { myResult = ExecuteSomeQueryOnDatabase(); this.Cache["MyResult"] = myResult; } } } return myResult; }
Lo statement lock, infatti, assicura che solo un thread per volta possa acquisire la risorsa syncObject e quindi eseguire il codice all'interno del blocco. La duplice condizione di if (chiamata double check pattern) serve ad evitare di recuperare il dato dal database nel caso in cui un thread abbia scritto sulla cache mentre l'altro era in attesa di poter acquisire il lock.
Per quanto riguarda l'accesso in lettura, invece, non è necessaria alcuna precauzione particolare, grazie alla thread safety dell'oggetto Cache.
Commenti
Per inserire un commento, devi avere un account.
Fai il login e torna a questa pagina, oppure registrati alla nostra community.
Approfondimenti
Generare file PDF da Blazor WebAssembly con iText
Utilizzare il trigger SQL con le Azure Function
Utilizzare gli snapshot con Azure File shares
Utilizzare la versione generica di EntityTypeConfiguration in Entity Framework Core
Usare un KeyedService di default in ASP.NET Core 8
Limitare le richieste lato server con l'interactive routing di Blazor 8
Utilizzare i primary constructor di C# per inizializzare le proprietà
Creazione di plugin per Tailwind CSS: espandere le Funzionalità del Framework
Semplificare il deployment di siti statici con Azure Static Web App
Utilizzare HiLo per ottimizzare le insert in un database con Entity Framework
Sfruttare i KeyedService in un'applicazione Blazor in .NET 8
Personalizzare l'errore del rate limiting middleware in ASP.NET Core
I più letti di oggi
- Utilizzare Docker Compose con Azure App Service
- Utilizzare QuickGrid di Blazor con Entity Framework
- Modernizzare le applicazioni WPF e Windows Forms con Blazor
- ASP 3 per esempi
- annunciato #netstandard 2.1. .NET Core lo supporterà a partire da #netcore3, così come le prossime versione di #xamarin, #mono e #unity.il supporto per #netfx 4.8, invece, non ci sarà. https://aspit.co/bq2
- Steel Style CheckBox per Silverlight 4.0