# Thread
A Thread is an autonomous unit within a process that can execute tasks.
Conceptually, threads allow a concurrent execution of computational steps within one process.
# Process vs. Thread
# Process vs. Thread (2)
Process | Thread |
---|---|
Processes are heavyweight operations. | Threads are lighter weight operations. |
Each process has its own memory space. | Threads use the memory of the process they belong to. |
Inter-process communication is slow as processes have different memory addresses. | Inter-thread communication can be faster than inter-process communication because threads of the same process share memory with the process they belong to. |
Context switching between processes is more expensive. | Context switching between threads of the same process is less expensive. |
Processes don’t share memory with other processes. | Threads share memory with other threads of the same process. |
# Resource Sharing
Threads share resources within one process.
Heap: saves in RAM Stack: call of small operations
# Programming Threads in C#
We use objects of type Thread to do concurrent programming within a process.
The number of threads a process can handle is limited (yet quite high).
# A first program
# Concurrent execution
When starting a thread using Thread.Start()
, the thread will start using the specified method.
The program flow in the main thread will continue though.
This is why in the previous example we first see the output "Program started"
before the other thread outputs its first message.
# Concurrent? I thought you said parallel?
Why are we saying that threads are executed concurrently when what we really want to do is executing them in parallel?
CLR Common Language Runtime
manages the execution of threads. It will try to use the available CPU cores optimally to split up your work.
So with threads we are guaranteed a concurrent execution at least (multiple threads on one CPU core), but if possible, the threads will be split up upon the available cores for a parallel execution.
# Thread synchronisation
Threads are often used to split up computational work to be executed on multiple CPU cores.
After all the individual computations have finished, we often need to synchronise the Threads again. For example to aggregate the individual results.
# Accessing shared resources
The result might be anything between 1 and 10. This is called race condition.
# Race condition
# Race condition (2)
# Dealing with race conditions
# Dealing with race conditions (2)
# Signaling between threads
We can use signals to synchronize threads. These signals don’t carry any data, so we don’t send data between threads. We only send a signal so that another thread might know when to wait and when to continue.
These signals are called Semaphores.
# Semaphore
A semaphore is a data structure that allows the synchronisation of threads. One Thread sends a signal to another Thread (when to Start and when to Wait)
- A semaphore manages a number of permits.
- When accessing a semaphore, we reduce the amount of permits.
- If no permits are left, the thread has to wait until permits are available again.
C#: SemaphoreSlim Class
# Semaphore example
# Semaphore example (2)
# Semaphore example (3)
# Semaphore example (4)
# Nachrichtenaustausch zwischen Threads
Semaphore sind reine Signalgeber. Es werden Signale zwischen Threads ausgetauscht. Diese haben jedoch keinerlei weitere Informationen. Ein Semaphor-Signal kann zusätzlich keine Daten weitergeben.
# Nachrichtenaustausch (2)
Eine Möglichkeit trotzdem einen Datenaustausch zu ermöglichen ist die Verwenden von Shared Memory. Das ist ein Speicher den mehrere Threads nutzen.
Semaphore können weiterhin zur Signalisierung verwendet werden, die Daten werden aber in einem anderen Objekt verwaltet. Beim Zugriff auf dieses Objekt ist dann besonders darauf zu achten, dass dieser Thread-Safe (vor Race-Conditions schützen) ist, also beispielsweise durch lock
Statements abgesichert ist.
# Nachrichtenaustausch (3)
- “Thread” 2 instead of “Thread 1”
# Nachrichtenaustausch - Collections
Zum Nachrichtenaustausch zwischen Threads bietet .NET auch einige Klassen an, die eigens dafür konzipiert wurden.
-
Nach dem Implementieren einer Collection ist kein lock-Statement mehr nötig
-
BlockingCollection<T>
-
ConcurrentDictionary<TKey, TValue>
-
ConcurrentQueue<T>
-
ConcurrentStack<T>
-
ConcurrentBag<T>
# Nachrichtenaustausch - Blocking Collection
Eine Blocking Collection kann als Puffer wirken. Es werden nachrichten in die Collection hinzugefügt, die später von anderen Threads verarbeitet werden. Die Nachrichten können sich in der Collection ansammeln und später wieder verringern.
# Producer-Consumer Pattern
# Blocking Collection
Thread 1-3 (PRODUCER) --> write into Puffer
Thread 4-6 (CONSUMER) --> read from Puffer
Beispiel einer Blocking Collection
Stellt man sich vor man hat eine Gruppe von Menschen, die Geschenke herstellen (Producer). Und man hat eine Gruppe von Menschen, die diese verpacken (Consumer). Blocking Collection - hilft, dass sich Producer & Consumer nicht in die Quere kommen
Die Geschenke werden auf einem Tisch abgelegt.
Nun verwendet man BlockingCollection
-
Tisch ist wie Blocking Collection (max. 10 Geschenke können gleichzeitig darauf liegen)
-
Wenn ein Producer (Produzierer) ein Geschenk herstellt - legt er es auf den Tisch (auf Blocking Collection)
-
Wenn der Tisch voll ist, kann kein Geschenk mehr abgelegt werden - bis jemand eins nimmt
-
Die Consumer (Verpacker) nehmen Geschenke vom Tisch, verpacken sie & machen Platz für neue Geschenke auf dem Tisch (Blocking Collection)
-
Wenn der Tisch leer ist und kein Geschenk mehr darauf liegt - Consumer sagen: “Der Tisch ist leer, es gibt keine Geschenke zum Verpacken, bis jemand eins hinstellt”