PAKU Media
StartseiteLeistungenPortfolioÜber unsBlogKontakt
PAKU Media

Kreativagentur aus Bielefeld für Webdesign, Videografie und Social Media — seit 2022.

Partner

Navigation

  • ›Startseite
  • ›Leistungen
  • ›Portfolio
  • ›Über uns
  • ›Branchen
  • ›Blog
  • ›Kontakt

Leistungen

  • ›Webdesign
  • ›Videografie
  • ›Social Media Ads
  • ›App Design
  • ›Lexikon
  • ›Tools

Kontakt

Pamuk und Kuscu GbR

Friedhofstraße 171
33659 Bielefeld

hello@pakumedia.de

0521 98 99 40 99

PAKU.Media

© 2026 PAKU Media. Alle Rechte vorbehalten.

ImpressumDatenschutzAGBLexikonToolsSitemap
Home/Lexikon/Load Balancer
Technik

Load Balancer

Zuletzt aktualisiert: 2026-03-31

Ein Load Balancer (Lastverteiler) ist eine Netzwerkkomponente, die eingehenden Traffic auf mehrere Backend-Server verteilt. Er sitzt zwischen dem Client und den Servern, empfaengt alle Anfragen und leitet sie nach einem definierten Algorithmus an den am besten geeigneten Server weiter.

Load Balancing ist eine der grundlegendsten Techniken fuer skalierbare und hochverfuegbare Webanwendungen. Ohne Load Balancer ist eine einzelne Serverinstanz ein Single Point of Failure -- faellt sie aus, ist die gesamte Anwendung offline. Mit Load Balancing werden Ausfaelle einzelner Server transparent kompensiert.

Wie ein Load Balancer funktioniert

Der Grundmechanismus

  1. Client sendet eine Anfrage (z. B. Webseitenaufruf)
  2. Die Anfrage erreicht den Load Balancer
  3. Der Load Balancer waehlt einen Backend-Server basierend auf dem konfigurierten Algorithmus
  4. Der Backend-Server verarbeitet die Anfrage und sendet die Antwort
  5. Der Load Balancer leitet die Antwort an den Client weiter

Health Checks

Der Load Balancer ueberprueft regelmaessig, ob die Backend-Server funktionsfaehig sind:

  • HTTP Health Check: Prueft, ob der Server auf eine definierte URL mit 200 OK antwortet
  • TCP Health Check: Prueft, ob der Server auf einem Port erreichbar ist
  • Custom Check: Prueft anwendungsspezifische Metriken

Faellt ein Server den Health Check durch, leitet der Load Balancer keinen Traffic mehr an ihn, bis er wieder gesund ist.

Load-Balancing-Algorithmen

AlgorithmusFunktionsweiseIdeal fuer
Round RobinReihum, jeder Server bekommt die naechste AnfrageGleichartige Server, zustandslose Anfragen
Weighted Round RobinWie Round Robin, aber staerkere Server bekommen mehrServer mit unterschiedlicher Leistung
Least ConnectionsServer mit wenigsten aktiven Verbindungen erhaelt die naechsteUnterschiedlich lange Anfragen
IP HashGleiche Client-IP immer zum gleichen ServerSession-Affinitaet ohne Sticky Sessions
RandomZufaellige AuswahlEinfache Szenarien
Least Response TimeServer mit schnellster Antwortzeit erhaelt die naechstePerformance-kritische Anwendungen

Typen von Load Balancern

Layer 4 (Transport Layer)

Entscheidet basierend auf IP-Adresse und Port, ohne den Inhalt der Anfrage zu inspizieren. Schnell und effizient, aber ohne Kenntnis des Anwendungsprotokolls.

Layer 7 (Application Layer)

Inspiziert den HTTP-Inhalt der Anfrage (URL, Headers, Cookies) und kann intelligentere Routing-Entscheidungen treffen:

  • Anfragen an /api/* gehen an API-Server
  • Anfragen an /images/* gehen an den Bild-CDN
  • Anfragen mit bestimmten Cookies gehen an spezifische Server

Load-Balancing-Loesungen

Cloud-Loesungen

  • AWS Elastic Load Balancer (ELB): Application Load Balancer (L7) und Network Load Balancer (L4)
  • Google Cloud Load Balancing: Globales Load Balancing mit Anycast-IPs
  • Azure Load Balancer: Integriert in Azure-Infrastruktur
  • Cloudflare: Load Balancing als Teil des CDN-Angebots

Self-hosted Loesungen

  • Nginx: Weit verbreiteter Webserver und Reverse Proxy mit Load-Balancing-Funktion
  • HAProxy: Spezialisierter, hochperformanter Open-Source Load Balancer
  • Traefik: Cloud-nativer Reverse Proxy mit automatischer Service-Discovery
  • Envoy: Service Mesh Proxy mit fortgeschrittenem Load Balancing

Load Balancing und Website-Performance

Fuer Websites hat Load Balancing direkten Einfluss auf die Core Web Vitals:

  • Time to First Byte (TTFB): Ein ueberlasteter Server antwortet langsam. Load Balancing verteilt die Last und haelt die TTFB niedrig.
  • Verfuegbarkeit: Faellt ein Server aus, uebernehmen die anderen -- ohne Downtime.
  • Geografische Verteilung: Globale Load Balancer leiten Nutzer zum naechstgelegenen Server, was die Latenz reduziert.

Session Persistence (Sticky Sessions)

Bei zustandsbehafteten Anwendungen (z. B. mit serverseitigen Sessions) muss ein Nutzer immer zum selben Server geleitet werden. Sticky Sessions binden einen Client basierend auf einem Cookie oder der IP-Adresse an einen bestimmten Server. Die bessere Loesung: Sessions externalisieren (z. B. in Redis), sodass jeder Server jede Anfrage bedienen kann.

Auto-Scaling und Load Balancing

In Cloud-Umgebungen arbeiten Load Balancer oft Hand in Hand mit Auto-Scaling: Bei steigender Last werden automatisch neue Server-Instanzen gestartet und beim Load Balancer registriert. Bei sinkender Last werden ueberfluessige Instanzen heruntergefahren. Dieses Zusammenspiel ist die Grundlage moderner Hosting-Architekturen und Serverless-Plattformen.

Load Balancing ist keine optionale Optimierung, sondern eine Grundvoraussetzung fuer jede professionelle Webanwendung, die Ausfallsicherheit und Performance unter Last garantieren muss.

←Zurück zum Lexikon

Projekt anfragen

Fragen zu Load Balancer? Wir helfen gerne.

Unser Team berät Sie kostenlos und unverbindlich — direkt aus Bielefeld.

Kontakt aufnehmen→
FAQ's

Häufige Fragen zu Load Balancer.

Die wichtigsten Antworten auf einen Blick – kompakt und verständlich.

Weiter lernen

Verwandte Begriffe.

Zum Lexikon →
01Webentwicklung

CDN / Content Delivery Network

Was ist ein CDN? Definition, Funktionsweise eines Content Delivery Networks und Vorteile für Website-Performance.

Definition lesen→
02Webentwicklung

Hosting

Was ist Webhosting? Definition, Hosting-Arten, Auswahlkriterien und Bedeutung für Performance und SEO erklärt.

Definition lesen→
03SEO

Core Web Vitals

Core Web Vitals erklärt: LCP, INP, CLS – Messung mit PageSpeed Insights, Search Console und konkrete Optimierungsmaßnahmen für bessere Google-Rankings.

Definition lesen→
04Technik

Reverse Proxy

Reverse Proxy erklaert: Wie ein Reverse Proxy funktioniert, welche Vorteile er bietet und warum Nginx und Cloudflare in fast jeder Web-Infrastruktur stecken.

Definition lesen→
05Webentwicklung

Serverless

Was ist Serverless? Definition, Vorteile von Serverless Computing für Webprojekte und typische Einsatzgebiete erklärt.

Definition lesen→