Home
Blog
A/B-Testing richtig durchführen und Conversions steigern

A/B-Testing richtig durchführen und Conversions steigern

Du willst mehr Conversions, aber alle im Team haben eine andere Meinung dazu, wie es funktioniert. Der Designer will mehr Weissraum, der Vertrieb will mehr Argumente, der Chef will's knalliger. Das A/B-Testing beendet genau diese Diskussionen. In diesem Artikel erfährst du, wo und wie A/B-Testing eingesetzt wird und du lernst, wie das Testing abläuft und welche Tools du dafür verwenden kannst.

11.23.2025
16
min Lesezeit
Autor
Editorial Team
Axisbits GmbH

Was ist A/B-Testing?

A/B-Testing ist ein Verfahren, bei dem zwei Varianten eines Elements gegeneinander getestet werden, um herauszufinden, welche besser funktioniert. Variante A ist dabei meist die bestehende Version (Kontrollgruppe), Variante B enthält eine gezielte Änderung. Beide werden gleichzeitig an zufällig aufgeteilte Besuchergruppen ausgespielt.

Das Ziel des A/B-Testing: Klar herausfinden, welche Variante zu mehr Conversions führt, sei es ein Klick, eine Anmeldung, ein Kauf oder eine andere definierte Handlung.

Beispiel für A/B-Testing

Du betreibst eine Landingpage mit dem Ziel, dass sich Besucher für eine kostenlose Demo registrieren. Deine Hypothese: Die aktuelle Überschrift ist zu allgemein. Du stellst das System so ein, dass die Hälfte der Nutzer Headline-Variante A, die andere Hälfte Headline-Variante B ausgespielt bekommt. Du testest:

  • Variante A: „Alles im Griff mit unserem CRM“
  • Variante B: „Teste unser CRM – 14 Tage kostenlos, keine Kreditkarte nötig“

Nach 2 Wochen zeigt sich: B bringt 28 % mehr Registrierungen. Jetzt weisst du: Diese Änderung wirkt, und zwar belegt anhand der höheren Conversion Rate.

Abgrenzung: Welche Tests unterscheiden sich vom A/B-Testing?

Typische Anwendungsfälle für A/B-Testing

A/B-Testing wird typischerweise bei der Conversion Rate Optimierung von Landingpages, im E-Commerce, für SaaS, im E-Mail-Marketing und für Anzeigen und Kampagnen eingesetzt.

Gute A/B-Tests konzentrieren sich auf Stellen, an denen Entscheidungen getroffen werden. Dort, wo Nutzer zögern, abbrechen oder durch eine gezielte Veränderung häufiger konvertieren könnten.

A/B-Testing bei Landingpages

Landingpages haben ein klares Ziel, etwa eine Anmeldung, ein Download oder einen Kauf. Typische Testobjekte innerhalb von Landingpages:

  • Überschriften
  • Call-to-Actions (Text, Farbe, Position)
  • Hero-Grafiken oder Videoeinbindung
  • Textlänge (kurz vs. lang)
  • Vertrauenselemente (z. B. Logos, Kundenstimmen, Siegel)

A/B-Testing im E-Commerce

In Online-Shops geht es um Entscheidungen in kurzer Zeit und kleine Hürden im Ablauf sorgen bereits für Abbrüche. A/B-Tests können helfen, solche Reibungspunkte im Kaufprozess zu reduzieren. Getestet werden:

  • Produktbilder (einzeln vs. Galerie, neutral vs. in Anwendung)
  • Preispräsentation (CHF 49.– vs. CHF 48.90)
  • Rabattkommunikation („–20 %“ vs. „CHF 10.– sparen“)
  • Buttonbeschriftung („In den Warenkorb“ vs. „Jetzt kaufen“)
  • Checkout-Schritte (1-Seiten-Checkout vs. mehrstufig)

A/B-Testing für SaaS & digitale Produkte

Hier lohnt sich A/B-Testing besonders bei der Feature-Kommunikation (vor der Registrierung) und im Onboarding (danach). Das sogenannte Onboarding ist der erste eigene Kontakt des Users zur Software. Hier entscheidet sich oft, ob er weitermacht oder wieder abspringt. Ziel: Hemmschwellen zur Registrierung senken und anschliessend den Nutzen schnell klarmachen.

Was sich bei SaaS & digitalen Produkten sinnvoll testen lässt:

Feature-Kommunikation

  • Bezeichnung von Funktionen: Fachbegriff vs. nutzenorientierte Sprache
  • → z. B. „Versionierung“ vs. „Änderungen rückgängig machen“
  • Tooltip-Text oder Platzhalter in Formularfeldern
  • Funktion standardmässig aktiv oder deaktiviert?
  • Produktvideos vs. GIF-Previews

Preismodelle & Upgrades

  • Preismodell: Monatlich vs. jährlich zuerst anzeigen
  • Positionierung des „kostenlosen“ Plans: ganz oben vs. am Ende
  • CTA beim Upgrade: „Jetzt upgraden“ vs. „Mehr Funktionen freischalten“
  • Rabattanzeige: Betrag vs. Prozent
  • Paywall-Stil: Blockieren + Hinweis vs. nur Hinweis

Onboarding & Aktivierung (= Nutzer zum ersten echten Nutzungsschritt bringen)

  • Schrittanzahl: Komplexes Setup auf einmal vs. Schritt-für-Schritt
  • Hilfestellungen: Tooltip-Overlays vs. kurzer Walkthrough
  • Beispieldaten: Leere Oberfläche vs. vordefinierte Inhalte
  • Skip-Optionen: „Jetzt überspringen“ sichtbar oder nicht?
  • CTA-Texte: „Jetzt starten“ vs. „Erste Aufgabe erstellen“

A/B-Testing im E-Mail-Marketing

A/B-Tests lassen sich oft einfach direkt in E-Mail-Tools umsetzen und liefern dort schnell Erkenntnisse. Was häufig getestet wird:

  • Betreffzeile (Frage vs. Aussage, mit oder ohne Emoji)
  • Absendername (Marke vs. echter Vorname)
  • CTA in der Mail (Text, Platzierung, Anzahl)
  • Versandzeitpunkt (Morgen vs. Nachmittag, Wochentag)
  • Aufbau des Mailings (kurz vs. lang, Text vs. Bild)

A/B-Testing für Anzeigen & Kampagnen (z. B. Meta, Google Ads)

Bereits die erste Eindruck entscheidet darüber, ob jemand klickt oder weiterscrollt. Hier hilft A/B-Testing bei der Optimierung der Klickrate (CTR) und damit der gesamten Funnel-Performance. Beispiele:

  • Anzeigentitel
  • Beschreibungstexte
  • Bilder oder Videos
  • Keyword-Kombinationen
  • Landingpage-Varianten pro Anzeige

Guide: A/B-Testing richtig durchführen

Das A/B-Testing erfolgt typischerweise in 6 Schritten: Ziel definieren, Hypothese aufstellen, Testvariante erstellen, Test aufsetzen, Signifikanz und Testdauer und Ergebnis interpretieren und entscheiden.

1. Ziel eines A/B-Testings definieren

Bevor du testest, musst du wissen, was du verbessern willst. Wenn du das für eine bestimmte Seite nicht relativ schnell beantworten kannst, ist das ein wichtiger Hinweis für dich, zuerst das Ziel der Seite neu zu definieren. Dann weisst du auch, wohin der A/B-Test wirken soll:

  • Mehr Käufe auf der Produktseite
  • Mehr Anmeldungen für ein Webinar
  • Mehr Klicks auf den CTA-Button
  • Mehr Nutzer, die den Onboarding-Schritt abschliessen

Wichtig: Das Ziel muss messbar sein, sonst kannst du den Erfolg des Tests nicht bewerten.

2. Hypothese für das A/B-Testing aufstellen

Eine Hypothese ist eine fundierte Vermutung, die dem Test zugrunde gelegt wird. Diese Hypothese ist deine Richtschnur. Sie bestimmt, was du testest und woran du Erfolg misst.

„Wir glauben, dass [Änderung X] dazu führt, dass [Ziel Y] verbessert wird, weil [Grund Z].“

Beispiel:

„Wir glauben, dass ein deutlich sichtbarer Rabatt im Warenkorb die Kaufquote erhöht, weil der Preisvorteil dann klarer wird.“

3. Testvariante für diesen A/B-Test erstellen

In diesem Schritt bringst du beide Versionen in die Startposition.:

  • Variante A: Deine aktuelle Version (Kontrollgruppe)
  • Variante B erstellen: Mit der einen, gezielten Veränderung

Wichtig: Nur eine Variable ändern! Sonst kannst du anschliessend nicht sagen, was den Effekt ausgelöst hat.

Beispiel: Nur die Headline, nicht gleichzeitig auch Bild, Button und Layout innerhalb eines A/B-Tests.

Sonderfall: Kann man mehrere A/B-Tests gleichzeitig durchführen?
Mehrere Tests parallel zu fahren kann sinnvoll sein, etwa wenn du verschiedene Elemente deiner Seite unabhängig voneinander testen willst (z. B. Headline, Button, Argumente). Wichtig ist dabei: Die Tests dürfen sich nicht gegenseitig beeinflussen.

Was funktioniert:
- Du testest verschiedene Elemente in getrennten Besuchergruppen
- (z. B. Test 1: nur zwei Headline-Varianten gegeneinander, Test 2: nur zwei Button-Varianten – je für eigene User-Segmente)
- Du testest auf völlig getrennten Seiten oder URLs
- Du nutzt ein Tool mit Targeting-Funktion, das sicherstellt, dass jede Person nur an einem Test teilnimmt

Was du bei parallelen A/B-Tests vermeiden solltest:
- Dasselbe Element in mehreren Tests verändern (z. B. Headline und Button gleichzeitig, ohne Kontrolle)
- Unkontrollierte Kombinationen (z. B. Headline A + Button B + Argument C)
- Dass dieselben Nutzer in mehreren Tests auftauchen
Interferenzeffekte verfälschen deine Daten und du weisst am Ende nicht, was gewirkt hat.

Alternative: Seriell testen
I
n vielen Fällen ist es daher besser, nacheinander zu testen:
- Erst Headline testen → beste Variante übernehmen
- Dann Button testen und beste Variante übernehmen
- Dann Argumente und die jeweils besten übernehmen
Das dauert zwar länger, aber du bekommst klare Ergebnisse, mit denen du arbeiten kannst.

4. A/B-Testing aufsetzen

Das Testing-Tool verteilt den Traffic gleichmässig auf A und B: zufällig, aber fair. Achte dabei auf:

  • Gleichmässige Verteilung (z. B. 50/50)
  • Keine Doppelbelastung (ein Nutzer sieht nicht A und B)
  • Ausreichend Laufzeit: Mindestens eine komplette Woche, ideal 2–4 Wochen bzw. bis mindestens 1.000 User drin waren
Tipp: In diesem Artikel findest du ebenfalls *Tools und Software für das A/B-Testing

5. Signifikanz und Testdauer beachten

Der Test muss lange genug laufen und genug Daten sammeln, sonst sind die Ergebnisse wertlos. Faustregeln:

  • Mindestens 1.000 Besucher pro Variante
  • Mindestens 100 Conversions pro Variante, besser mehr
  • Keine Zwischenauswertung („Peeking“), warte bis zum Ende

Statistische Signifikanz bedeutet: Der Unterschied zwischen A und B ist nicht nur Zufall. Gängiger Schwellenwert: 95 % Konfidenz.

Muss ich die statistische Signifikanz selbst berechnen?
Nein, die meisten Tools berechnen die statistische Signifikanz für dich oder bieten andere Auswertungen, mit denen du das Ergebnis des Tests einordnen kannst.
Statistische Signifikanz bedeutet: Der Unterschied zwischen Variante A und B ist so gross, dass er mit hoher Wahrscheinlichkeit kein Zufall ist. Gängige Schwelle: 95 % (bedeutet: Du bist mit 95 % Sicherheit sicher, dass die bessere Variante wirklich besser ist).

6. Ergebnis des A/B-Testings interpretieren und entscheiden

Das Ziel des A/B-Testings ist nicht nur, zu sehen, was gewonnen hat, sondern auch warum.

Danach folgt die Schlussfolgerung: Was bedeutet dieses Ergebnis für unsere Nutzer, unsere Hypothese und unsere nächsten Schritte?

Fall 1: Eine Variante ist signifikant besser ✅ 

Dein Testing-Tool zeigt dir: Variante B performt z. B. 18 % besser, bei 97 % Signifikanz. Super! Was jetzt?

  • DIe Variante implementieren, und zwar als neuen Standard
  • Hypothese dokumentieren und validieren: Hat sich bestätigt? Warum?
  • Test-Setup sichern (Screenshots, Zahlen, Interpretation)
  • Auswirkungen im Gesamtkontext prüfen: Gibt es Nebenwirkungen z. B. auf andere KPIs?

Beispiel: Variante B brachte mehr Klicks – aber auch mehr Abbrüche im nächsten Schritt? Dann ist noch nicht alles gewonnen.

Fall 2: Kein signifikanter Unterschied ⚖️ 

Das kann viele Gründe haben:

  • Die Änderung war zu klein oder unwichtig
  • Die Hypothese war falsch
  • Die Testdauer oder die Stichprobengrösse waren nicht ausreichend
  • Der Effekt existiert, aber ist schwach – oder liegt unter deiner Messgrenze

Was tun?

  • Nicht als Misserfolg werten, du hast trotzdem etwas gelernt
  • Hypothese überarbeiten: War die Begründung schlüssig?
  • Grössere oder auffälligere Änderungen testen
  • Weiterführenden Test aufsetzen: z. B. nächste Stelle im Funnel testen

Fall 3: Variante B ist schlechter ❌ 

Auch das ist ein wertvolles Ergebnis. Und zwar dann, wenn du es nicht ignorierst.

Was tun?

  • Klar dokumentieren: Was haben wir versucht, warum, was ist passiert?
  • Variante B natürlich nicht übernehmen
  • Ableiten: Was könnte die Nutzer irritiert oder abgeschreckt haben?
  • Nächste Hypothese auf Basis dieser Learnings aufbauen

Beispiel: Du hast mehr Infos in die Headline gepackt. Ergebnis: schlechtere Performance. Möglicher Rückschluss: Weniger ist mehr. Nächster Test: Kürzen statt erweitern.

Du steckst im A/B-Testing während deiner Conversion Rate Optimierung fest?

Wir von Axisbits wissen aus der Erfahrung zahlreicher Website- und Landingpage-Projekte, wie aufwändig das A/B-Testing sein kann. Und dabei ist die Testphase längst nicht alles auf dem Weg zu einer durchoptimierten Website.

Wenn die Performance deiner Seiten permanent unter deinen Erwartungen fährt und du dir sicher bist, dass dort mehr gehen muss, hilft womöglich ein neutraler Blick auf dein Testing Setup und deine bisherigen Hypothesen und Ergebnisse.

Dein Shop soll mehr umsetzen, deine Landingpage mehr Leads liefern und in deiner Pipeline ist noch zu viel Luft?
Vielleicht wird es Zeit für einen neutralen Blick auf deinen Content, deine Landingpages und die gesamte Website. Gemeinsam können wir ein A/B-Testing aufsetzen, das die Performance deiner Seite wieder steigen lässt. Melde dich bei uns und wir zeigen dir auch, wie wir an die Conversion Rate Optimierung deiner Seite herangehen würden.

{{fs-btn-cta}}

Du willst Marktchancen nutzen und Wachstum fördern?

Wir schaffen leistungsstarke Plattformen und Websites für Startups, Scale-Ups und KMUs, von Konzept bis Go-Live.

Share this article
https://www.axisbits.ch/ab-testing

A/B-Testing – Häufige Fragen und Antworten

Die Faustregel: Mindestens 1.000 Besucher pro Variante, besser mehr. Dazu brauchst du auch eine ausreichend hohe Conversion-Rate, damit dein Tool statistisch sinnvolle Unterschiede erkennt. Wenn deine Seite wenig Traffic hat, testest du besser grössere Veränderungen oder nutzt längerfristige Tests.

Mindestens eine volle Woche, idealerweise 2–4 Wochen, damit Wochentageffekte rausgerechnet werden. Und: Nur dann beenden, wenn dein Tool sagt, dass die Ergebnisse signifikant sind. Zu früh abzubrechen verfälscht alles.

Dann brauchst du entweder mehrere, klar getrennte Tests (mit Segmentierung), oder du arbeitest mit multivariatem Testing. Das ist allerdings komplexer und braucht deutlich mehr Traffic. Für die meisten Fälle: Lieber seriell testen, eine Hypothese nach der anderen.

Schau dir an, wo Nutzer abspringen oder zögern: Scrolltiefe, Abbruchraten, Heatmaps, Klickverhalten. Gute Testideen entstehen oft aus dem Verhalten deiner echten Besucher. Tools wie Hotjar, Clarity oder dein Webanalytics-System helfen dir, die richtigen Fragen zu stellen.

Weitere Artikel

05.03.2026
6
min Lesezeit
Heatmaps für Websites

Du optimierst deine Website nach Bauchgefühl, aber die Conversion Rate bleibt hartnäckig niedrig? Das Problem: Du weisst nicht, was deine Besucher wirklich tun, wo sie klicken und wann sie abspringen. In diesem Artikel erfährst du, wie Website Heatmaps dir das Verhalten der User offenlegen und wie du mit farbkodierten Nutzer-Daten deine Conversion Rate messbar steigerst.

02.03.2026
8
min Lesezeit
Guide: Deine Product Roadmap Schritt für Schritt

Ein neues Produkt von der Idee bis zur Marktreife zu bringen, ist anspruchsvoll. Eine Produkt-Roadmap kann dir dabei helfen, deine Vision zu strukturieren und mit Stakeholdern zu teilen. Sie macht alle Schritte für alle Beteiligten verständlich, von der ersten Skizze bis zur Auslieferung und begünstigt die Zusammenarbeit im Team. Parallel dazu schafft sie Vertrauen nach aussen und weckt Interesse bei potenziellen Kunden.

27.02.2026
4
min Lesezeit
Upselling verstehen: So machen es die grossen Shops

Für Kunden kann richtig eingesetztes Upselling eine hilfreiche Orientierung sein, denn sie entdecken Produkte, die besser zu ihren Ansprüchen passen. Für Anbieter ist Upselling eine bewährte Methode, um den durchschnittlichen Verkaufswert gezielt zu erhöhen. Erfahre, was Upselling bedeutet, wie du es sinnvoll und kundenfreundlich einsetzt und erhalte findest Beispiele aus dem E-Commerce, dem stationären Handel sowie für Dienstleistungen.