Leistungsbeurteilungen spielen eine zentrale Rolle bei der Unterstützung sinnvoller Gespräche über Performance, Wachstum und Entwicklung. Durch die Verwendung von Kampagnen kannst du strukturierte individuelle Beurteilungen in großem Umfang durchführen und gleichzeitig eine konsistente und faire Erfahrung für alle Teilnehmenden gewährleisten. Dieser Leitfaden führt dich durch jeden Schritt der Einrichtung und des Starts einer Kampagne, von der Konfiguration bis zum Launch.
Deine Kampagne einrichten und veröffentlichen
1. Eine neue Kampagne erstellen
Beginne, indem du zum Kampagnenbereich gehst.
Gehe zu Performance → Kampagnen.
Klicke oben rechts auf Neue Kampagne.
Wähle im Menü individuelle Kampagne als Kampagnenart aus.
2. Kampagnendetails konfigurieren
Lege als Nächstes die grundlegenden Parameter deiner Kampagne fest:
Title: Gib der Kampagne einen klaren und aussagekräftigen Namen (zum Beispiel: Jährliche Leistungsbeurteilung 2025).
Teilnehmende: Wähle die relevanten Teams, Gruppen und/oder einzelnen Mitarbeitenden aus.
Bewertungszeitraum: Lege den Zeitraum fest, den die Beurteilung abdecken soll.
Hauptbewerter*in: Wähle aus, wer als hauptverantwortliche*r Bewerter*in für die Mitarbeitenden fungieren soll.
📌 Hinweis: Standardmäßig wird der*die direkte Vorgesetzte (N+1) des*der Mitarbeiter*in automatisch als Hauptbewerter*in ausgewählt. Wenn einem*einer Mitarbeiter*in noch kein*e Manager*in zugewiesen wurde, kannst du das noch machen, während sich die Kampagne im Entwurf befindet.
3. Einen Fragebogen auswählen
Wähle den Fragebogen aus, der für diesen Beurteilungszyklus verwendet werden soll.
Wähle aus deinen gespeicherten Fragebogenvorlagen aus.
Verwende das Vorschau-Icon (Auge), um eine Vorlage zu prüfen, bevor du sie auswählst.
💡 Tipp: Das Erstellen und Pflegen von Fragebogenvorlagen im Voraus kann die Einrichtung der Kampagne erheblich beschleunigen. Du kannst verschiedene Vorlagen für unterschiedliche Rollen, Teams oder Hierarchieebenen vorbereiten.
4. Den Zeitplan festlegen
Lege wichtige Termine fest, um die Kampagne zu strukturieren und die Teilnehmenden zu leiten. Sie helfen dabei, Rahmenbedingungen für eine Kampagne zu schaffen, hindern die Nutzenden jedoch nicht daran, ihre Beurteilungen vorzubereiten oder zu bestätigen, wenn eine Frist überschritten wird.
Frist für die Vorbereitung: Bis wann Mitarbeitende und Manager*innen ihre Vorbereitung abgeschlossen haben sollten.
Frist für die Bestätigung (Fälligkeitsdatum): Bis wann beide Parteien die endgültige Beurteilung abschließen sollten.
5. Die Startbenachrichtigung anpassen
Bevor du die Kampagne startest, kannst du die E-Mail-Benachrichtigung anpassen, die an die Teilnehmenden gesendet wird.
Aktualisiere die Betreffzeile und die Nachricht.
Füge bei Bedarf Kontext, Anweisungen oder Links zu internen Inhalten hinzu.
📌 Hinweis: Manager*innen, die an mehreren Beurteilungen innerhalb derselben Kampagne beteiligt sind, erhalten nur eine Benachrichtigungs-E-Mail, um eine Überflutung des Posteingangs zu vermeiden.
6. Die Kampagne starten
Sobald du alle Einstellungen überprüft hast, klicke auf Kampagne starten. Das System erstellt alle individuellen Beurteilungen und versendet die Benachrichtigungs-E-Mail an die Teilnehmenden. Du bist startklar!
Häufig gestellte Fragen
Was ist, wenn ich eine*n Mitarbeiter*in hinzufügen muss, nachdem die Kampagne bereits gestartet wurde?
Was ist, wenn ich eine*n Mitarbeiter*in hinzufügen muss, nachdem die Kampagne bereits gestartet wurde?
Du kannst neue Teilnehmende zu einer aktiven Kampagne über die Kampagneneinstellungen hinzufügen. Der*Die neu hinzugefügte Mitarbeiter*in erhält die Startbenachrichtigung und wird in den Prozess einbezogen.
Kann ich den Fragebogen bearbeiten, nachdem die Kampagne gestartet wurde?
Kann ich den Fragebogen bearbeiten, nachdem die Kampagne gestartet wurde?
Nein. Sobald eine Kampagne gestartet wurde, kann der Fragebogen nicht mehr geändert werden. Dies gewährleistet eine konsistente Beurteilungserfahrung für alle Teilnehmenden. Stelle sicher, dass du deinen Fragebogen fertigstellst, bevor du die Kampagne startest.
