Zusammenfassung: Traditionelle metrische Indikatoren für wissenschaftliche Produktivität (z. B. Impact-Faktoren von Zeitschriften, h-Index) werden kritisiert, weil (a) empirische Studien ihre Validität in Frage stellen und sie (b) eine Kultur zu fördern scheinen, die der reinen Quantität Vorrang gegenüber der inhaltlichen Qualität der Forschung gibt. Der Ruf nach spezifischen, besseren Alternativen zu den derzeit gängigen Leistungsindikatoren wird immer lauter. Die Deutsche Gesellschaft für Psychologie hat nach der Unterzeichnung von DORA und dem Beitritt zu CoARA eine Arbeitsgruppe mit der Frage befasst, wie eine verantwortungsvollere Form der Forschungsbewertung für die Psychologie aussehen könnte. Über den aktuellen Stand dieser Überlegungen berichten wir hier: Konkret schlagen wir ein zweistufiges Bewertungsverfahren vor, das die Objektivität und Effizienz metrischer Indikatoren (Phase 1) mit einer vertieften, diskursiven Bewertung spezifischer Forschungsinhalte verbindet (Phase 2) verbindet. Wir plädieren für eine Ausweitung des Spektrums relevanter Forschungsbeiträge und schlagen Qualitätskriterien für Forschungsartikel, Datensätze und Forschungssoftware vor, welche vor allem deren methodische Stringenz erfassen. Anhand dieser Kriterien wird in der ersten Phase des Bewertungsprozesses ermittelt, ob eine Mindestschwelle für methodische Stringenz erreicht wird, die Kandidat:innen erfüllen müssen, um für eine Einstellung oder Beförderung in Frage zu kommen. Im Gegensatz dazu sollen in der zweiten Phase des Beurteilungsprozesses Metriken keine Rolle mehr spielen, sondern die spezifischen Inhalte der Forschungsarbeiten der Kandidat:innen im Fokus einer vertieften Diskussion stehen. Wir stellen konkrete Erhebungsinstrumente bereit, die zum Teil bereits in der Praxis erprobt wurden. Unser Ziel ist es, eine breite Diskussion über das Thema anzuregen und letztlich dazu beizutragen, dass die Bedeutung der wissenschaftlichen Qualität im Rahmen von Berufungsverfahren spürbar gestärkt wird.