Die Güte eines Tests lässt sich durch die Sensitivität und Spezifität beziffern
Die Sensitivität gibt dabei an, wie sensibel der Test auf den gesuchten Stoff reagiert. Formal ist die Sensitivität die empirisch bestimmte Wahrscheinlichkeit, mit der eine tatsächlich erkrankte Person auch als »positiv« getestet wird. Umgekehrt bedeutet ein positives Testergebnis nicht immer auch eine Erkrankung. Gemessen wird das durch die Spezifität: Diese ist definiert als die Wahrscheinlichkeit, mit der eine nicht-erkrankte Person auch korrekterweise einen negativen Test erhält. Theoretisch lässt sich die Sensitivität oft sehr hoch setzen, was aber zwangsläufig dazu führt, dass man auch bei den sehr geringen Konzentrationen, die bei vielen Gesunden vorliegen, ein positives Testergebnis erhält. Daher möchte man nicht nur eine beliebig hohe Sensitivität, sondern auch eine möglichst hohe Spezifität.
Mittels des kritischen Wertes lassen sich nun für einen gegebenen Test die Sensitivität und Spezifität beeinflussen. Je niedriger der kritische Wert, desto sensibler reagiert der Test, aber desto unspezifischer ist auch das Ergebnis. In unterschiedlichen Einsatzgebieten werden da auch unterschiedliche Abwägungen getroffen: Schnelltests (bspw. auf Schwangerschaften) haben eine hohe Detektionsrate als Ziel, weswegen sie oft sehr sensitiv, aber nicht extrem spezifisch sind.
Eng verbunden mit Sensitivität und Spezifität sind die Begriffe falsch-positiv- und falsch-negativ-Rate. Die falsch-positiv-Rate ist dabei 100 Prozent minus Spezifität; die falsch-negativ-Rate ist 100 Prozent minus Sensitivität. Das Schöne an diesen Begriffen ist, dass sie sehr anschaulich sind: Liegt die falsch-negativ-Rate bei 0,1 Prozent, so bedeutet dies, dass exakt einer von 1.000 Erkrankten fälschlicherweise negativ getestet wird. Umgekehrt bedeutet eine falsch-positiv-Rate von 0,1 Prozent, dass genau eine Person von 1.000 Gesunden ein fälschlicherweise positives Testergebnis erhält.