Ein neuer Windows-Malware-Jäger wurde von AV-TEST getestet und er war ziemlich schrecklich
In unserem vorherigen Artikel haben wir uns mit den Anti-Malware-Produkten wie Microsoft Defender, McAfee und Norton und anderen befasst, die Auswirkungen auf die Leistung haben können welche Systeme Sie haben und wie sie im Vergleich zueinander abschneiden. Dabei betrachten wir die Schutzfunktionen, die sie mit sich bringen, da eine leichte bis mäßige Beeinträchtigung der Systemgeschwindigkeit nicht entschuldbar ist, wenn eine Sicherheits-App nicht in der Lage ist, sich gegen Bedrohungen zu verteidigen.
AV-Comparatives und AV-TEST veröffentlichten ihre Ergebnisse in ihren neuesten Berichten und sie wurden unter Windows 10 bzw. Windows 11 durchgeführt. Ersterer veröffentlichte zwei separate, sehr umfassende Artikel: Real-World Protection Test und Malware Protection Test.
AV-Comparatives erklärt, wie der Real-World Protection Test funktioniert:
Unser Real-World-Schutztest zielt darauf ab, reale Bedingungen zu simulieren, wie sie die Benutzer jeden Tag erleben. Wenn Benutzerinteraktionen angezeigt werden, wählen wir „Zulassen“ oder eine gleichwertige Option. Wenn das Produkt das System trotzdem schützt, zählen wir die Malware als blockiert, auch wenn wir das Programm laufen lassen, wenn der Benutzer zu einer Entscheidung aufgefordert wird. Wenn das System kompromittiert ist, zählen wir es als benutzerabhängig.
Und so sieht der Malware-Schutztest aus:
Der Malware Protection Test bewertet die Fähigkeit eines Sicherheitsprogramms, ein System vor, während oder nach der Ausführung vor einer Infektion durch schädliche Dateien zu schützen.
Die für jedes getestete Produkt verwendete Methodik ist wie folgt. Vor der Ausführung werden alle Testproben durch das Sicherheitsprogramm On-Access- und On-Demand-Scans unterzogen, wobei diese jeweils sowohl offline als auch online durchgeführt werden.
Alle Proben, die bei keinem dieser Scans erkannt wurden, werden dann auf dem Testsystem mit verfügbarem Internet-/Cloud-Zugang ausgeführt, um z. Verhaltenserkennungsfunktionen ins Spiel kommen. Wenn ein Produkt nicht alle von einem bestimmten Malware-Beispiel innerhalb eines bestimmten Zeitraums vorgenommenen Änderungen verhindert oder rückgängig macht, gilt dieser Testfall als Fehlschlag. Wenn der Benutzer aufgefordert wird, zu entscheiden, ob ein Malware-Beispiel ausgeführt werden darf, und im Falle der schlimmsten Benutzerentscheidung Systemänderungen beobachtet werden, wird der Testfall als „benutzerabhängig“ bewertet.
Der Real-World-Test besteht aus insgesamt 512 Testfällen, während der Malware Protection-Test über 10.000, genauer gesagt 10.007, umfasst. Die folgenden Bilder stammen von letzterem.
In der Offline-Kategorie schneidet Microsoft Defender weiterhin mittelmäßig ab. Dies wurde auch in früheren Bewertungen festgestellt, wird jedoch durch die Online-Erkennungs- und Schutzraten mehr als wettgemacht. Neben Defender konnte auch McAfee im Offline-Erkennungstest kaum überzeugen, Kaspersky hatte knapp die Nase vorn.
Beim Defender, der etwa im Mittelfeld der Rangliste liegt, gab es fünf Fehlalarme. Die höchsten Fehlalarme wurden von F-Secure gemeldet. Unter den beliebteren Produkten gehörten McAfee und Norton mit 10 bzw. 12 Fehlalarmen zu den schlechtesten.
Bei AV-TEST zeigen die meisten getesteten Produkte eine ähnliche Leistung. Allerdings gibt es unter ihnen einen großen Ausreißer.
Bkav, ein in Vietnam ansässiges Antivirenprodukt, ist ein relativ neuer Teilnehmer an der Bewertung von AV-TEST und es ist klar, dass es nicht so gut abgeschnitten hat. Die Internet-Sicherheits-KI von Bkav erhielt 3,0 von 6,0 Punkten in der Kategorie „Schutz“ und 3,5 von 6,0 Punkten in der Kategorie „Benutzerfreundlichkeit“, was sie zu einem der schlechtesten Ergebnisse aller Zeiten macht, da AV-TEST sehr selten Werte unter 4,5 vergibt.
Falls Sie sich fragen: Der Usability-Score soll Unannehmlichkeiten und Belästigungen messen, die durch ein Antivirenprodukt verursacht werden. Daher werden Dinge wie Fehlalarme in diese Kategorie gezählt.
Wenn wir uns die Aufschlüsselung der Bkav-Ergebnisse ansehen, ist es leicht zu verstehen, warum. Mit einem Wert von nur 54,5 %, was fast der Hälfte des Branchendurchschnitts von 99,2 % entspricht, hatte Bkav eindeutig große Schwierigkeiten, mit Zero-Day-Malware umzugehen. Noch schlimmer ist, dass der Wert in diesem Monat niedriger ist als im September.
Mittlerweile wurden in der Kategorie „Benutzerfreundlichkeit“ 258 falsch positive Erkennungen gemessen, verglichen mit dem Branchendurchschnitt von nur 1. Bedenken Sie jedoch, dass dieser Wert viel besser ist als die 732 des Vormonats und die Entwickler also auf dem richtigen Weg zu sein scheinen.
Schreibe einen Kommentar