Nous proposons un test de détection de fichiers avec exécution qui inclut spécifiquement la vérification de fausses alertes.
Notre méthode de test innovante permet de déterminer l'efficacité d'un système de détection de fichiers en le soumettant à différents scénarios et en évaluant sa capacité à détecter les menaces réelles tout en minimisant les fausses alertes.
En utilisant un échantillon diversifié de fichiers, y compris des fichiers potentiellement dangereux, notre test simule des conditions réelles d'utilisation. Nous mesurons ensuite les résultats obtenus, en tenant compte à la fois du taux de détection des fichiers malveillants et du taux de fausses alarmes.
L'objectif de notre test est de garantir que le système de détection de fichiers est fiable et précis dans la détection des menaces tout en évitant les dérangements inutiles causés par des fausses alarmes. Une fausse alarme se produit lorsque le système signale à tort qu'un fichier est malveillant alors qu'il est en réalité sécurisé.
En identifiant les éventuelles fausses alarmes, nous pouvons améliorer la précision du système de détection, réduire les interruptions inutiles et renforcer la confiance des utilisateurs dans son fonctionnement. Notre test offre une évaluation complète et équilibrée de la performance du système, en prenant en compte à la fois la détection des menaces réelles et la prévention des fausses alarmes.
Nous nous engageons à fournir des résultats précis et détaillés pour permettre aux utilisateurs de prendre des décisions éclairées concernant la sécurité de leurs fichiers. Notre test de détection de fichiers avec exécution, incluant le test de fausse alarme, est conçu pour offrir une évaluation complète et fiable du système de détection, garantissant ainsi une protection efficace contre les menaces tout en minimisant les interruptions inutiles.
Produits évalués
Informations sur les moteurs/signatures tiers supplémentaires utilisés dans les produits : G Data, Total Defense et VIPRE intègrent le moteur Bitdefender. TotalAV utilise le moteur Avira. AVG est une version renommée d'Avast.
Avast Antivirus Gratuit
moyenneAVG Antivirus Gratuit
aviraAvira Premier
Bitdefender Internet Security
casESET Internet Security
G Data Total Security
K7 Total Security
kasperskyKaspersky Internet Security
Malwarebytes Premium
McAfee Total Protection
Antivirus Microsoft Defender
NortonLifeLock Norton 360 Deluxe
Panda Antivirus Gratuit
défense totaleTotal Defense Essential Antivirus
total deTotal AV Antivirus Pro
tendancemicroTrend Micro Internet Security
VIPRE Sécurité Avancée
Configuration du système et procédure de test
Tous les produits ont été installés sur un système Microsoft Windows 10 64 bits entièrement mis à jour. Les tests ont été effectués au début du mois de mars en utilisant les paramètres par défaut et les dernières mises à jour de chaque produit.
La procédure de test
Le test de protection contre les logiciels malveillants évalue la capacité d'un programme de sécurité à protéger un système contre l'infection par des fichiers malveillants avant, pendant ou après leur exécution. Voici la méthodologie utilisée pour chaque produit testé :
Analyse préalable à l'exécution : Avant l'exécution, tous les échantillons de test sont soumis à des analyses à l'accès et à la demande par le programme de sécurité. Ces analyses sont effectuées à la fois en mode hors ligne et en ligne.
Exécution des échantillons de test : Tous les échantillons qui n'ont pas été détectés par les analyses préalables sont exécutés sur le système de test, en permettant l'accès à Internet/cloud. Cette étape permet aux fonctionnalités de détection comportementale de prendre en compte les comportements suspects.
Évaluation des résultats : Si un produit n'empêche pas ou n'annule pas toutes les modifications apportées par un échantillon de logiciel malveillant pendant une période donnée, le cas de test est considéré comme un échec. De plus, si l'utilisateur est invité à prendre une décision concernant l'exécution d'un échantillon de logiciel malveillant et que des modifications sont observées sur le système lors de la pire décision prise par l'utilisateur, le cas de test est classé comme "dépendant de l'utilisateur".
Détection vs Protection
Nos tests précédents étaient axés uniquement sur la détection des fichiers malveillants. Ils évaluaient la capacité des programmes de sécurité à détecter les fichiers malveillants avant leur exécution. Bien que cette capacité reste essentielle pour vérifier la sécurité d'un fichier avant de le partager, notre test de protection contre les logiciels malveillants va plus loin.
Ce test évalue non seulement les taux de détection, mais également les capacités de protection des programmes. Il mesure leur capacité à prévenir les modifications apportées par les logiciels malveillants au système. Par exemple, un programme antivirus peut ne pas reconnaître un échantillon de logiciel malveillant lorsqu'il est inactif, mais le détectera lorsqu'il est en cours d'exécution. De plus, certaines solutions utilisent la détection comportementale pour bloquer les tentatives de logiciels malveillants de modifier le système. Notre test évalue ainsi la capacité globale des produits de sécurité à protéger le système contre les programmes malveillants, avant, pendant et après leur exécution.
Notre test complète également notre évaluation de la protection dans le monde réel, qui inclut des échantillons de logiciels malveillants provenant d'URL en direct, permettant ainsi de tester les bloqueurs d'URL. Les deux tests incluent l'exécution de tout logiciel malveillant non détecté par d'autres fonctionnalités, pour évaluer les dernières lignes de défense des produits.
Détection basée sur le cloud
Une des approches utilisées pour la détection des logiciels malveillants est le recours au cloud. Les auteurs de logiciels malveillants cherchent constamment de nouvelles méthodes pour échapper à la détection. En utilisant la détection basée sur le cloud, les fournisseurs peuvent détecter et classifier en temps réel les fichiers suspects, protégeant ainsi les utilisateurs contre les logiciels malveillants encore inconnus. Cette approche permet également de maintenir certaines parties de la technologie de protection dans le cloud, empêchant ainsi les auteurs de logiciels malveillants de s'adapter rapidement aux nouvelles règles de détection.
Ensemble de tests et système de classement
Notre ensemble de tests comprenait 10,360 échantillons de logiciels malveillants, soigneusement sélectionnés à partir des données de télémétrie pour inclure des échantillons récents et répandus représentatifs des menaces auxquelles les utilisateurs sont confrontés. Les variantes de logiciels malveillants ont été regroupées pour créer un ensemble de tests équilibré et éviter la sur-représentation d'un même logiciel malveillant. La collecte des échantillons s'est terminée fin mars 2023.
Nous avons pris en compte le nombre de faux positifs, en utilisant des méthodes statistiques pour définir les plages de faux positifs. Ces plages peuvent être adaptées en fonction des différentes catégories, en prenant en compte des facteurs tels que la taille de l'ensemble de fichiers sains.
Évaluation de la détection en ligne et hors ligne
De nombreux produits testés utilisent des technologies cloud, comme les services de réputation ou les signatures basées sur le cloud, qui ne peuvent être utilisés que lorsque vous disposez d'une connexion Internet active. En effectuant des analyses à la fois hors ligne et en ligne, notre test fournit des informations sur la dépendance de chaque produit au cloud et, par conséquent, sur sa capacité à protéger le système en l'absence de connexion Internet. Nous recommandons vivement aux fournisseurs dont les produits dépendent fortement du cloud d'informer les utilisateurs de manière appropriée en cas de perte de connexion au cloud, car cela peut avoir un impact significatif sur le niveau de protection offert. Il est important de noter que, bien que notre test vérifie l'accessibilité des services cloud des fournisseurs de sécurité respectifs, les utilisateurs doivent comprendre que la simple présence en ligne ne garantit pas nécessairement l'accessibilité ou le bon fonctionnement du service cloud de leur produit.
Résultats des tests : Taux de protection en ligne global (regroupés par catégories)
Veuillez prendre en compte les taux de fausses alarmes lors de l'évaluation des taux de protection ci-dessous.
Résultats des tests : Taux de protection en ligne global (regroupés par catégories)
Nous vous invitons également à prendre en compte les taux de fausses alarmes lors de l'interprétation des taux de protection suivants.
L'ensemble de tests utilisé comprenait 10,040 échantillons collectés au cours des dernières semaines.
Évaluation des faux positifs (fausses alarmes) lors du test
Afin de mieux évaluer la qualité des capacités de détection des fichiers (capacité à distinguer les fichiers légitimes des fichiers malveillants) des produits antivirus, nous fournissons un test de fausses alarmes. Les fausses alarmes peuvent parfois causer autant de problèmes qu'une véritable infection. Veuillez prendre en compte le taux de fausses alarmes lors de l'examen des taux de détection, car un produit sujet aux fausses alarmes peut atteindre des taux de détection plus élevés plus facilement. Dans ce test, un ensemble représentatif de fichiers sains a été analysé et exécuté, simulant ainsi le comportement d'un logiciel malveillant.
Évaluation des récompenses dans le test de protection contre les logiciels malveillants
Un produit qui parvient à détecter un pourcentage élevé de fichiers malveillants, mais qui génère de nombreuses fausses alarmes, n'est pas nécessairement meilleur qu'un produit qui détecte moins de fichiers malveillants, mais qui génère moins de fausses alarmes. Dans ce test, nous fournissons des niveaux de récompense basés à la fois sur les taux de faux positifs et les taux de protection. Les utilisateurs experts, qui accordent moins d'importance aux fausses alarmes, peuvent se concentrer uniquement sur les taux de protection bruts.
Voici le classement selon les tests
Logiciels de catégorie supérieure
Avast
AVG
Avira
Bitdefender
Kaspersky
McAfee
Microsoft
Norton
TotalAV
Total Defense
VIPRE
Logiciels de catégorie moyenne
ESET
G DATA*
K7*
Malwarebytes
Logiciels de catégorie inférieure
Panda*
Trend Micro
* Les logiciels ayant un astérix à fin de leurs noms ont vu leur cote dévaluée à cause des faux positifs élevés.
Notre méthode de test innovante permet de déterminer l'efficacité d'un système de détection de fichiers en le soumettant à différents scénarios et en évaluant sa capacité à détecter les menaces réelles tout en minimisant les fausses alertes.
En utilisant un échantillon diversifié de fichiers, y compris des fichiers potentiellement dangereux, notre test simule des conditions réelles d'utilisation. Nous mesurons ensuite les résultats obtenus, en tenant compte à la fois du taux de détection des fichiers malveillants et du taux de fausses alarmes.
L'objectif de notre test est de garantir que le système de détection de fichiers est fiable et précis dans la détection des menaces tout en évitant les dérangements inutiles causés par des fausses alarmes. Une fausse alarme se produit lorsque le système signale à tort qu'un fichier est malveillant alors qu'il est en réalité sécurisé.
En identifiant les éventuelles fausses alarmes, nous pouvons améliorer la précision du système de détection, réduire les interruptions inutiles et renforcer la confiance des utilisateurs dans son fonctionnement. Notre test offre une évaluation complète et équilibrée de la performance du système, en prenant en compte à la fois la détection des menaces réelles et la prévention des fausses alarmes.
Nous nous engageons à fournir des résultats précis et détaillés pour permettre aux utilisateurs de prendre des décisions éclairées concernant la sécurité de leurs fichiers. Notre test de détection de fichiers avec exécution, incluant le test de fausse alarme, est conçu pour offrir une évaluation complète et fiable du système de détection, garantissant ainsi une protection efficace contre les menaces tout en minimisant les interruptions inutiles.
Produits évalués
Informations sur les moteurs/signatures tiers supplémentaires utilisés dans les produits : G Data, Total Defense et VIPRE intègrent le moteur Bitdefender. TotalAV utilise le moteur Avira. AVG est une version renommée d'Avast.
Avast Antivirus Gratuit
moyenneAVG Antivirus Gratuit
aviraAvira Premier
Bitdefender Internet Security
casESET Internet Security
G Data Total Security
K7 Total Security
kasperskyKaspersky Internet Security
Malwarebytes Premium
McAfee Total Protection
Antivirus Microsoft Defender
NortonLifeLock Norton 360 Deluxe
Panda Antivirus Gratuit
défense totaleTotal Defense Essential Antivirus
total deTotal AV Antivirus Pro
tendancemicroTrend Micro Internet Security
VIPRE Sécurité Avancée
Configuration du système et procédure de test
Tous les produits ont été installés sur un système Microsoft Windows 10 64 bits entièrement mis à jour. Les tests ont été effectués au début du mois de mars en utilisant les paramètres par défaut et les dernières mises à jour de chaque produit.
La procédure de test
Le test de protection contre les logiciels malveillants évalue la capacité d'un programme de sécurité à protéger un système contre l'infection par des fichiers malveillants avant, pendant ou après leur exécution. Voici la méthodologie utilisée pour chaque produit testé :
Analyse préalable à l'exécution : Avant l'exécution, tous les échantillons de test sont soumis à des analyses à l'accès et à la demande par le programme de sécurité. Ces analyses sont effectuées à la fois en mode hors ligne et en ligne.
Exécution des échantillons de test : Tous les échantillons qui n'ont pas été détectés par les analyses préalables sont exécutés sur le système de test, en permettant l'accès à Internet/cloud. Cette étape permet aux fonctionnalités de détection comportementale de prendre en compte les comportements suspects.
Évaluation des résultats : Si un produit n'empêche pas ou n'annule pas toutes les modifications apportées par un échantillon de logiciel malveillant pendant une période donnée, le cas de test est considéré comme un échec. De plus, si l'utilisateur est invité à prendre une décision concernant l'exécution d'un échantillon de logiciel malveillant et que des modifications sont observées sur le système lors de la pire décision prise par l'utilisateur, le cas de test est classé comme "dépendant de l'utilisateur".
Détection vs Protection
Nos tests précédents étaient axés uniquement sur la détection des fichiers malveillants. Ils évaluaient la capacité des programmes de sécurité à détecter les fichiers malveillants avant leur exécution. Bien que cette capacité reste essentielle pour vérifier la sécurité d'un fichier avant de le partager, notre test de protection contre les logiciels malveillants va plus loin.
Ce test évalue non seulement les taux de détection, mais également les capacités de protection des programmes. Il mesure leur capacité à prévenir les modifications apportées par les logiciels malveillants au système. Par exemple, un programme antivirus peut ne pas reconnaître un échantillon de logiciel malveillant lorsqu'il est inactif, mais le détectera lorsqu'il est en cours d'exécution. De plus, certaines solutions utilisent la détection comportementale pour bloquer les tentatives de logiciels malveillants de modifier le système. Notre test évalue ainsi la capacité globale des produits de sécurité à protéger le système contre les programmes malveillants, avant, pendant et après leur exécution.
Notre test complète également notre évaluation de la protection dans le monde réel, qui inclut des échantillons de logiciels malveillants provenant d'URL en direct, permettant ainsi de tester les bloqueurs d'URL. Les deux tests incluent l'exécution de tout logiciel malveillant non détecté par d'autres fonctionnalités, pour évaluer les dernières lignes de défense des produits.
Détection basée sur le cloud
Une des approches utilisées pour la détection des logiciels malveillants est le recours au cloud. Les auteurs de logiciels malveillants cherchent constamment de nouvelles méthodes pour échapper à la détection. En utilisant la détection basée sur le cloud, les fournisseurs peuvent détecter et classifier en temps réel les fichiers suspects, protégeant ainsi les utilisateurs contre les logiciels malveillants encore inconnus. Cette approche permet également de maintenir certaines parties de la technologie de protection dans le cloud, empêchant ainsi les auteurs de logiciels malveillants de s'adapter rapidement aux nouvelles règles de détection.
Ensemble de tests et système de classement
Notre ensemble de tests comprenait 10,360 échantillons de logiciels malveillants, soigneusement sélectionnés à partir des données de télémétrie pour inclure des échantillons récents et répandus représentatifs des menaces auxquelles les utilisateurs sont confrontés. Les variantes de logiciels malveillants ont été regroupées pour créer un ensemble de tests équilibré et éviter la sur-représentation d'un même logiciel malveillant. La collecte des échantillons s'est terminée fin mars 2023.
Nous avons pris en compte le nombre de faux positifs, en utilisant des méthodes statistiques pour définir les plages de faux positifs. Ces plages peuvent être adaptées en fonction des différentes catégories, en prenant en compte des facteurs tels que la taille de l'ensemble de fichiers sains.

Évaluation de la détection en ligne et hors ligne
De nombreux produits testés utilisent des technologies cloud, comme les services de réputation ou les signatures basées sur le cloud, qui ne peuvent être utilisés que lorsque vous disposez d'une connexion Internet active. En effectuant des analyses à la fois hors ligne et en ligne, notre test fournit des informations sur la dépendance de chaque produit au cloud et, par conséquent, sur sa capacité à protéger le système en l'absence de connexion Internet. Nous recommandons vivement aux fournisseurs dont les produits dépendent fortement du cloud d'informer les utilisateurs de manière appropriée en cas de perte de connexion au cloud, car cela peut avoir un impact significatif sur le niveau de protection offert. Il est important de noter que, bien que notre test vérifie l'accessibilité des services cloud des fournisseurs de sécurité respectifs, les utilisateurs doivent comprendre que la simple présence en ligne ne garantit pas nécessairement l'accessibilité ou le bon fonctionnement du service cloud de leur produit.
Résultats des tests : Taux de protection en ligne global (regroupés par catégories)
Veuillez prendre en compte les taux de fausses alarmes lors de l'évaluation des taux de protection ci-dessous.

Résultats des tests : Taux de protection en ligne global (regroupés par catégories)
Nous vous invitons également à prendre en compte les taux de fausses alarmes lors de l'interprétation des taux de protection suivants.

L'ensemble de tests utilisé comprenait 10,040 échantillons collectés au cours des dernières semaines.

Évaluation des faux positifs (fausses alarmes) lors du test
Afin de mieux évaluer la qualité des capacités de détection des fichiers (capacité à distinguer les fichiers légitimes des fichiers malveillants) des produits antivirus, nous fournissons un test de fausses alarmes. Les fausses alarmes peuvent parfois causer autant de problèmes qu'une véritable infection. Veuillez prendre en compte le taux de fausses alarmes lors de l'examen des taux de détection, car un produit sujet aux fausses alarmes peut atteindre des taux de détection plus élevés plus facilement. Dans ce test, un ensemble représentatif de fichiers sains a été analysé et exécuté, simulant ainsi le comportement d'un logiciel malveillant.


Évaluation des récompenses dans le test de protection contre les logiciels malveillants
Un produit qui parvient à détecter un pourcentage élevé de fichiers malveillants, mais qui génère de nombreuses fausses alarmes, n'est pas nécessairement meilleur qu'un produit qui détecte moins de fichiers malveillants, mais qui génère moins de fausses alarmes. Dans ce test, nous fournissons des niveaux de récompense basés à la fois sur les taux de faux positifs et les taux de protection. Les utilisateurs experts, qui accordent moins d'importance aux fausses alarmes, peuvent se concentrer uniquement sur les taux de protection bruts.
Voici le classement selon les tests
Logiciels de catégorie supérieure
Avast
AVG
Avira
Bitdefender
Kaspersky
McAfee
Microsoft
Norton
TotalAV
Total Defense
VIPRE
Logiciels de catégorie moyenne
ESET
G DATA*
K7*
Malwarebytes
Logiciels de catégorie inférieure
Panda*
Trend Micro
* Les logiciels ayant un astérix à fin de leurs noms ont vu leur cote dévaluée à cause des faux positifs élevés.