Accueil Développement Qu'est-ce que la complexité de calcul? - définition de techopedia

Qu'est-ce que la complexité de calcul? - définition de techopedia

Table des matières:

Anonim

Définition - Que signifie la complexité informatique?

La complexité informatique est un concept informatique qui se concentre sur la quantité de ressources informatiques nécessaires pour des types particuliers de tâches. Dans la théorie de la complexité computationnelle, les chercheurs évaluent les types de ressources qui seront nécessaires pour un type ou une classe de tâches donné afin de classer différents types de tâches en différents niveaux de complexité.

Techopedia explique la complexité informatique

Bien que la complexité informatique soit à certains égards similaire à l'analyse des algorithmes, c'est essentiellement sa propre branche de la théorie mathématique. Certains considèrent cette approche comme une mesure de la quantité de travail qu'il faudrait pour résoudre un problème particulier ou pour accomplir une tâche particulière. Différents types d'analystes utilisent la recherche sur la complexité informatique pour trouver les parties d'une tâche qui peuvent être les plus difficiles pour un système informatique, ou pour trouver la manière de réaliser le plus efficacement un projet. Bien que certains développeurs puissent considérer que la complexité de calcul n'est pas pertinente pour leur travail, d'autres ont souligné que le fait de changer avec succès des tâches ou des algorithmes d'une classe de complexité supérieure à une classe de complexité inférieure peut les rendre beaucoup plus efficaces. Les programmeurs et les développeurs qui utilisent la théorie de la complexité de calcul sur des éléments tels que les boucles imbriquées, les arbres logiques ou d'autres types de rythmes peuvent créer des systèmes plus efficaces avec une meilleure compréhension de la façon de créer des processus moins gourmands en ressources.

Qu'est-ce que la complexité de calcul? - définition de techopedia