Mois : novembre 2019

Cloud privé vs cloud public

Depuis quelques années, le Cloud Computing a le vent en poupe. De plus en plus d’entreprises font appel à cette manière de stocker, d’accéder et d’échanger des données informatiques.

Le concept est simple : faciliter le travail de l’ensemble des collaborateurs en leur permettant un accès aux informations dont ils ont besoin depuis n’importe où, tout en permettant une plus grande maintenabilité et sécurité. Et pourtant, le concept du Cloud reste quelque chose d’assez vague dans l’esprit de la plupart des chefs d’entreprise.

Mais quelle est exactement la différence entre les deux, et à quel moment devez vous faire appel à l’un ou à l’autre ? et quel partenaire Cloud pour me conseiller et m’accompagner ?

ComputerLand est justement spécialisé dans les prestations de Cloud Computing. Et l’on se rend compte d’une chose : de nombreuses questions se posent. Par exemple, lorsque l’on fait le choix de passer à cette méthodologie, on entend parler régulièrement soit de Cloud privé, soit de Cloud public mais aussi et plus récemment de Cloud hybride.

cloud privé public hybride, quelles différences ?


Dans tout système de Cloud, seule votre entreprise et vos collaborateurs vont pouvoir accéder à vos ressources. Peu importe le terminal utilisé, que ce soit un ordinateur, une tablette ou un mobile, que ce soit dans les locaux de l’entreprise ou à l’extérieur, vous allez vous connecter à votre serveur de Cloud.

Définition Cloud privé: Avant toute chose, il s’agit du format le plus courant,  le Cloud privé ou Cloud dédié, les deux termes sont valables, désigne une infrastructure qui vous est totalement dédiée, c’est-à-dire que ce sont votre ou vos serveurs privatifs qui vont gérer l’ensemble de vos données et pour tous les utilisateurs de votre entreprise. Celui-ci est administré soit en interne, soit par un prestataire spécialisé. Votre Cloud privé qu’il soit hébergé en interne ou dans un datacenter est très proche d’une infrastructure locale.

Pour la plupart des sociétés, le Cloud privé a un coût fixe en fonction du type de serveur utilisé, de sa capacité en terme de puissance, de stockage et de la maintenance qui est associée. Parfois, le prix peut aussi varier en fonction du nombre d’utilisateurs.

A l’inverse, le gros avantage du Cloud privé est d’avoir un contrôle beaucoup plus complet sur ses données et sur son infrastructure. Elle sera en effet bien plus adaptée à ses besoins, mais elle risque d’être plus coûteuse.

Les avantages :

  • il est adapté sur mesure à vos besoins votre infrastructure
  • vous ne payez pas plus cher avec plus de transfert de données

Les limites :

  • il est moins réactif en cas de montée en charge
  • il est coûteux à mettre en place


A l’inverse, le Cloud public ne veut pas dire que les données sont accessibles à n’importe qui, mais uniquement que vos données sont hébergées sur une multitude de serveurs eux-mêmes accessibles par un nombre déterminé d’utilisateurs. Les Cloud les plus connus sont d’ailleurs des Cloud public, comme par exemple le Cloud de Microsoft office ou encore celui d’Amazon.

En règle générale, dans le cadre d’un Cloud public, vous payez en fonction de l’utilisation de vos données. Plus vous allez stocker, utiliser ou télécharger d’information, plus la facture sera élevée.

Beaucoup d’entreprises préfèrent passer par un Cloud public, pour la simple et bonne raison que vous n’êtes pas limités par le volume de vos données. En effet, les entreprises qui proposent des services de Cloud public disposent d’infrastructures conséquentes et peuvent donc s’adapter presque immédiatement à l’augmentation de vos besoins. A l’inverse, c’est une limitation que vous avez sur du Cloud privé pour lequel l’installation et l’augmentation de la capacité du Cloud va forcément prendre plus de temps et vous rendre moins factice.

Un des gros avantages du Cloud public est que les dépenses initiales sont pratiquement réduites à néant puisque vous venez vous greffer à l’infrastructure déjà existante.

Les avantages :

  • il est rapide et peu coûteux à mettre en place ;
  • il s’adapte rapidement à l’augmentation de vos besoins.

Les limites :

  • plus vous utilisez le Cloud public, plus il est cher ;
  • il n’est pas forcément adapté à vos besoins et logiciels spécifiques.
Quelle différence entre Cloud privé et cloud public ?

Dans certain cas de figure, souvent pour des grandes entreprises ayant des besoins complexes, on va avoir un système mixte : c’est ce qu’on appelle le Cloud hybride.

Dans ce cas de figure, l’entreprise fait appel à plusieurs Cloud différents certains publics et certains privés. Tous demeurent des entités indépendantes les unes des autres.

Dans ces cas de figure l’intérêt est extrêmement simple à comprendre il permet principalement d’effectuer la portabilité de données entre différent Cloud, différents logiciels ou différentes entités.

La virtualisation

virtualisation tout savoir

Virtualisation : qu’est-ce que c’est et à quoi ça sert ?

Bastien L 13 mai 2019 Dossiers Ecrire un commentaire

La virtualisation est une technologie permettant de créer et d’exécuter une ou plusieurs représentations virtuelles d’un ordinateur ou de ses différentes ressources sur une même machine physique. Découvrez tout ce que vous devez savoir sur cette technologie : définition, fonctionnement, avantages…

Les besoins en puissance de calcul et en espace de stockage des entreprises ne cessent d’augmenter. Malheureusement, les serveurs x86 sont trop limités pour répondre à ces besoins. De fait de nombreuses organisations déploient de multiples serveurs, et n’exploitent qu’une fraction de leur capacité. En résulte un usage inefficace et coûteux. La virtualisation est une technologie qui permet de remédier à ce problème, et bien plus encore.

Qu’est-ce que la virtualisation ?

La virtualisation consiste à créer une représentation virtuelle, basée logicielle, d’un objet ou d’une ressource telle qu’un système d’exploitation, un serveur, un système de stockage ou un réseau. Ces ressources simulées ou émulées sont en tous points identiques à leur version physique.

Les machines virtuelles sont exécutées sur une couche d’abstraction matérielle. Ainsi, les entreprises sont en mesure d’exécuter plusieurs systèmes d’exploitation et applications simultanément sur un serveur unique. Les ressources et capacités du serveur sont réparties entre les différentes instances. Ceci permet de réaliser d’importantes économies et d’utiliser les serveurs plus efficacement puisque leurs capacités sont pleinement exploitées.

De plus, la virtualisation permet d’exécuter des programmes de façon isolée pour effectuer des tests en toute sécurité sans risquer de compromettre les autres machines virtuelles exécutées sur le même serveur hôte. Pour les particuliers et les utilisateurs de PC, il est aussi possible d’utiliser la virtualisation pour exécuter des applications nécessitant différents systèmes d’exploitation sur un seul et même ordinateur.

Comment fonctionne la virtualisation ?

virtualisation fonctionnement

La technologie de virtualisation repose sur l’abstraction d’une application, d’un système d’exploitation ou du stockage de données du véritable logiciel ou du hardware sous-jacent. L’un des principaux cas d’usage est la virtualisation de serveur, reposant sur une couche logicielle appelée  » hyperviseur  » pour émuler le hardware.

L’hyperviseur permet de créer et d’exécuter des machines virtuelles. Le logiciel se charge de diviser les ressources entre les différents environnements virtuels en fonction de leurs besoins.

Par le passé, on distinguait les hyperviseurs natifs, directement intégrés au hardware du logiciel, et les hyperviseurs  » hébergés «  semblables à des applications logicielles. Cependant, sur les systèmes modernes, cette distinction a perdu de l’importance. Pour cause, il existe désormais des systèmes comme le KVM (kernel-based virtual machine), qui est intégré au kernel Linux et peut exécuter les machines virtuelles directement bien qu’il soit possible de continuer à utiliser le système lui-même comme un ordinateur normal.

Les utilisateurs peuvent ensuite interagir et lancer des applications ou des calculs au sein de l’environnement virtuel, que l’on appelle généralement machine virtuelle. La machine virtuelle est l’équivalent émulé d’un ordinateur, et est exécutée par-dessus un autre système. Elle peut exploiter la puissance de calcul du CPU et la mémoire de la machine hôte, un ou plusieurs disques virtuels pour le stockage, une interface réseau virtuelle ou réelle, ainsi que les autres composants tels que les cartes graphiques ou même les clés USB.

La machine virtuelle fonctionne comme un fichier de données unique. Elle peut donc être transférée d’un ordinateur à l’autre, et fonctionner de la même manière sur les deux machines. Si la machine virtuelle est stockée sur un disque virtuel, on parle souvent d’une image disque.

Quels sont les différents types de virtualisation ?

types virtualisation

Il existe différents types de virtualisation. On dénombre six principaux domaines de l’informatique où la virtualisation est couramment utilisée :

La virtualisation de serveur, précédemment évoquée, permet d’exécuter plusieurs systèmes d’exploitation sur un seul serveur physique sous forme de machines virtuelles. Elle permet une efficacité accrue, une réduction des coûts, un déploiement plus rapide des workloads, une augmentation des performances d’application, une disponibilité de serveur en hausse, et l’élimination des complications liées à la gestion de serveurs.

La virtualisation de réseau consiste à reproduire un réseau physique et ses différents composants : ports, interrupteurs, routeurs, firewalls, équilibreurs de charges… ceci permet d’exécuter des applications sur un réseau virtuel comme sur un réseau physique, tout en profitant de l’indépendance matérielle inhérente à toute forme de virtualisation.

La virtualisation de stockage consiste à assembler la capacité de stockage de multiples appareils de stockage en réseau sous forme d’un seul appareil de stockage (virtuel) pouvant être géré depuis une console centrale.

La virtualisation desktop est similaire à la virtualisation de serveur, mais permet de créer des machines virtuelles reproduisant des environnements de PC. Ceci permet aux entreprises de réagir plus rapidement aux changements de besoins et aux nouvelles opportunités. De plus, les PC virtualisés, tout comme les applications, peuvent être transférés rapidement à des sous-traitants ou à des employés travaillant sur des appareils mobiles comme les tablettes.

La virtualisation de données repose sur l’abstraction des détails techniques traditionnels des données et du Data Management : localisation, performance, format… ceci permet d’ouvrir l’accès aux données et d’accroître la résilience. De plus, la  » Data Virtualization  » permet aussi de consolider les données en une source unique afin de simplifier leur traitement.

Enfin, la virtualisation d’application consiste en l’abstraction de la couche application du système d’exploitation. Ceci permet d’exécuter l’application sous une forme encapsulée, indépendante du système d’exploitation. Ainsi, il est par exemple possible d’exécuter une application Windows sur Linux et vice-versa.

Quelle différence entre une machine virtuelle et un container ?

En principe, les containers Linux sont similaires aux machines virtuelles. Les deux permettent l’exécution d’applications au sein d’un environnement isolé, et peuvent être accumulés séparément sur une même machine. Cependant, leur fonctionnement est différent.

Un container n’est pas une machine indépendante complète. Il s’agit simplement d’un processus isolé partagent le même kernet Linux que le système d’exploitation hôte, ainsi que les bibliothèques et autres fichiers nécessaires à l’exécution du programme contenu dans le container. En général, les containers sont donc conçus pour exécuter un programme unique et non un serveur complet.

Virtualisation vs Cloud Computing : quelle différence ?

La virtualisation et le Cloud Computing sont deux technologies à ne pas confondre. La virtualisation permet de rendre les environnements informatiques indépendants d’une infrastructure physique, tandis que le Cloud Computing est un service délivrant les ressources informatiques partagées à la demande via Internet.

Ces deux technologies sont donc différentes, mais peuvent aussi être complémentaires. Il est par exemple possible de virtualiser les serveurs, pour ensuite migrer vers le Cloud en vue d’une agilité amplifiée et d’un accès self-service.

DevOps

Définition :

Le DevOps, est une approche permettant de réunir deux fonctions clés de la DSI d’une entreprise chargée du développement d’applications. D’un côté, vous avez terme le “Dev” représentant les équipes de développeurs et de l’autre, vous avez le terme “Ops” représentant les équipes d’exploitation systèmes (operations en anglais).

Il peut être également interprété d’une autre façon, en se penchant sur une approche plutôt « métier » où le Devops est un poste qu’occupe un salarié ayant des compétences dans le développement, mais aussi en ingénierie système.

Cette approche DevOps, souvent mal comprise, repose sur la méthode agile et du lean management où les responsables métiers, le développement, les opérations et le service qualité collaborent pour déployer en continu les différentes versions ou fonctionnalités d’un logiciel. L’objectif étant de s’adapter aux opportunités du marché et aux retours clients.

Comment est apparue l’ approche DevOps ?

Ce terme Devops a été inventé par Patrick Devois en octobre 2009 lors des premiers événements de « Devopsdays » à Gand en Belgique. Il a cherché à donner un nom au vu de l’émergence de ce mouvement.

Avant l’apparition de cette approche Devops:

  1. L’équipe de développement logicielle ou applicative se charge de collecter les besoins métiers et de les développer. Elle teste ensuite le logiciel ou l’application lorsqu’elle est finalisée.
  2. Si le logiciel ou l’application répond aux besoins métiers, le code source est mis à disposition à l’équipe opérationnelle pour la partie exploitation.

Cela posait un problème, car sans communication en continu des deux équipes ni l’une ni l’autre ne pouvait connaître les obstacles que chacun pouvait rencontrer.

Le monde de l’informatique évolue toujours aussi vite et il faut sans cesse s’adapter. Que ce soit pour développer un logiciel ou une application web, il faut qu’ils soient mis sur le marché le plus rapidement possible. Toutes nouvelles fonctionnalités ou mises à jour doivent être déployées sans problème et s’il y a des bugs, il faut pouvoir les corriger. L’équipe opérationnelle doit aussi savoir s’adapter rapidement dans la surveillance et le déploiement de ces nouvelles applications ou logiciels. D’où l’intérêt de l’association du « Dev » et de l’ » Ops » où une collaboration étroite est nécessaire !

Le fonctionnement et principe du DevOps

L’approche DevOps c’est un déploiement continu avec :

  • Un développement et des tests constants
  • Une intégration et une mise en œuvre constante : déploiement avec des processus fiables
  • Une surveillance constante et une validation de la qualité opérationnelle

On représente le DevOps comme un cycle de vie où l’on passe d’une phase projet à une phase de surveillance, dès que cette phase est terminée, un nouveau cycle démarre.

Voici les grands principes d’une stratégie DevOps :

  • Avoir une approche axée sur le client où il est important d’avoir constamment ses retours pour corriger et mettre à jour immédiatement les logiciels ou applications web développés.
  • Avoir une vue d’ensemble sur les projets de développement et permettre le travail en équipe en mêlant les différents départements de votre entreprise. Miser sur des profils polyvalents.
  • Optimiser les coûts, la rapidité de mise en œuvre et le produit ou service en lui même en apportant constamment des améliorations.
  • Automatiser ce qui peut être automatisé.

Qui est concerné ?

Les principales personnes concernées sont les DSI où il est nécessaire faire collaborer deux équipes différentes, mais complémentaires : les développeurs et l’opérationnel.

Approche DevOps : quels sont les avantages ?

En plus d’améliorer et optimiser le travail en équipe, l’approche DevOps permet :

  • d’améliorer l’expérience client : une entreprise doit pouvoir obtenir et répondre en continu au retour des clients, mais également des utilisateurs, partenaires, fournisseurs… et cela implique donc la mise en place de processus impliquant toutes les parties prenantes.
  • d’innover et optimiser l’utilisation du temps : en réduisant les coûts de mise en œuvre et en automatisant les déploiements, cela laisse l’opportunité aux équipes de tester différentes versions ou fonctionnalités et de passer moins de temps à corriger les erreurs ou tout recommencer.
  • d’accélérer le retour sur investissement : en déployant les logiciels plus rapidement et en misant sur des processus fiables et automatisés.
  • d’avoir un meilleur rendement informatique : moins d’erreurs et d’échecs dans les déploiements avec des délais de production plus courts.
  • d’intégrer la sécurité en continu : les objectifs de sécurités sont connus à l’avance et sont intégrés en continu dans le travail au quotidien des équipes.

Se faire accompagner par des experts

Vos attentes

Vous souhaitez gagner du temps dans vos déploiements logiciels ou applicatifs.

Vous souhaitez minimiser les risques d’erreurs et simplifier les actions complexes de mise en production.

Vous souhaitez augmenter la stabilité de votre plateforme sur le moyen terme et disposer d’un processus de déploiement automatisé et sécurisé.