- Batterie ordinateur
- ACER ADVENT ALCATEL AMAZON APPLE ASUS AUTEL BAOFENG BBK BENQ BFDX BLACKBERRY BLACKVIEW BLU BOSE BQ CANON CASIO CAT CHUWI CITIZEN CLEVO CMCC COMPAQ COOLPAD CUBOT DELL DJI DOOGEE DOOV DYNABOOK ECOVACS ELEPHONE ETON FANUC FUJIFILM FUJITSU GARMIN GATEWAY GE GETAC GETONG GIGABYTE GIONEE GOOGLE GOPRO HAIER HASEE HBC HILTI HISENSE HOMTOM HONEYWELL HONGJIE HONOR HP HP_COMPAQ HTC HUAWEI HYTERA IBM ICOM INFINIX INFOCUS ITEL JBL JJRC JUMPER JVC K-TOUCH KENWOOD KIRISUN KODAK KONKA KOOBEE KYOCERA LEAGOO LEICA LENOVO LG LOGITECH MAXELL MEDION MEITU MEIZU MICROMAX MICROSOFT MINDRAY MITSUBISHI MJXRIC MOTOROLA MSI NEC NETGEAR NEWLAND NIKON NOKIA OLYMPUS ONEPLUS OPPO OTHER OUKITEL PACKARD_BELL PANASONIC PARROT PAX PENTAX PHILIPS PRESTIGIO QIKU RAZER REALME RTDPART SAMSUNG SANYO SEIKO SHARK SHARP SIEMENS SONY SUNMI SYMA SYMBOL TADIRAN TCL TECNO TOPCON TOSHIBA TP-LINK TRIMBLE TWINHEAD ULEFONE UMI UMIDIGI UNIWILL UROVO VARTA VERTEX VERTU VIVO WEILI WIKO XIAOMI XINNUAN YAESU YUHUIDA ZEBRA ZTE
TOP DES VENTES
Capacité - Tension
ARTICLES RÉCENTS DU BLOG
Le stockage s'unifie
Jusqu’à présent, on marquait la différence entre stockage primaire, stockage secondaire et archivage. Les baies et les logiciels étaient spécifiques. Ce n’est plus le cas et les variations d’usages entre stockage, sauvegarde et archivage s’estompent pour des matériels polyvalents avec des fonctions logicielles pour chaque cas d’usage.
Plusieurs éditeurs de solutions de gestion de données, car désormais nous ne parlons plus stockage, ont sorti de nouvelles offres polyvalentes couvrant l’ensemble des besoins en termes de conservation et récupération de données. Plus orientées vers des cas d’usage suivant le besoin, ces nouvelles offres proposent de trouver de nouveaux différenciateurs sur le marché. Les différenciateurs habituels de performance et de latence ne sont plus suffisants pour véritablement marquer les écarts entre les solutions. Avec la baisse du prix des technologies Flash et des mémoires, l’ensemble des constructeurs et fournisseurs de stockage peuvent fournir les performances désirées par le client, et les plus hautes. Un constructeur propose même une baie pouvant traiter 24 millions d’IOPS. Largement de quoi répondre aux nécessités de la plupart des entreprises en France.
Le même phénomène de baisse des prix a accompagné l’extension large des technologies NVMe. Et comme pour la performance, la latence n’est plus le problème premier des solutions de stockage. La bande passante n’est plus le goulet d’étranglement tel que nous le connaissions il y a encore deux ans. Cela ne veut pas dire que la configuration fine des baies ne soit pas nécessaire mais il est moins important et les contrats de service autour de la latence sont plus faciles à atteindre qu’auparavant. Suivant l’adage de qui peut le plus peut le moins, les fournisseurs de solutions de stockage ont saisi l’opportunité de proposer leurs matériels et logiciels pour des usages multiples et non plus seulement dans la case où ils étaient cantonnés auparavant.
Un stockage multi usage
Datacore a été le premier à s’engager dans cette voie avec son offre One Vision. L’idée est de fournir une solution couvrant l’ensemble des besoins de stockage, primaire et secondaire, en profitant de la visibilité que lui apporte sa couche de contrôle (Control Plane) pour proposer, en SaaS, des prédictions sur les opérations de stockage, des optimisations s’appuyant sur des règles. Tout cela se combine avec des éléments d’Intelligence artificielle pour offrir une solution de stockage assez versatile pour l’ensemble des environnements (blocs, fichiers, objets) et sur l’ensemble des configurations (Bare Metal, virtualisation, containers et micro-services).
Ces éléments sont la base de Datacore One, la vision unifiée du stockage de l’éditeur. Une vision ambitieuse loin du discret développement que l’on connaissait auparavant. Il est à noter que la console peut ainsi gérer des équipements ne provenant pas de Datacore dans les pools de ressources virtualisés. Il est ainsi possible de déployer le logiciel de Datacore sur à peu près n’importe quel serveur x86, même si certains partenaires comme Lenovo, Intel ou Western Digital proposent des optimisations pour le fonctionnement de Datacore HCI Flex, le logiciel de stockage de l’éditeur. La solution est annoncée à moins de 25 000 $. Il suffit de deux nœuds pour mettre en œuvre une solution de haute disponibilité. Les appliances ont deux tailles. La première propose sous 1U de 3 To à 6 To avec 64 Go/128 Go pour des prix allant de 24 950 $ à 40 895 $. Une autre appliance 2U propose elle de 15 To à 25 To avec 192 Go à 384 Go de mémoire pour des prix s’étalant de 68 745 $ à 79 950 $. Les deux gammes d’appliances fonctionnent sous disques SSD ou en mode hybride avec des disques durs classiques pour la capacité. Les solutions supportent les hyperviseurs de VMware et de Microsoft.
Le modèle classique du simple backup des données a totalement changé et pour des besoins de réutilisation des données pour des analyses ou des tests et des développements, les entreprises restaurent de plus en plus souvent des données dans ou à l’extérieur de l’entreprise. La plupart des solutions traditionnelles de sauvegarde ne permettent pas d’atteindre les performances nécessaires pour autoriser des restaurations fréquentes.
Flash to Flash to Cloud
Pure Storage propose donc un duo de solutions pour répondre à ces nouveaux besoins des entreprises avec Object Engine et DirectFlash Fabric. Issu du rachat de StorReduce, Object Engine apporte aux entreprises la possibilité de faire évoluer leur système de sauvegarde classique des disques vers des bandes à un modèle où le Cloud, en particulier le stockage objet S3 peut devenir un tiers de stockage ou de sauvegarde rapide. Ce modèle est appelé F2F2C – ou Flash to Flash to Cloud. Le lien se réalise par une appliance Object Engine A270. Elle se présente sous forme d’un bloc 3U qui contient quatre nœuds, un sur disque SSD pour les métadonnées, deux nœuds pour toutes les données et un autre pour la copie des métadonnées avec alors la possibilité d’utiliser sur site une baie Flash Blade comme backend ou S3 d’AWS. La solution repose sur des processeurs Skylake d’Intel et évolue horizontalement. La caractéristique de l’ensemble est d’autoriser des restaurations très rapides de l’ordre de 10 à 15 To/heure sur site et de 1 To en provenance d’AWS.
Commvault, un acteur historique du backup, a annoncé récemment lors de sa conférence Commvault Go qui s’est tenue récemment à Denver (Colorado) de nouvelles fonctions d’automatisation sur le logiciel de Hedvig, une start-up acquise récemment par l’entreprise et spécialisée dans le stockage. Avec cette acquisition Commvault sort de son marché traditionnel du backup et prend pied sur le marché du stockage d’entreprise avec une solution unifiée sur son offre traditionnelle. De plus, avec cette nouvelle offre, l’éditeur s’ouvre aux nouvelles architectures dites « cloud native » s’appuyant sur les containers et le Cloud.
L’unification du stockage va désormais plus loin que la simple combinaison du stockage fichiers et blocs. Les offreurs de stockage débordent de leur domaine premier pour marcher sur les plates-bandes des concurrents du stockage primaire au secondaire, du secondaire au primaire en mettant l’accent sur le logiciel pour répondre au cas d’usage requis. L’unification répond aussi à un souci de cohérence des utilisateurs qui souhaitent le plus souvent retrouver le même système de stockage quel que soit l’environnement où il est déployé.
Le logiciel a la main dans le stockage
Un des éléments qui œuvre pour l’unification du stockage est le logiciel et plus particulièrement le stockage défini par logiciel. Phénomène ancien, il permet de bénéficier des fonctions du stockage sans liens avec le matériel. Il est possible désormais pour les clients des fournisseurs de stockage de retrouver le même environnement de stockage quel que soit l’environnement où il est déployé.
Le stockage défini par logiciel n’est pas nouveau en soi et ses débuts datent de la virtualisation du stockage, au début des années 2000, avec Datacore et FalconStor. Le stockage n’a cessé depuis de s’imposer pour devenir aujourd’hui la règle. On dénombre désormais plus d’une centaine d’acteurs se réclamant du software defined storage groupant les acteurs fichiers, blocs, objets, passerelle cloud ou HCI (Hyper Converge Infrastructure). Au départ, la fonction première de ce stockage par le logiciel était de donner la possibilité de faire fonctionner le logiciel de stockage sur des matériels de “ commodités ”, en particulier des serveurs x86 à bas prix. La couche logicielle, à l’instar de la virtualisation des serveurs, décorrélait le matériel du logiciel. Cela a permis des réductions de coûts importantes.
Stockage à la demande
Désormais les fournisseurs de stockage vont plus loin que cette simple décorrélation du matériel et du logiciel. Ils permettent une agilité plus grande en autorisant des déploiements du même logiciel de stockage et de ses fonctions là où le client le demande et sous la forme qu’il souhaite. Il peut ainsi faire fonctionner son logiciel de stockage à l’intérieur d’une machine virtuelle, d’un container ou, plus classiquement, directement sur un serveur en bare metal. De la même manière, il peut le déployer dans le Cloud public ou privé.
L’offre sur le marché est riche et couvre tout le spectre du stockage : objets, fichiers, blocs, passerelles cloud ou environnements hyperconvergés. Certains, comme Hedvig, racheté récemment par Commvault, sont multi-protocole et couvrent l’ensemble.
La définition par le logiciel a principalement ouvert la porte aux services de stockage et grâce à cette portabilité les fournisseurs de stockage ont multiplié les offres de stockage primaire, de sauvegarde sous forme de service en ligne, de plan de reprise ou de continuation après incident sous forme de service et d’archivage dynamique.
En dehors de l’agilité, le SDS (Software Defined Storage) apporte dans la plupart des cas (véritable scale out) la possibilité d’évoluer simplement et linéairement par ajout de nœuds. De plus, l’administration est simplifiée avec la possibilité de suivre des matériels d’origines diverses à partir d’une seule console centralisée. L’utilisateur évite ainsi le lock-in propriétaire et peut ainsi allonger la durée de vie de son stockage. Si les données sont gérées comme dans un pool virtuel unique, la gestion des données est simplifiée et permet d’éviter la fragmentation en silos des données tout en rendant plus simple la gestion de ces données.
Extension vers le Cloud
Certaines solutions SDS ont par exemple intégré des capacités cognitives qui améliorent la flexibilité grâce à l’automatisation intelligente basée sur la connaissance des données stockées. Cela permet aux clients d’indexer automatiquement et de définir des stratégies de métadonnées provenant de plusieurs sources de données, constituant un socle qui facilite la conformité à la réglementation. Les clients économisent en déplaçant automatiquement les données d’archives vers des médias de faible coût. L’analyse prédictive intégrée alloue automatiquement de l’espace sur la base des habitudes d’utilisation passées et peut déplacer des données de manière fluide et en toute transparence entre des infrastructures sur site et Cloud.
La possibilité de déployer le logiciel de stockage dans n’importe quel environnement redistribue les cartes et permet aux entreprises d’utiliser le Cloud comme un véritable tiers de stockage. Les fournisseurs répondent à ce besoin avec la possibilité d’étendre leur stockage vers le Cloud public et d’offrir ainsi un système cohérent avec le même logiciel et la même console pour l’ensemble du stockage de l’entreprise.