Instance Panoramax OSM-FR : l'infra

Je profite de la question suivante pour ouvrir cette discussion au sujet de l’infra envisagée pour l’instance Panoramax d’OSM-FR…

Oui quand on parle de peta-octet on se fait vite peur, mais fût un temps où le tera-octet faisait peur :wink:

Alors combien ça coût un Po ?

Compter 15€/To avec des disques d’occasion pas trop petits (genre 14To).

Avec de la redondance (3+1), on tourne à 20k€/Po ce qui n’est pas rien mais pas délirant. Si on a un backup… on double bien sûr.

Bien sûr si on stocke 1 Po dans du cloud c’est une autre histoire et surtout ce sont des coûts récurrents, alors que là on parle d’investissement et il y a le plus souvent des coûts à l’accès.
Ici le seul coût récurrent sera ensuite la conso électrique et le remplacement de disques qui viendraient à lâcher (de moins en moins fréquent).

On n’a pas besoin non plus de tout ce stockage pour démarrer, on peut ajouter des disques au fur et à mesure des besoins. Les prix devraient en plus baisser et les capacités augmenter.

Projet d’infra

  • une baie de stockage
  • des disques
  • un serveur pour accéder à tout ça, voire faire des calculs

Baie de stockage

Une baie de stockage, c’est un gros machin dans lequel on peut mettre plein de disques.
Il n’y a pas de CPU, par de réseau, ce n’est pas un serveur, ça se raccord à un serveur avec une carte en liaison SAS (l’évolution actuelle du bon vieux SCSI).

Des baies de ce type peuvent accueillir jusqu’à 90 disques 3.5".

Exemple:

dcs3700

Ici il y a 5 tiroirs de 12 disques en 3.5", soit 60 disques.
A cela s’ajoute 2 contrôleurs et 2 alims (tout est redondant et « hot-plug »).

Disques

J’ai une pile de disques de 3To inutilisés:

  • avantage: ils sont gratuits
  • inconvénients: la conso électrique monte vite si on veut un volume total important

En effet, un disque 3.5" consomme entre 6 et 8W quelle que soit sa capacité, donc un 3To va consommer environ 4 fois plus par To qu’un 12To.

Sur le long terme ça coûte… mais ça permet de démarrer sur le court terme puis de les remplacer. C’est ce que j’ai fait il y a 2 ans pour opendatArchives, ces 3To ont été remplacés par des 10To financés par une cagnotte en ligne.

Serveur

Associé à la baie et aux disques, un serveur pour gérer l’API géovisio/panoramax, c’est à dire la base de données et servir les images ainsi que faire des calculs comme le floutage.

Pour le floutage, ce serveur pourra être équipé de GPU dédiés à l’IA (cartes Tesla) ou de TPU si cela donne de bons résultats. Les TPU sont bien plus économiques et ne consomment presque rien comparé aux GPU.

Quelques SSD en plus pour servir de cache et améliorer l’accès aux données de la baies de stockage qui n’aura que des HDD.

Test d’une baie de stockage

La semaine prochaine je reçois ça :

C’est une baie comme celle décrite ci-dessus.

Je vais la tester avec ce que j’ai, c’est à dire des 2To, 3To, 4To, 6To, 10To et 14To en SAS ou SATA et de différentes marques/origines pour valider qu’on peut effectivement partir là dessus. Je vais la connecter à un serveur qui sera suffisant pour le test avec une carte qui permet de gérer jusqu’à 1024 disques (car ces baies peuvent se chaîner).

6 Likes

Merci pour ces posts, ils sont à la fois pédagogiques et précis. Ils donnent à comprendre ce qui se passe. C’est excitant ! :slight_smile:
Bravo pour ce boulot !

2 Likes

Merci beaucoup pour ce post très instructif ; cela permet aussi aux personnes de voir que derrière un site web, il y a une infra qui coûte !

Tu parles de la même consommation pour du 3To ou 14To, tu es sûr ? Car il y a plus de plateaux à faire tourner (ils sont d’ailleurs plus lourds…).

Après, je suis sûr que si on fait un appel aux dons pour ce projet en particulier, on n’aura pas de mal à financer des disques :slight_smile:

Il suffit de regarder les spec des disques… dans une même gamme de disques oui, il y a plus de plateaux, mais d’une génération à l’autre, c’est à peu près pareil. On arrive juste à mettre plus de données sur un plateau en augmentant la densité d’enregistrement.

Un 3To qui a 10 ans a le même nombre de plateaux qu’un 14To qui n’en a que 3 et pareil qu’un 20To neuf.

La masse des plateaux joue sur l’inertie au démarrage, ensuite c’est juste la friction des roulements/paliers et du gaz présent dans le disque qui va opposer une résistance et la conso ne fait qu’entretenir la rotation car bien sûr dans ce type de baies les disques tournent en permanence.

Quand j’ai remplacé les 3To par des 10To pour le serveur d’opendatArchives, la conso du serveur a baissé de 100W ce qui a confirmé mes calculs :slight_smile:

Pour le financement, on peut sans problème démarrer avec la trésorerie d’OSM-FR et pour la suite un appel aux dons sera toujours envisageable si besoin.

3 Likes

Reçue hier… de quoi gérer 1024 disques !

Pour information, quelle est la consommation électrique de ton data center privé ?

Environ 1000W en tout pour mon serveur principal et actuellement osm11 et osm13
Le serveur de backup est allumé 1 à 2h par jour ce qui représente environ 25W moyennés sur 24h (ce que consomme mon écran).

Des graphes ici :

https://www.computel.fr/munin/computel/proxmox72.computel/shelly_plugs.html

L’hiver ça chauffe mon bureau qui est au dessus… l’été aussi.

Voilà le « colis » reçu ce matin…

Premiers tests avec quelques disques

12 par tiroirs et il y a 5 tiroirs !

Vous avez peut être l’habitude des sda, sdb, sdc… mais sdar ça change un peu !

7 Likes

Au moins là tu étais certain que le livreur ne pouvait pas balancer le colis par dessus le portail :smile:

1 Like

Carrément une palette !!!

Mon petit NAS avec ses 4 disques fait pale figure :grin:

C’est pas hyper bruyant cette chose ?

Au démarrage, les ventilos tournent à fond, ensuite ça se calme, mais c’est pas très silencieux… pour ça qu’à l’entrée des datacenters il y a des bouchons anti-bruit !

Belle bête! Attention à ne pas mettre de disques SMR :sweat_smile:

Oui, ça le fait pas trop avec ZFS, mais ça serait adapté à du stockage où l’on ne reviendra en principe pas sur les fichiers.

De ce que je lis à droite à gauche, ça pose quand même de sérieux problèmes. Notamment en cas de reconstruction du raid.

La baie de stockage se sent moins seule depuis qu’elle a fait copain-copain avec le serveur de calcul !

Matériel d’occasion mais en état quasi neuf.

Ce R7910 peut accueillir deux GPU de grande dimension ainsi que 5 autres cartes PCIe.

RAM reçue elle aussi, à suivre les CPU et le GPU (Tesla P4). Il faudra compléter avec un peu de SSD et on sera complet pour démarrer !

2 Likes

Quelques morceaux de puzzle en plus…

  • une carte Tesla P4, GPU dédié à l’IA avec 8Go de RAM.
  • des processeurs Xeon E5-2690v4, avec 14 coeurs à 2.6GHz (et 3.6GHz en mode turbo)

GPU installe ainsi qu’un CPU (en attente d’un radiateur pour le second)

Premiers tests avec le GPU après quelques heures à trouver comment tout configurer pour permettre son utilisation depuis un container LXC…

Juste pour dire que c’est très chouette d’avoir cette visibilité sous le capot :slight_smile: