Outils pour utilisateurs

Outils du site


systeme:ceph

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
systeme:ceph [2017/05/06 10:01] rootsysteme:ceph [2017/05/06 11:10] (Version actuelle) – [Piste de réflexion personnelle] root
Ligne 1472: Ligne 1472:
   }   }
 } }
-<code>+</code>
  
   * On liste les paths :   * On liste les paths :
Ligne 1679: Ligne 1679:
 </xtermrtf> </xtermrtf>
  
 +
 +==== Piste de réflexion personnelle ====
 +Piste de réflexion avec serveur disposant de 24 emplacements disques :
 +
 +<note>
 +Plus de journal sur SSD avec BlueStore (tech preview) ? On gagne en disque ?
 +</note>
 +
 +  * Piste HDD :
 +<code>
 +2 OS
 +4 SSD journal
 +16 HDD data (2To) => 32T / Serveur
 +=======
 +22/24 hdd
 +
 +64G RAM ?
 +</code>
 +
 +  * Piste SSD (prix ?):
 +<code>
 +2 OS
 +4 SSD journal
 +18 SSD DATA (1To) ou si pas de journal séparé sur 22 SSD data => entre 18 et 22T / serveur
 +==================
 +24/24 ssd
 +
 +Entre 18 et 22G RAM ?
 +</code>
 +
 +**Pour solution HDD :**
 +  * 16 * 100M ~= 1600M/s (à 2000M/s)
 +  * Solution RDMA infinidand ?
 +  * Il faudrait donc 1 carte dual port 56 Gbps (par exemple Mellanox ConnectX4) ou 2 cartes dual port 10Gbps si moins cher (2 lacp) :
 +    * 1 port pour cluster ceph pour la réplication et rebuid des osd
 +    * 1 port pour le réseau public => les clients (Ethernet ou Infinidand pour clients ?)
 +
 +**Protocol RDMA pour :**
 +  * gagner en latence
 +  * gagner en débit
 +  * gagner en CPU
 +
 +**Tunning :**
 +  * numactl ? 1 osd par cpu (+bind mémoire) => ExecStart=numactl --physcpubind=%i --membind=0 <service ceph> (plus compliqué avec 2 proc. Si 2 proc : pair sur socket pair => Ex : osd.3 sur socket 1 car impair). 2 cpu réservés à l'OS (les 2 derniers => isolcpu) ?
 +  * jumbo frame
 +  * tunning sysctl + udev
 +  * xio (non supporté en production) ? (voir [[https://youtu.be/FzD87qSJee0|Youtube]])
 +  * rdma (https://community.mellanox.com/docs/DOC-2693):
 +<code>
 +  [global]
 +...
 +ms_type=async+rdma
 +ms_async_rdma_device_name=mlx5_0
 +</code>
systeme/ceph.1494064870.txt.gz · Dernière modification : 2017/05/06 10:01 de root