Outils pour utilisateurs

Outils du site


systeme:ceph

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
systeme:ceph [2017/05/06 10:15] rootsysteme:ceph [2017/05/06 11:10] (Version actuelle) – [Piste de réflexion personnelle] root
Ligne 1472: Ligne 1472:
   }   }
 } }
-<code>+</code>
  
   * On liste les paths :   * On liste les paths :
Ligne 1682: Ligne 1682:
 ==== Piste de réflexion personnelle ==== ==== Piste de réflexion personnelle ====
 Piste de réflexion avec serveur disposant de 24 emplacements disques : Piste de réflexion avec serveur disposant de 24 emplacements disques :
 +
 +<note>
 +Plus de journal sur SSD avec BlueStore (tech preview) ? On gagne en disque ?
 +</note>
 +
   * Piste HDD :   * Piste HDD :
 <code> <code>
Ligne 1691: Ligne 1696:
  
 64G RAM ? 64G RAM ?
-<code>+</code>
  
   * Piste SSD (prix ?):   * Piste SSD (prix ?):
Ligne 1704: Ligne 1709:
 </code> </code>
  
-Pour solution HDD : +**Pour solution HDD :** 
-  * 16 * 150M ~= 2400M/s+  * 16 * 100M ~= 1600M/s (à 2000M/s)
   * Solution RDMA infinidand ?   * Solution RDMA infinidand ?
   * Il faudrait donc 1 carte dual port 56 Gbps (par exemple Mellanox ConnectX4) ou 2 cartes dual port 10Gbps si moins cher (2 lacp) :   * Il faudrait donc 1 carte dual port 56 Gbps (par exemple Mellanox ConnectX4) ou 2 cartes dual port 10Gbps si moins cher (2 lacp) :
Ligne 1711: Ligne 1716:
     * 1 port pour le réseau public => les clients (Ethernet ou Infinidand pour clients ?)     * 1 port pour le réseau public => les clients (Ethernet ou Infinidand pour clients ?)
  
-Protocol RDMA pour :+**Protocol RDMA pour :**
   * gagner en latence   * gagner en latence
   * gagner en débit   * gagner en débit
   * gagner en CPU   * gagner en CPU
  
-Tunning :+**Tunning :**
   * numactl ? 1 osd par cpu (+bind mémoire) => ExecStart=numactl --physcpubind=%i --membind=0 <service ceph> (plus compliqué avec 2 proc. Si 2 proc : pair sur socket pair => Ex : osd.3 sur socket 1 car impair). 2 cpu réservés à l'OS (les 2 derniers => isolcpu) ?   * numactl ? 1 osd par cpu (+bind mémoire) => ExecStart=numactl --physcpubind=%i --membind=0 <service ceph> (plus compliqué avec 2 proc. Si 2 proc : pair sur socket pair => Ex : osd.3 sur socket 1 car impair). 2 cpu réservés à l'OS (les 2 derniers => isolcpu) ?
   * jumbo frame   * jumbo frame
   * tunning sysctl + udev   * tunning sysctl + udev
-  * xio (non supporté en production) ? (voir [[https://youtu.be/FzD87qSJee0|Youtube]]+  * xio (non supporté en production) ? (voir [[https://youtu.be/FzD87qSJee0|Youtube]])
   * rdma (https://community.mellanox.com/docs/DOC-2693):   * rdma (https://community.mellanox.com/docs/DOC-2693):
 <code> <code>
systeme/ceph.1494065712.txt.gz · Dernière modification : 2017/05/06 10:15 de root