systeme:ceph
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
systeme:ceph [2017/05/06 10:15] – root | systeme:ceph [2017/05/06 11:10] (Version actuelle) – [Piste de réflexion personnelle] root | ||
---|---|---|---|
Ligne 1472: | Ligne 1472: | ||
} | } | ||
} | } | ||
- | < | + | </code> |
* On liste les paths : | * On liste les paths : | ||
Ligne 1682: | Ligne 1682: | ||
==== Piste de réflexion personnelle ==== | ==== Piste de réflexion personnelle ==== | ||
Piste de réflexion avec serveur disposant de 24 emplacements disques : | Piste de réflexion avec serveur disposant de 24 emplacements disques : | ||
+ | |||
+ | < | ||
+ | Plus de journal sur SSD avec BlueStore (tech preview) ? On gagne en disque ? | ||
+ | </ | ||
+ | |||
* Piste HDD : | * Piste HDD : | ||
< | < | ||
Ligne 1691: | Ligne 1696: | ||
64G RAM ? | 64G RAM ? | ||
- | < | + | </code> |
* Piste SSD (prix ?): | * Piste SSD (prix ?): | ||
Ligne 1704: | Ligne 1709: | ||
</ | </ | ||
- | Pour solution HDD : | + | **Pour solution HDD :** |
- | * 16 * 150M ~= 2400M/s | + | * 16 * 100M ~= 1600M/s (à 2000M/s) |
* Solution RDMA infinidand ? | * Solution RDMA infinidand ? | ||
* Il faudrait donc 1 carte dual port 56 Gbps (par exemple Mellanox ConnectX4) ou 2 cartes dual port 10Gbps si moins cher (2 lacp) : | * Il faudrait donc 1 carte dual port 56 Gbps (par exemple Mellanox ConnectX4) ou 2 cartes dual port 10Gbps si moins cher (2 lacp) : | ||
Ligne 1711: | Ligne 1716: | ||
* 1 port pour le réseau public => les clients (Ethernet ou Infinidand pour clients ?) | * 1 port pour le réseau public => les clients (Ethernet ou Infinidand pour clients ?) | ||
- | Protocol RDMA pour : | + | **Protocol RDMA pour :** |
* gagner en latence | * gagner en latence | ||
* gagner en débit | * gagner en débit | ||
* gagner en CPU | * gagner en CPU | ||
- | Tunning : | + | **Tunning :** |
* numactl ? 1 osd par cpu (+bind mémoire) => ExecStart=numactl --physcpubind=%i --membind=0 <service ceph> (plus compliqué avec 2 proc. Si 2 proc : pair sur socket pair => Ex : osd.3 sur socket 1 car impair). 2 cpu réservés à l'OS (les 2 derniers => isolcpu) ? | * numactl ? 1 osd par cpu (+bind mémoire) => ExecStart=numactl --physcpubind=%i --membind=0 <service ceph> (plus compliqué avec 2 proc. Si 2 proc : pair sur socket pair => Ex : osd.3 sur socket 1 car impair). 2 cpu réservés à l'OS (les 2 derniers => isolcpu) ? | ||
* jumbo frame | * jumbo frame | ||
* tunning sysctl + udev | * tunning sysctl + udev | ||
- | * xio (non supporté en production) ? (voir [[https:// | + | * xio (non supporté en production) ? (voir [[https:// |
* rdma (https:// | * rdma (https:// | ||
< | < |
systeme/ceph.1494065712.txt.gz · Dernière modification : 2017/05/06 10:15 de root