RADOS
Reliable Autonomic Distributed Object Storage. Szerzej omówiony w czym jest Ceph™.

CRUSH
Algorytm skalowalnego hashowania. Szerzej omówiony w czym jest Ceph™.

librados
Biblioteka Ceph™ pozwalająca na bezpośrednią interakcję z RADOS. Wspiera takie języki jak C, C++, Java, Python, Ruby czy PHP. Wykorzystywana przez zaawansowane projekty, które w sposób świadomy chcą wykorzystać maksimum możliwości Ceph™.

Monitor (mon)
Monitory są odpowiedzialne za koordynowanie klastra. Klient chcący zainicjować połączenie z klastrem, zgłasza połączenie do monitora, z którego dostaje mapę (informację) o klastrze, w której jest między innymi mapa algorytmu CRUSH, a także informacje o innych dostępnych usługach (w rzeczywistości monitor przechowuje 5 map zbiorczo nazywanych mapą klastra). Dzięki nim klient może wyliczyć, gdzie zadany obiekt będzie się znajdował. Klaster powinien składać się z co najmniej 3 monitorów. Z reguły wybiera się liczbę nieparzystą. Do operacji klastra niezbędna jest dostępność większości monitorów tak, by mogły razem tworzyć quorum. Brak quorum skutkuje zatrzymaniem się klastra w celu ochrony danych.

OSD
Object Storage Device (OSD) przechowuje dane, obsługuje replikacje, odtwarzanie danych oraz równoważenie (ang. rebalancing) danych. OSD może używać całego dysku, LVM, pliku, a także preferowanego BlueStore. Jeden węzeł w klastrze może posiadać wiele OSD.

Manager (mgr)
Wbrew pozorom nie pełni funkcji zarządzającej – za zarządzanie klastrem odpowiada monitor. Manager z kolei służy do zbierania metryk i monitoringu. Pozwala także na dalsze udostępnianie statystyk dla innych systemów. Z reguły każdy węzeł, na którym działa monitor, posiada także managera.

Ceph™ Object Gateway; Rados Gateway (RGW)
RGW to interfejs udostępniający metody w stylu REST, pozwalające zarządzać obiektami (w znaczeniu OpenStack™ Swift i S3) w klastrze. RadosGW wspiera następujące interfejsy:
- interfejs dążący do kompatybilności z Amazon™ S3 (p. czym jest Ceph™)
- interfejs kompatybilny z OpenStack™ Swift.
Co istotne, RGW posiada swoje własne mechanizmy zarządzania użytkownikami, które różnią się od wewnętrznych mechanizmów klastra.

Rados Block Device (RBD)
Urządzenia blokowe są najpopularniejszym typem urządzeń służących do przetrzymywania danych. Blok w tym wypadku oznacza po prostu porcję danych na urządzeniu o dostępie swobodnym. Nie ma znaczenia, czy mówimy w tym wypadku o płycie CD/DVD, czy choćby dysku SSD NVMe. Podobnie jest w przypadku rbd (Rados Block Device). Z punktu widzenia użytkownika klaster Ceph™ udostępnia urządzenia blokowe, które w rzeczywistości są alokowane elastycznie (ang. thin-provision). Mogą być tworzone ich repliki (ang. replication) oraz migawki (ang. snapshot). Dostęp do RBD może być realizowany zarówno przez moduł jądra, jak i przez program FUSE. Zaletą RBD jest użycie RADOS, co zapewnia rozłożenie ruchu do poszczególnych OSD oraz bezpieczeństwo i spójność.

MetaData Server (MSD)
Usługa przechowująca metadane i koordynująca działanie CephFS. Do metadanych zalicza się między innymi strukturę katalogów, prawa do plików i ich właścicieli czy ACL. W klastrze może działać wiele MDS.

CephFS
CephFS – Ceph™ File System. System plików, który dąży do bycia kompatybilnym z POSIX, wykorzystujący RADOS. Dzięki takiemu podejściu CephFS jest wysokowydajnym, współdzielonym, wysokodostępnym systemem plików.

FUSE
Filesystem in Userspace (FUSE) jest interfejsem pozwalającym na eksportowanie wirtualnych systemów plików do jądra Linux. Największą zaletą FUSE jest możliwość bezpiecznego użycia przez użytkowników nieuprzywilejowanych.