ceph19.2 squid版本容器化OSD 使用独立 db 盘,data盘损坏后的更换硬盘重建流程
假设: * 数据盘:/dev/sdX * 独立 db 盘:/dev/ceph-db/db-1 * 出问题的 OSD id:2 * 出问题的节点:ceph228 1️⃣ 确认集群状态 确认问题 OSD(例如 osd.2)处于 down/in 或 down/out 状态。 2️⃣ 下线并清理旧 OSD...
假设: * 数据盘:/dev/sdX * 独立 db 盘:/dev/ceph-db/db-1 * 出问题的 OSD id:2 * 出问题的节点:ceph228 1️⃣ 确认集群状态 确认问题 OSD(例如 osd.2)处于 down/in 或 down/out 状态。 2️⃣ 下线并清理旧 OSD...
Jewel 版本(Luminous 之前)跟现在的 Nautilus / Octopus / Quincy 这种 ceph-volume 体系完全不一样。 * 🔹 在 Ceph Jewel 版本 * 当时 OSD 的部署是用 ceph-disk(而不是现在的 ceph-volume + orche...
📌 Ceph 更换坏盘步骤对比 操作环节 Jewel 版本 (ceph-disk) Octopus 及以后 (ceph-volume + cephadm/rook) 部署工具 ceph-disk ceph-volume lvm + ceph orch OSD 元数据位置 全在 数据盘 上,日志盘只...
1️⃣ 部署 CephFS CSI 驱动 如果不用 Rook,可以直接用 Ceph CSI 官方 YAML 安装: git clone --depth=1 https://github.com/ceph/ceph-csi.git cd ceph-csi/deploy/cephfs/kubernete...
您可以使用ceph daemon osd.ID perf dump命令来检查 WAL/DB 分区是否即将填满及溢出。 slowusedbytes 值显示即将溢出的数据量: \# ceph daemon osd.1 perf dump | jq '.bluefs' { "db\total\bytes"...