Ceph Jewel vs Ceph Octopus+ 更换坏盘步骤对比表(二)

2025年8月26日 zhangdd 95 0 评论 ceph分享

📌 Ceph 更换坏盘步骤对比

操作环节

Jewel 版本 (ceph-disk)

Octopus 及以后 (ceph-volume + cephadm/rook)

部署工具

ceph-disk

ceph-volume lvm + ceph orch

OSD 元数据位置

全在 数据盘 上,日志盘只存 journal/WAL 数据

数据盘 + DB/WAL 盘(LVM LV 上保存 OSD 的元信息:osd_fsid、whoami 等)

坏掉的是数据盘

- OSD 报废

  • Jewel 版本

  • journal 盘不需要清理

  • 新数据盘重新执行: ceph-disk prepare --data /dev/sdX --journal /dev/sdY ceph-disk activate /dev/sdX

  • Ceph 会重新写入 journal 盘 | - OSD 报废

  • Ceph Octopus+

  • 必须先清理 DB/WAL 卷: ceph-volume lvm zap --destroy /dev/ceph-db/db-1

  • 然后用 orchestrator 创建新的 OSD: ceph orch daemon add osd <host>:data_devices=/dev/sdX,db_devices=/dev/ceph-db/db-1 ``` |

| 坏掉的是 journal/DB 盘 | - OSD 无法启动

  • 必须换 journal 盘,并执行 ceph-disk prepare 重做 OSD | - OSD 无法启动
  • 需要重新绑定新的 DB/WAL 卷,通常要 重建 OSD |
    | 是否需要清理 journal/DB 盘 | ❌ 不需要,重建时会自动覆盖 | ✅ 必须清理,不然 ceph orch 会报 already created 错误 |
    | 自动化程度 | 低,需要手动 ceph-disk prepare/activate | 高,由 cephadm/rook 统一管理 OSD |
    | 典型报错 | - No such keyring
  • OSD 无法启动 | - Created no osd(s); already created?
  • auth get failed: failed to find osd.X in keyring
  • stray daemon not managed by cephadm |

一句话总结

  • Jewel:只要数据盘坏了,直接换数据盘,journal 盘不用清理。
  • Octopus+:数据盘坏了,还要先 清理旧的 DB/WAL LV,否则新 OSD 无法创建。

本文出自张佃栋de博客,转载时请注明出处及相应链接。

本文永久链接: https://blog.zhangdd.com/blog/61/

最后编辑: 2025/08/26

©著作权归作者所有