오래 못 할 짓 하지 않기

Ceph Storage 본문

4학년/캡스톤 (Capstone)

Ceph Storage

쫑알bot 2024. 8. 12. 13:04
728x90

ceph storage 란

: 분산형 스토리지로 여러 스토리지들을 클러스트로 묶어 하나로 보이게 하는 리눅스 기반 스토리지

 

https://computing-jhson.tistory.com/112#google_vignette

 

 

Ceph storage의 특징

 

  • 대규모 확장성 
    : 성능 저하 없이 최대 10억 개 오브젝트 이상까지 관리할 수 있다

  • 복구/복원 = 안정성
    : 분산형 storage라는 특성으로, 여러 곳에 저장하기 때문에 복구가 용이하다.

  • 다양한 형태의 인터페이스, 스토리지 제공
    : Object , Block , File 등 다양한 Level 의 Storage 인터페이스를 제공한다.


  • 저렴하다.

구성요소

📌RBD (Rados Block Device)

: virtual disk device

- client는 kernel module 이나 librbd를 통해서 이를 사용ㅎ라 수 있다.

- Thin - provisioning 지원

 

 

📌Ceph File System (CephFS)

: POSIC - conpliant 한 Distributed file system

 

- Resize 와 snapshot 기능

- File의 관한 정보를 관리하기 위해 MDS(Meta Data stroage) 사용

 

 

📌Ceph Object Storage

: Ceph에서 제공하는 Object Storage Interface

 

- Client가 cluster와 통신하기 위해 RGW사용

- Client가 S3 API와 Swift API 사용 가능

 

 

문제점

 

더보기

1. 구조적인 한계

 

: 클러스터의 규모와는 상관없이 OSD의 상태를 관리하는 데몬(컴포넌트)은 'Ceph 매니저' 단 하나밖에 없다.

따라서, 규모가 특정 임계치를 넘어서면 Ceph 매너지가 멈추거나 잘못된 정보를 보낸다.

 

 

2. 모니터 문제

 

: 잘못된 클라이언트가 잘못된 요청을 보내서 모니터 메모리 증가

➡️메모리 부족.

 

이 때문에 생기는 상황을 다른 데몬이 잘 이어받으면 문제가 되지 않지만, 종종 문제가 생긴다.

 

 

 

해결법 및 문제점 분석

대규모 스토리지를 하나의 클러스터로 구성하기에는 위험 부담이 있다.

 

하이퍼 스케일 스토리지 

: 클러스터를 관리 가능한 단위로 나눠 관리

 

개념)

 클러스터를 여러 클러스터로 분리하되, 마치 하나의 클러스터처럼 작동하도록 추상 레이어를 제공

 

 

 

데이터를 저장하는 곳 : 독립 클러스터

 

 

하이퍼 스케일 오브젝트 스토리지는 S3 프로토콜을 사용

Ceph은 오브젝트를 여러 개의 오브젝트로 나눠서 저장

 

 

 

 

 


(참고)

https://anfrhrl5555.tistory.com/162

 

 

'4학년 > 캡스톤 (Capstone)' 카테고리의 다른 글

rclone 주요 기능 분석 ( flow 위주 )  (0) 2024.12.27
Go 언어 실습 3 코드  (0) 2024.12.24
Go 언어 실습 2  (0) 2024.12.24
Go 언어 실습 1  (0) 2024.12.23
Go언어 정리  (0) 2024.12.23