일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- kubectl
- airflow
- MAC address
- log
- PostgreSQL
- ip
- grafana
- CSV
- kubernetes
- helm
- AWS
- Vision
- Operating System
- Trino
- OS
- kubeadm
- Spring
- Network
- CVAT
- tcp
- jvm
- aws s3
- zookeeper
- EC2
- Packet
- Kafka
- docker
- JavaScript
- Python
- java
- Today
- Total
목록MLOps (53)
JUST WRITE
GPU Worker 노드 추가저번 포스팅에서는 Kubernetes 클러스터에 Worker 노드를 추가하기 전 필요한 세팅을 진행하였습니다. Kubernetes에 GPU 노드 추가(1) - GPU 노드 세팅GPU 노드 세팅컨테이너화된 애플리케이션이 주로 개발이 되면서 Kubernetes의 활용도가 높아지고 있습니다.AI 서비스 역시 Kubernetes에 배포, 운영되는 경우가 많아지고 있습니다.AI 서비스에서 인퍼developnote-blog.tistory.com이번 포스팅에서는 Kubernetes 클러스터에 Worker 노드를 추가하고 필요한 추가 세팅을 진행하겠습니다.Worker 노드 추가Master 노드에서 kubeadm 명령어로 토큰을 생성합니다.토큰을 생성하면서 --print-join-comman..
GPU 노드 세팅컨테이너화된 애플리케이션이 주로 개발이 되면서 Kubernetes의 활용도가 높아지고 있습니다.AI 서비스 역시 Kubernetes에 배포, 운영되는 경우가 많아지고 있습니다.AI 서비스에서 인퍼런스(Inference) 성능을 위해 GPU 활용이 중요합니다.Kubernetes에 GPU 노드를 추가함으로써 AI 서비스 인퍼런싱시 GPU를 활용할 수 있습니다.사내에 마침 GPU를 가진 PC가 남아 있어 세팅을 해보았습니다.2개 포스팅을 통해 Kubernetes에 GPU 노드를 추가하는 방법을 정리하려고 합니다.이번 포스팅에서는 추가하기 전 GPU 노드 세팅하는 방법을 정리해보았습니다.GPU 노드 k8s Worker 세팅nvidia driver 및 Container Toolkit 설치lshw(..
업그레이드해도 될까요?사내에 Kubernetes Cluster를 운영하고 있습니다.저와 팀원들이 외부 프로젝트에 투입되어 있어서 Kubernetes Cluster가 방치되고 있었습니다.프로젝트가 마무리되고 본사로 복귀하였습니다.본사에서 근무하는 동안 사내 Kubernetes Cluster를 제대로 활용할 수 있도록 정리하려고 합니다.첫 번째 작업으로 Kubernetes Cluster 중 Control Plane을 업그레이드하였습니다.Control Plane 업그레이드사내 Kubernetes Cluster는 Control Plane 3개, Worker Node 3개로 구성되어 있습니다.각 노드 별 버전이 제각각이었습니다.1.27.4 버전도 있고 1.28 버전인 노드도 존재하였습니다.이번 작업으로 1.28...
여기만 사용해! Github Action을 통해서 자동 배포 Workflow을 구성해보려고 합니다. 아래 step들로 workflow를 구성하려 합니다. 특정 조건일 때 Github Action Workflow 시작 docker image build Container Repository에 push 특정 Namespace에 Deployment에 새로운 build 한 image로 교체/재시작 사내에 구축된 Kubernetes Cluster에 배포까지 자동화 Workflow을 구성해보려고 합니다. 구성하기 앞서 특정 Namespace에 접근할 수 있는 ServiceAccount 생성이 필요하였습니다. 보통 Kubernetes Cluster 구축 시 생성한 관리자용 config로 접근을 합니다. $ mkdir ..
데이터 언제 저장할꺼니?!?! Kafka는 분산 메시지 시스템이자 Message Queue입니다. Kafka는 메시지를 받고 바로 지우지 않고 어느 정도 Broker에 저장합니다. 다양한 Consumer에서 메시지를 활용할 수도 있고 Network 문제 등 다양한 이유로 consuming에 시간이 걸리수도 있습니다. Kafka에서는 데이터 저장을 어떤식으로 관리할까요? 이번 포스팅에서는 Kafka 데이터 저장 관련 설정값을 정리해보도록 하겠습니다. Log Retention Kafka에서는 Broker에서 메시지를 받고 저장하는데, 저장한 Message를 Log라고 합니다. Broker나 Topic의 설정값에 따라서 Broker에서 Log를 어느 정도 저장할지 설정할 수 있습니다. Retention 관련 ..
어디까지 줄일 수 있니?! Kafka Cluster를 운영 업무를 맡아서 하고 있습니다. 여러 Cluster를 운영하고 있는데, 그중에서 해외 사이트에 설치된 Kafka Cluster도 있습니다. 해외사이트의 Kafka에서 국내로 Consuming해서 데이터를 처리해야 될 상황이었습니다. Network Bandwidth 때문에 아무리 Consuming 튜닝해도 데이터 전송에 제한이 있었습니다. 여러 가지 방안을 찾던 중 Message Compression을 좀 더 효과적으로 하는 방향을 고민해 보았습니다. 이번 포스팅에서는 위 이슈를 해결하기 위해 공부한 Message Compression을 정리해보려고 합니다. Kafka Compression Kafka는 실시간 데이터 처리하는 데 많이 사용되고 있습니..