일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- MAC address
- jvm
- Trino
- aws s3
- zookeeper
- kubectl
- docker
- Vision
- airflow
- Packet
- ip
- CSV
- Spring
- AWS
- log
- CVAT
- java
- Python
- kubeadm
- JavaScript
- OS
- helm
- Kafka
- kubernetes
- Operating System
- Network
- PostgreSQL
- EC2
- grafana
- tcp
- Today
- Total
목록ALL (210)
JUST WRITE

늘렸는데 늘어나지 않았습니다?! AWS EC2 4EA에 Kubernetes Cluster를 구축해서 사용 중에 있습니다. 비용을 최소한으로 하기 때문에 Disk, Memory를 최소한으로 사용하고 있습니다. 그러나 사용하다 보니 Pod이 제대로 실행되지 않았습니다. Pod이 Evicted 상태로 되었습니다. describe command로 Pod의 상태를 보면 DiskPressure로 인해서 Pod이 제대로 실행되지 않았습니다. Kubernetes Cluster의 Worker의 Disk를 늘려야 했습니다. 이번 포스팅에서는 AWS EBS 사이즈 늘린 후 적용하는 방법을 정리해 보도록 하겠습니다. EBS 용량 Up AWS EC2에 Kubernetes Cluster를 구성할 때, Docker Data와 Ku..

큰일 났다! Out of Sync다?!?! Kafka Cluster를 운영하면 CMAK을 통해 Web에서 관리하는 경우가 많습니다. 저 역시 Kafka Cluster를 운영하면서 CMAK을 활용하고 있습니다. CMAK에서 Under Replicated가 0이 아닌 50으로 나온 경우가 발생하였습니다. Under Replicated가 0이 아니라는 것은 Topic의 Parition replicate가 설정한 대로 안된다는 것을 의미합니다. Out of Sync가 발생한 상황입니다. 실제로 Kafka 로그가 아래와 같이 발생하고 있었습니다. INFO [Partition __consumer_offsets-22 broker=3] Shrinking ISR from 1,3 to 3. Leader: (highWate..

Airflow Variables 세팅 Airflow를 사용하다 보면 한 DAG에서만 쓰는 변수가 아닌 코드값처럼 global 하게 쓰는 변수가 있을 수 있습니다. DAG내에서만 쓰면 XComs를 활용할 수 있습니다. global 하게 쓰는 전역 변수는 Variables로 설정할 수 있습니다. 이번 포스팅에서는 Airflow Variables에 대해서 소개해보려고 합니다. Variables 설정 Variables를 가장 간단하게 설정할 수 있는 방법은 Airflow WebServer에서 설정할 수 있습니다. [참고사이트] 더보기 Managing Variables — Airflow Documentation airflow.apache.org

Helm도 git처럼 diff가 가능하다고?! 요즘 Kubernetes Cluster를 통해 시스템 구성을 많이 하고 있습니다. Kubernetes 개념과 사용법이 복잡하지만 명령어를 통해 쉽게 관리할 수 있게 하는 Tool이 있습니다. 바로 Helm입니다. Helm을 통해 Kubernets에 Package를 쉽게 배포/관리할 수 있습니다. Helm으로 Package를 배포하면 values.yaml에 있는 값들을 수정하고 배포합니다. upgrade command로 수정한 것을 재배포 가능합니다. $ helm upgrade ... 다만 여러 번 수정을 하다 보면 설정값들이 관리가 안될 수 있습니다. 저도 이런 문제를 겪어서 반영한 히스토리를 알 수 없을까? 차이를 알 수 없을까? 고민하였습니다. 그러다가 ..

Trino 한번 써보겠습니다(1) RDB에서 데이터를 조회할 때 SQL를 통해 조회하였습니다. 데이터는 방대해져서 빅데이터가 생겼고, RDB뿐만 아니라 Storage의 종류도 다양해졌습니다. 데이터 조회는 다양한 곳에서, 큰 데이터를 한번에 조회해야 되서 어려워졌습니다. 다양한 곳의 빅데이터를 한 곳에서 조회할 수 있는 무언가가 필요해졌습니다. 그렇게 생겨난것이 분산 Query Engine입니다. 대표적인 분산 쿼리 엔진은 아래와 같습니다. Spark Thrift Server Apache Impala Apache Drill Presto Trino 요즘 가장 핫한 쿼리 엔진인 Trino를 직접 설치해 보고 사용해보려 합니다. 총 3개의 포스팅으로 나눠서 진행해보려고 합니다. Trino 설치 Hive Met..

포트 번호 쓰기도 귀찮네(1) 예전 포스팅에서 Ingress를 통해서 Kubernetes의 Service를 원하는 URL로 설정을 해보았습니다. [Ingress] ArgoCD UI 헷갈리지 않고 쉽게 접근하기 ArgoCD UI 헷갈리지 않고 쉽게 접근하기 Kubernetes내 Service를 외부에서 접근하도록 설정하는 가장 쉬운 방식은 NodePort 방법입니다. Service Port를 Control Plane의 Port에 포트포워딩을 통해 접근하게 해주는 developnote-blog.tistory.com Nginx Ingress Controller를 통해서 URL를 설정하였습니다. 다만 Nginx Ingress Controller로 세팅한 Service의 Port 번호를 알아야 했습니다. Port..