cka실습

CKA Part1

yomatozu 2025. 5. 8. 17:24

1. A custom Kube Controller Manager container image was running in this cluster for testing. It has been reverted back to the default one, but it's not coming back up. Fix it.

 

해당 문제는 pods에 문제가 발생했을 때 대처하는 방법을 묻는다

 

k logs <문제가 있는 pod>

vi /etc/kubernetes/manifests/<문제가 있는 pod>

///문제 사항 고치기///

 

2. Someone tried to improve the Kubelet on Node node01 , but broke it instead. Fix it.

 

ssh node01

service kubelet status
cat /var/log/syslog | grep kubelet
vi /var/lib/kubelet/kubeadm-flags.env
--imporve-speed 지우기

service kubelet restart
service kubelet status

 

 

3. There is a Deployment in Namespace application1 which seems to have issues and is not getting ready. Fix it by only editing the Deployment itself and no other resources.

 

1. deploy중 하나가 문제가 발생

2. deploy를 edit해서 고쳐라

 

k -n application1 get deploy

k -n application1 describe deploy api

k -n application1 edit deploy api

/// category -> configmap-category로 변경

 

 

4. A Deployment has been imported from another Kubernetes cluster. But it's seems like the Pods are not running. Fix the Deployment so that it would work in any Kubernetes cluster.

 

1. 다른 클러스터에서 가져온 deploy가 있는데 pods가 작동을 하지 않는 상황

2. deploy를 수정해서 어느 클러스터에서도 작동하게 하자

 

1. 다른 클러스터에서 가져온 deploy가 있는데 pods가 작동을 하지 않는 상황
k get deploy
k get po

k describe deploy
k describe po

k get nodes -> deploy가 가리키는 노드가 존재하지 않음



2. deploy를 수정해서 어느 클러스터에서도 작동하게 하자

k edit deploy

-> node: staging-node01 ///라인 제거

 

5. There is a multi-container Deployment in Namespace management which seems to have issues and is not getting ready.

 

Write the logs of all containers to /root/logs.log .

 

Can you see the reason for failure?


1. deploy status가 불안전한 이슈

2. /root/logs.log의 모든 로그를 보고 이유를 찾아라

'cka실습' 카테고리의 다른 글

CKA Part3  (0) 2025.04.22
CKA Part2  (0) 2025.04.22
CKA Part1  (0) 2025.04.22