故障排除
本指南提供了一种结构化的方法来对 Kubernetes 上的 Alluxio 集群进行故障排除。它涵盖了从初始健康检查到详细诊断和常见问题恢复程序的方方面面。
1. 初始健康检查
当您遇到问题时,请从这些高级检查开始,以快速评估 Alluxio 集群及其依赖项的整体健康状况。
检查组件状态
验证所有 Alluxio 和 etcd pod 是否正在运行并处于 READY
状态。Running
状态是不够的;READY
列应显示 pod 中的所有容器都处于健康状态。
# 检查 Alluxio 协调器 pod 的就绪状态
$ kubectl -n alx-ns get pod -l app.kubernetes.io/component=coordinator
# 检查 Alluxio worker pod 的就绪状态
$ kubectl -n alx-ns get pod -l app.kubernetes.io/component=worker
NAME READY STATUS RESTARTS AGE
alluxio-cluster-worker-59476bf8c5-lg4sc 1/1 Running 0 46h
alluxio-cluster-worker-59476bf8c5-vg6lc 1/1 Running 0 46h
# 检查 Alluxio FUSE pod 的就绪状态(包括 DaemonSet 和 CSI)
$ kubectl -n alx-ns get pod -l 'app.kubernetes.io/component in (fuse, csi-fuse)'
NAME READY STATUS RESTARTS AGE
alluxio-cluster-fuse-acee53e8f0a9-3gjbrdekk0 1/1 Running 0 57m
# 检查集成的 etcd 集群的就绪状态
$ kubectl -n alx-ns get pod -l 'app.kubernetes.io/component=etcd,app.kubernetes.io/instance=alluxio-cluster'
NAME READY STATUS RESTARTS AGE
alluxio-cluster-etcd-0 1/1 Running 0 46h
alluxio-cluster-etcd-1 1/1 Running 0 46h
alluxio-cluster-etcd-2 1/1 Running 0 46h
您还可以使用此单行命令获取特定组件的就绪百分比:
# worker 示例:
$ kubectl -n alx-ns get pod -l app.kubernetes.io/component=worker -o jsonpath='{range .items[*]}{.status.containerStatuses[0].ready}{"\n"}{end}' | awk 'BEGIN{t=0}{s+=1;if($1=="true")t+=1}END{print t,"ready /",s,"expected =",t/s*100,"%"}'
2 ready / 2 expected = 100 %
验证 UFS 连接性
确保 Alluxio 可以与底层存储系统(UFS)通信。
运行 ufsTest
以检查基本的 UFS 操作:
$ ./bin/alluxio exec ufsTest --path s3://your_bucket/test_path
Running test: createAtomicTest...
Passed the test! time: 5205ms
...
Tests completed with 0 failed.
运行 ufsIOTest
以检查 UFS 读/写吞吐量:
# 此示例使用两个线程写入和读取一个 512MB 的文件
$ ./bin/alluxio exec ufsIOTest --path s3://test_bucket/test_path --io-size 512m --threads 2
{
"readSpeedStat" : { ... },
"writeSpeedStat" : { ... },
"errors" : [ ],
...
}
没有错误的成功测试表明 UFS 可访问且配置正确。
通过仪表板监控关键指标
Grafana 仪表板提供了发现异常的最快方法。请关注以下关键领域:
活跃度:查看 worker(
irate(alluxio_data_access_bytes_count[5m])
)和 FUSE(alluxio_fuse_result
)的每秒请求数(RPS)。突然的、意外的峰值或下降可能表示有问题。UFS 数据流:监控
alluxio_ufs_data_access
和alluxio_ufs_error
指标。错误增加是 UFS 连接性或权限问题的明确信号。缓存命中率:整体缓存命中率的突然下降可能表示 worker 不健康或数据访问模式发生了意外变化。
2. 收集详细诊断信息
如果初始健康检查未能揭示问题,您需要通过检查日志和收集完整的诊断快照来深入挖掘。
检查日志
Alluxio 进程日志
检查日志以查找特定的错误消息。
# 获取特定 pod 的所有日志(例如,一个 worker)
$ kubectl -n alx-ns logs alluxio-cluster-worker-59476bf8c5-lg4sc
# 过滤 WARN 或 ERROR 消息并显示匹配后的行
$ kubectl -n alx-ns logs alluxio-cluster-fuse-acee53e8f0a9-3gjbrdekk0 | grep -A 1 'WARN\|ERROR'
2024-07-04 17:29:53,499 ERROR HdfsUfsStatusIterator - Failed to list the path hdfs://localhost:9000/
java.net.ConnectException: Call From myhost/192.168.1.10 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
# 检查先前失败的容器的日志
$ kubectl -n alx-ns logs -p alluxio-cluster-worker-59476bf8c5-lg4sc
Kubernetes CSI 驱动程序日志
如果您怀疑 FUSE pod 挂载有问题,请检查与您的应用程序 pod 在同一 Kubernetes 节点上运行的 Alluxio CSI 节点插件的日志。
# 1. 获取您的应用程序或 FUSE pod 正在运行的节点名称
$ PODNS=alx-ns POD=alluxio-cluster-fuse-acee53e8f0a9-3gjbrdekk0
$ NODE_NAME=$(kubectl get pod -o jsonpath='{.spec.nodeName}' -n ${PODNS} ${POD})
# 2. 在该节点上找到 Alluxio CSI 节点插件 pod
$ CSI_POD_NAME=$(kubectl -n alluxio-operator get pod -l app.kubernetes.io/component=csi-nodeplugin --field-selector spec.nodeName=${NODE_NAME} -o jsonpath='{..metadata.name}')
# 3. 从 csi-nodeserver 容器获取日志
$ kubectl -n alluxio-operator logs -c csi-nodeserver ${CSI_POD_NAME}
生成诊断快照
对于复杂问题,collectinfo
工具会收集您集群状态的全面快照,这对于离线分析或与支持团队共享非常有价值。
快照包括:
配置文件
Kubernetes 节点的硬件规格
来自 etcd 的数据(挂载、配额等)
所有 Alluxio 组件的日志
指定时间范围内的指标
作业服务历史记录
先决条件
确保 alluxio-collectinfo-controller
正在 operator 的命名空间中运行。如果不存在,您可能需要升级 Alluxio Operator。
$ kubectl -n alluxio-operator get pod -l app.kubernetes.io/component=alluxio-collectinfo-controller
NAME READY STATUS RESTARTS AGE
alluxio-collectinfo-controller-cc49c56b6-wlw8k 1/1 Running 0 19s
收集快照
默认情况下,会随您的集群创建一个 CollectInfo
资源,每天执行一次快照。您也可以触发一次性收集或自定义计划。
要触发一次性收集,请创建一个 YAML 文件(collect-now.yaml
):
apiVersion: k8s-operator.alluxio.com/v1
kind: CollectInfo
metadata:
name: one-time-snapshot
namespace: alx-ns
spec:
scheduled:
enabled: false # 当 enabled 为 false 时触发单次运行
然后应用它:
$ kubectl apply -f collect-now.yaml
访问和下载快照
收集的快照(作为 .tar.gz
文件)存储在挂载到协调器 pod 的卷中。
# 1. 获取协调器 pod 名称
$ COORDINATOR_NAME=$(kubectl -n alx-ns get pod -l app.kubernetes.io/component=coordinator -o jsonpath="{.items[0].metadata.name}")
# 2. 列出协调器内部的快照
$ kubectl -n alx-ns exec -it ${COORDINATOR_NAME} -- ls /mnt/alluxio/metastore/collectinfo/
# 3. 将快照复制到您的本地计算机
$ kubectl -n alx-ns cp ${COORDINATOR_NAME}:/mnt/alluxio/metastore/collectinfo/ ./snapshots-output
3. 常见问题和恢复程序
以下是针对常见组件故障的逐步恢复指南。
协调器故障
协调器处理元数据操作。它将其状态持久化到元存储中,并可在重启后恢复。Kubernetes 将自动重启失败的协调器 pod。如果作业历史记录损坏,未完成的作业可能会丢失,需要重新提交。
Worker 故障
Alluxio 被设计为对 worker 故障具有弹性。如果 worker pod 失败,Kubernetes 将自动重启它。该 worker 上缓存中存储的数据将丢失,但这不会导致 I/O 操作失败(尽管可能会暂时降低性能,因为数据需要重新获取)。
FUSE 故障
如果 FUSE pod 崩溃或变得无响应,它将由其控制器(DaemonSet 或 CSI 驱动程序)自动重启。如果 FUSE pod 挂起,您可以强制重启:
# 手动删除 pod 以触发重启
$ kubectl delete pod <fuse-pod-name>
ETCD 故障
Alluxio 有一个宽限期(通常为 24 小时)来容忍 etcd 故障而不会中断 I/O。如果集成的 etcd 集群失败且无法通过简单的 pod 重启来恢复,您可能需要重建它。
警告:这是一个破坏性操作,只应作为最后手段执行。
关闭 Alluxio 集群:
kubectl delete -f alluxio-cluster.yaml
删除原始的 etcd PVC:
kubectl -n alx-ns delete pvc -l app.kubernetes.io/component=etcd
清除节点上的 etcd 数据: 手动登录到托管 etcd pod 的每个 Kubernetes 节点,并删除 etcd PV 使用的主机路径目录的内容。
重新创建集群:
kubectl create -f alluxio-cluster.yaml
。operator 将配置一个新的、空的 etcd 集群。重新挂载 UFS 路径: 如果您没有使用
UnderFileSystem
CRD 来管理挂载,您将需要使用alluxio fs mount
手动重新添加它们。
Last updated