本文分享自华为云社区《基于Slurm集群的分布式图计算应用实践:Github协作网络影响力分析》,作者:yd_263841138 。
1. 引言
Slurm(Simple Linux Utility for Resource Management)是一个针对小型Linux集群的开源、容错、高可扩展的集群管理及作业调度系统,它具备统一管理集群内的计算资源、管理任务调度、监控作业任务等功能,能够在并行程序开发、验证过程中省去对集群计算资源管理配置的冗杂过程,高效助力分布式并行程序开发。
Gemini是一个轻量级分布式图计算框架,其是后续多款大规模图计算框架的原型模板。Gemini既支持单机运行,也可以分布式多机运行。而多机运行的话,Gemini给出了在Slurm上提交作业的运行方案。
因此,一方面出于对作业调度系统部署过程的实践学习,另一方面出于后续对大规模图计算框架预研方向上的需要,最终决定尝试在通过多台华为云弹性服务器构建简易计算集群,并安装部署Slurm作业调度系统。
2. Slurm部署2.1. 配置信息
关于华为云服务器配置,我以按需计费模式开通了三台通用入门型弹性云服务器(ECS)及其弹性公网IP,详细信息如下表。
规格类型 | 主机名 | 镜像 | 处理器 | 内存 | 硬盘规格 | 内网地址 |
---|---|---|---|---|---|---|
通用入门型 | master | CentOS 7.9 64bit | 1vCPUs | 1GiB | 通用型SSD 40 GiB | 192.168.101 |
通用入门型 | slave1 | CentOS 7.9 64bit | 4vCPUs | 4GiB | 通用型SSD 40 GiB | 192.168.100 |
通用入门型 | slave2 | CentOS 7.9 64bit | 4vCPUs | 4GiB | 通用型SSD 40 GiB | 192.168.102 |
根据slurm部署规划,我以处理器规格为1vCPUs的master作为控制节点,不承担计算任务;以两台处理器规格为4vCPUs的slave1/2作为计算节点,构成集群的全部计算资源。
2.2. 部署过程
Slurm的部署过程比较复杂,这里以其官网文档的“Super Quick Start”指南作为参考进行部署,主要步骤包括:时钟同步、Munge配置、Slurm配置等步骤。
2.2.1. 时钟同步
这里采用ntp作为集群的时钟同步工具,其重点是对/etc/ntp.conf配置文件相关参数的编辑。
集群内时钟服务器节点
集群内的时钟服务器需要确定本服务器的所参照的时钟标准。这里将原本的默认服务器改为国内服务器。
#注释掉默认的外网时间服务器# server 0.centos.pool.ntp.org iburst# server 1.centos.pool.ntp.org iburst# server 2.centos.pool.ntp.org iburst# server 3.centos.pool.ntp.org iburst# 添加中国国家授时中心服务器地址server 0.cn.pool.ntp.orgserver 1.cn.pool.ntp.orgserver 2.cn.pool.ntp.orgserver 3.cn.pool.ntp.org# 添加允许上层时间服务器主动修改本机时间restrict 0.cn.pool.ntp.org nomodify notrap noqueryrestrict 1.cn.pool.ntp.org nomodify notrap noqueryrestrict 2.cn.pool.ntp.org nomodify notrap noqueryrestrict 3.cn.pool.ntp.org nomodify notrap noquery
修改完配置文件后,则先将当前服务器时钟与参照服务器进行对齐,接着开启ntp服务。
sudo ntpdate cn.pool.ntp.orgsudo service ntpd start
集群内其他服务器节点
集群内其他待同步的服务器节点的/etc/ntp.conf配置需要确定集群内时钟服务器主机名或IP地址,并允许其时钟被时钟服务器所修改。
# 从node01中同步时间# server server master# 允许时间服务器修改本地时间# restrict 时间服务器主机名或ip nomodify notrap noqueryrestrict master nomodify notrap noquery
在完成配置文件的修改后,先将当前服务器时钟与时钟服务器的时钟进行对齐后,再启动ntp服务。
#sudo ntpdate sudo ntpdate mastersudo service ntpd start
2.2.2 配置Munge
参照Munge官网安装指南中Installing from RPMs on Red Hat compatible systems进行安装。
首先,下载munge(munge.0.5.15.tar.xz和munge.0.5.15.tar.xz.asc两个文件)。
接着,参考Installing from RPMs onRed Hat compatible systems的指导进行安装。具体地,
- 先从tarball构建SRPM,并根据SRPM安装依赖:
rpmbuild -ts munge-0.5.15.tar.xzsudo dnf builddep SRPMS/munge-0.5.15-1.el9.src.rpm
- 再验证安装下载的源码。下载dun.gpg,确保文件夹下由dun.gpg、munge-0.5.15.tar.xz和munge-0.5.15.tar.xz.asc三个文件。
rpmbuild -tb --with=verify --with=check munge-0.5.15.tar.xz
- 此时munge、munge-devel、munge-libs或更多二进制RPMs就会生成。然后通过二进制RPMs安装:
sudo rpm --install --verbose \\ RPMS/x86_64/munge-0.5.15-1.el9.x86_64.rpm \\ RPMS/x86_64/munge-debugsource-0.5.15-1.el9.x86_64.rpm \\ RPMS/x86_64/munge-devel-0.5.15-1.el9.x86_64.rpm \\ RPMS/x86_64/munge-libs-0.5.15-1.el9.x86_64.rpm
munge不必获得root权限,但是需要具有对以下文件夹的所属:
- ${sysconfdir}/munge[
/etc/munge
] - ${localstatedir}/lib/munge[
/var/lib/munge
] - ${localstatedir}/log/munge[
/var/log/munge
] - ${runstatedir}/munge[
/run/munge
]
创建munge密钥
sudo -u munge ${sbindir}/mungekey --verbose#如果失败,则需手动切到/usr/local/sbin目录下执行mungeky
生成密钥存在于*${sysconfdir}/munge/munge.key*下,需要把这个密钥拷贝集群内所有机器的此目录中。
最后,开启munge守护进程(systemd方式)
# 开机自动启动sudo systemctl enable munge.service# 启动sudo systemctl start munge.service# 查看状态sudo systemctl status munge.service# 停止sudo systemctl stop munge.service
2.2.3. 配置slurm
从官网下载slurm22xxxxx,
解压tar-ball:tar —bzip -x -f slurm*tar.bz2
进入Slurm源码目录,键入./configure
配置(可带例如—prefix=和—sysconfdir=选项)
键入make
编译Slurm
键入make install
安装程序、软件和库等。
配置slurm.conf
主要配置SlurmUser、以及节点、分区信息。
SlurmctldHost=masterProctrackType=proctrack/linuxpro# COMPUTE NODESNodeName=slave2 Sockets=1 CPUs=4 CoresPerSocket=2 ThreadsPerCore=2 RealMemory=300 State=UNKNOWN NodeAddr=192.168.0.102NodeName=slave1 Sockets=1 CPUs=4 CoresPerSocket=2 ThreadsPerCore=2 RealMemory=300 State=UNKNOWN NodeAddr=192.168.0.100NodeName=master Sockets=1 Procs=1 CoresPerSocket=1 ThreadsPerCore=2 RealMemory=300 State=UNKNOWN NodeAddr=192.168.0.101PartitionName=compute Nodes=slave1,slave2 Default=YES MaxTime=INFINITE State=UPPartitionName=control Nodes=master Default=NO MaxTime=INFINITE State=UP
运行Slurm前,确保SlurmUser存在,相关目录(/var/spool/slurm/)存在,slurm.conf已拷贝到集群内所有机器同目录位置。
2.2.4. 测试运行
确保时间同步。
确保munge已开启。
控制节点
键入slurmctld -D
显式运行,命令行打印运行信息。
计算节点
键入slurmd -D
显式运行,命令行打印运行信息。
3. Github协作网络影响力分析3.1. Gemini编程接口
Gemini图计算框架为用户设计自定义图应用算法提供了两个通用编程接口:process_vertices和process_edges。顾名思义,process_vertices即表示对顶点的遍历,用户需要另外提供顶点遍历时的自定义更新函数;process_edges即表示对边的遍历,用户需要另外提供自定义消息生成、规约函数。
3.1.1. process_vertices
process_vertices声明如下所示,其包含两个参数,分别是处理函数process以及活跃顶点集active。从使用角度而言,process即需要用户指明对顶点遍历时需要参照哪些数据、修改哪些数据;active的作用类似顶点开关,即在此轮顶点遍历中需要遍历哪些顶点。
template R process_vertices(std::function process, Bitmap * active);
3.1.2. process_edges
process_edges的声明如下所示。由于Gemini在实际计算过程中会采用Sparse或Dense两种模式,因此这里需要分别提供Sparse和Dense的Signal和Slot方法(即发送信息、接收消息方法)。
template R process_edges(std::function<void(VertexId)> sparse_signal, std::function<R(VertexId, M, VertexAdjList)> sparse_slot, std::function<void(VertexId, VertexAdjList)> dense_signal, std::function dense_slot, Bitmap * active, Bitmap * dense_selective = nullptr) {
3.2. 预处理
这里通过Github日志信息来构建Github协作网络,以进一步分析得到用户、项目的影响力指标。因此,在具体分析计算之前,需要对原始数据进行抽取及预处理工作。
3.2.1. 日志抽取
针对Github日志数据的处理存在一些困难与挑战。比如,日志文件数据量大,难以处理;日志信息粒度极高,包含大量冗杂信息,需要进一步筛选。针对这些困难挑战,这里采取了相对应的处理措施。
首先,对日志文件按一定条目数进行批量切分,切分成大小均匀的一个个子文件再进行处理。如若不进行切分,那么倘若在处理程序执行过程中出现错误,则之前已处理的进度无法跟踪、处理好的数据只能舍弃再从头开始处理。
接着,再利用正则表达式结合python第三方库pandas对子文件信息进行处理。具体地,主要抽取仓库ID(repo_id)、开发者ID(actor_id)以及事件类型等字段。
3.2.2. 同构图转异构图
根据日志抽取得到的数据可构建出开发者与代码仓库之间的二部图,其分别以开发者、代码仓库为顶点,将各种事件抽象为二者之间的关系。而直接处理异构图本身是比较复杂的,因此这里将采取顶点降维的方式、将异构图分别转为仅含开发者或仅含代码仓库的同构图,分别求开发者之间的影响力指标与代码仓库之间的影响力指标。以转变为仅含代码仓库顶点的同构图为例,这里首先将开发者看作是“中继”,即一个开发者会直接与若干代码仓库产生联系。这里则将开发者所直接联系的若干代码仓库之间用边相连、相联系起来,这样即可消除起”中继“作用的开发者顶点,进而转变为只包含代码仓库顶点的同构图。
3.2.3 适配Gemini数据要求
Gemini要求用户提供图中顶点个数总数作为程序参数,并且要求对顶点序号进行顺序连续重编号。因此,为了符合Gemini的要求,这里对图的顶点序号进行重新编号,并通过哈希表记录重新编号后的顶点与原顶点的映射关系。
3.3. 程序设计
PageRank算法最初作为互联网网页重要度的计算方法,能有效反映互联网中网页的影响力。同样,将PageRank算法借鉴到Github协作网络影响力分析中也可得到开发者、代码仓库的影响力指标。因此,在算法设计上,这里参考PageRank算法,利用Gemini框架进行程序设计与实现。
Gemini源码已包含一个PageRank的测试样例,这里基于测试样例进行修改调整,以适配Github协作网络分析任务。在PageRank实现过程中,就编程方面比较核心的即是边遍历(process_edges)的过程。
graph->process_edges<int,double>( [&](VertexId src){ // sparse_signal graph->emit(src, curr[src]); }, [&](VertexId src, double msg, VertexAdjList outgoing_adj){ // sparse_slot for (AdjUnit * ptr=outgoing_adj.begin;ptr!=outgoing_adj.end;ptr++) { VertexId dst = ptr->neighbour; write_add(&next[dst], msg); } return 0; }, [&](VertexId dst, VertexAdjList incoming_adj) { // dense_signal double sum = 0; for (AdjUnit * ptr=incoming_adj.begin;ptr!=incoming_adj.end;ptr++) { VertexId src = ptr->neighbour; sum += curr[src]; } graph->emit(dst, sum); }, [&](VertexId dst, double msg) { // dense_slog write_add(&next[dst], msg); return 0; }, active );
3.4. 程序运行
确认集群中Slurm系统正在运行,接着以提交作业的方式运行程序。
确认Slurm系统与资源状况
sinfo
编译并提交作业
makesrun -N 2 ./NewGemini/toolkits/pagerank ./NewGemini/github_data.dat 1000 8
4. 小结
本文实现了Slurm在弹性云服务器集群的安装与部署,整体流程较为简洁明了,但是在实际实施过程中仍会遇到些问题。对于Gemini框架的理解和使用仍比较局限。对此,根据整个部署过程下来后的心得体会,作如下几点小结:
- 选择Centos镜像的话尽量选择Centos 7,否则Centos 8的话会遇到一些问题。
- Munge的安装方法比较丰富,官网提供了git安装、RPM安装等多种安装方式。
- 会出现缺少依赖、缺少文件夹、权限错误等问题,根据错误信息逐个解决即可。
- Gemini对输入数据有一定要求,比如顶点需要顺序连续编号。并且如果当输入是带权图时,在写二进制文件时需额外注意。
这次实践比较简略,其目的主要实践学习作业调度软件在集群的部署过程,以及为分布式图计算应用提供初步NUMA资源架构环境,因而仅简要划分了控制节点与计算节点,并没有继续细分登录节点、部署数据库、考虑计费机制等问题。因此,在未来或需要继续深入思考以下几点内容:
- 如何以实验场景、生产场景的标准部署Slurm。
- 如何分析提交作业的程序性能、机器利用率。
- 深入理解Gemini框架思想及接口,对照其他图计算框架继续学习。
参考资料
- Slurm官网
- Munge官网
- 计算节点执行slurmd遇到的问题
- Centos编译安装mpi
点击关注,第一时间了解华为云新鲜技术~