稠密矩阵算法实现

矩阵$A$,$B$和向量$\vec{x}$按下面定义元素:

  • $a_{ij}=\frac{i-0.1\times j+1}{i+j+1}$
  • $b_{ij}=\frac{(j-0.2\times i+1)(i+j+1)}{i\times i+j\times j+1}$
  • $x_i=\frac{i}{i\times i+1}$

完成矩阵向量乘$A\vec{x}$的 MPI 并行算法,要求对矩阵采用 2 维划分

原理分析

  • 把$n\times n$矩阵$A$在$p$($p\le n^2$)个进程中划分,$p$个进程组成阵列$\sqrt{p}\times\sqrt{p}$,把$n\times 1$向量$\vec{x}$分布在个进程阵列的最后一列
  • $p=n^2$
    • 每个进程拥有矩阵$A$的一个元素。
    • 把$n\times 1$向量$\vec{x}$分布在$n$个进程的最后一列。
  • $p<n^2$
    • 每个进程$P_i$储存矩阵$A$的具有$\frac{n}{\sqrt{p}}\times\frac{n}{\sqrt{p}}$阶的子矩阵$A_{i,j}$。
    • 最后一列进程$P_i(i=\sqrt{p}−1,2\sqrt{p}−1,\dots,𝑝−1)$储存向量$\vec{x}$的$\frac{n}{\sqrt{p}}$个元素$x_k$。
  • 二维划分相比一维有更低的时间复杂度和更好的可扩展性。

源代码MatVecMul.c

#include <stdlib.h>
#include <math.h>
#include <mpi.h>
typedef double lf;
lf getA(int i, int j) { return (i - 0.1 * j + 1) / (i + j + 1); }
lf getB(int i, int j) { return (j - 0.2 * i + 1) * (i + j + 1) / (i * i + j * j + 1); }
lf getX(int i) { return i / (i * i + 1.0); }
int main(int argc, char **argv)
{
	MPI_Init(&argc, &argv);
	int comSize, comRank, n = 1 << atoi(argv[1]);
	MPI_Comm_size(MPI_COMM_WORLD, &comSize);
	MPI_Comm_rank(MPI_COMM_WORLD, &comRank);
	int sqSize = round(sqrt(comSize)),	 //进程数的开方
		sqLen = (n + sqSize - 1) / sqSize, //每个进程分到矩形的边长
		sqRow = comRank / sqSize,		   //每个进程分到矩形的行编号
		sqCol = comRank % sqSize;		   //每个进程分到矩形的列编号
	MPI_Comm rowComm, colComm;			   //按行和列划分的通信域
	MPI_Comm_split(MPI_COMM_WORLD, sqRow, sqCol, &rowComm);
	MPI_Comm_split(MPI_COMM_WORLD, sqCol, sqRow, &colComm);
	lf *x = (lf *)malloc(sizeof(lf) * sqLen),
	   *y = (lf *)malloc(sizeof(lf) * sqLen);
	if (!sqCol) //第一个通信步,0列的进程各自读取待求向量的一部分,发给对角线上的进程
	{
		for (int i = 0; i < sqLen; ++i)
			x[i] = getX(sqRow * sqLen + i);
		if (sqCol != sqRow) //防止仅有一个进程时发生自己发给自己造成阻塞
			MPI_Send(
				x,
				sqLen,
				MPI_DOUBLE,
				sqRow,
				1,
				rowComm);
	}
	else if (sqCol == sqRow) //对角线上(且不在第0列)的接受
		MPI_Recv(
			x,
			sqLen,
			MPI_DOUBLE,
			0,
			1,
			rowComm,
			MPI_STATUSES_IGNORE);
	MPI_Bcast( //第二个通信步,对角线上的进程将向量分给同列的其他进程
		x,
		sqLen,
		MPI_DOUBLE,
		sqCol,
		colComm);
	for (int j = 0; j < sqLen; ++j) //每个进程计算自己的矩阵和向量相乘的结果
		for (int i = y[j] = 0; i < sqLen; ++i)
			y[j] += getA(sqRow * sqLen + j, sqCol * sqLen + i) * x[i];
	MPI_Reduce( //第二个通信步,各进程将结果同步到第0列
		y,
		x,
		sqLen,
		MPI_DOUBLE,
		MPI_SUM,
		0,
		rowComm);
	MPI_Finalize();
}

调度脚本MatVecMul.pbs

这里只放出运行 256 进程时的调度脚本,其他同理。

#PBS -N MatVecMul
#PBS -l nodes=8:ppn=32
#PBS -j oe

source /public/software/profile.d/mpi_openmpi-intel-2.1.2.sh

mpicc $PBS_O_WORKDIR/MatVecMul.c -o $PBS_O_WORKDIR/MatVecMul -std=c11 -lm
for logN in 6 7 8 9 10 11 12 13 14 15 16 17
do
time mpiexec -machinefile $PBS_NODEFILE $PBS_O_WORKDIR/MatVecMul $logN
done

计算算法的运行时间,填表

由于要求矩阵二维分划,为方便并行的进程数取平方数。

详见附件中的MatVecMul.o6610~MatVecMul.o6614,分别对应了进程数 256、64、16、4、1 的运行时间。

可以看到,由于矩阵向量乘的时间复杂度是$O(n^2)$的,按照现代计算机单核1e9次每秒的运算速度来计算的话,除了进程数最小且问题规模最大的时候跑了15.105s,其他大部分都在1s上下,大部分都是并行的额外开销。而且可以看到这个额外开销随着进程数量增加而增加,在进程数$16\to 64$的时候有一个比较大的增幅,因为这时候从单机 16 核的配置换成了双机 64 核,通信开销增加了很多。

运行时间

问题规模\进程数141664256
$2^6$0.3780.4800.5481.0051.397
$2^7$0.4540.4720.5551.0851.315
$2^8$0.4320.4640.5421.0371.292
$2^9$0.4300.4610.5711.0561.337
$2^{10}$0.4250.4310.5211.0231.268
$2^{11}$0.4530.4780.5141.0841.291
$2^{12}$0.4690.4940.5101.0491.306
$2^{13}$0.5280.4960.5401.0511.348
$2^{14}$0.6900.5620.5591.0521.287
$2^{15}$1.5250.7710.6221.1241.307
$2^{16}$4.2151.5540.8811.1461.326
$2^{17}$15.1054.0901.6741.3481.380

加速比

问题规模\进程数141664256
$2^6$10.78750.6897810220.3761194030.270579814
$2^7$10.9618644070.8180180180.418433180.345247148
$2^8$10.9310344830.797047970.4165863070.334365325
$2^9$10.9327548810.7530647990.407196970.321615557
$2^{10}$10.9860788860.8157389640.415444770.335173502
$2^{11}$10.9476987450.8813229570.4178966790.350890782
$2^{12}$10.9493927130.9196078430.4470924690.359111792
$2^{13}$11.0645161290.9777777780.5023786870.391691395
$2^{14}$11.2277580071.2343470480.6558935360.536130536
$2^{15}$11.9779507132.4517684891.3567615661.166794185
$2^{16}$12.7123552124.7843359823.6780104713.178733032
$2^{17}$13.6931540349.02329749111.2054896110.94565217

运算效率

问题规模\进程数141664256
$2^6$10.1968750.0431113140.0058768660.001056952
$2^7$10.2404661020.0511261260.0065380180.001348622
$2^8$10.2327586210.0498154980.0065091610.001306115
$2^9$10.233188720.047066550.0063624530.001256311
$2^{10}$10.2465197220.0509836850.0064913250.001309271
$2^{11}$10.2369246860.0550826850.0065296360.001370667
$2^{12}$10.2373481780.057475490.006985820.00140278
$2^{13}$10.2661290320.0611111110.0078496670.001530045
$2^{14}$10.3069395020.0771466910.0102483370.00209426
$2^{15}$10.4944876780.1532355310.0211993990.00455779
$2^{16}$10.6780888030.2990209990.0574689140.012416926
$2^{17}$10.9232885090.5639560930.1750857750.042756454

验证等效率函数

见「运算效率」中标黑部分。

由于并行开销较大而计算量小,这只取问题规模较大的部分做一下验证。不考虑并行同步开销时$W(n)=\frac{n^2}{p^2}$,因此规模较大的时候要保持 E,则 n 与 p 呈线性关系。

简单矩阵乘法$C=AB$(矩阵采用 2 维划分)

原理分析

  • 考虑两个$n\times n$矩阵$A$和$B$,分别划分成$p$个大小为$\frac{n}{\sqrt{p}}\times\frac{n}{\sqrt{p}}$的块$A_{i,j}$和$B_{i,j}$。
  • 进程$P_{i,j}$最初储存$A_{i,j}$和$B_{i,j}$,并计算结果矩阵的块$C_{i,j}$。
  • 计算子矩阵$C_{i,j}$需要所有子矩阵$A_{i,k}$和$B_{k,j}$($0\le k\le\sqrt{p}$)。
  • 每行进行矩阵$A$的块的全收集通信,同时每列进行矩阵$B$的块的全收集通信。
  • 最后执行子矩阵的乘加运算。

源代码MatMatMul.c

#include <stdlib.h>
#include <math.h>
#include <mpi.h>
typedef double lf;
lf getA(int i, int j) { return (i - 0.1 * j + 1) / (i + j + 1); }
lf getB(int i, int j) { return (j - 0.2 * i + 1) * (i + j + 1) / (i * i + j * j + 1); }
lf getX(int i) { return i / (i * i + 1.0); }
int main(int argc, char **argv)
{
	MPI_Init(&argc, &argv);
	int comSize, comRank, n = 1 << atoi(argv[1]);
	MPI_Comm_size(MPI_COMM_WORLD, &comSize);
	MPI_Comm_rank(MPI_COMM_WORLD, &comRank);
	int sqSize = round(sqrt(comSize)),	 //进程数的开方
		sqLen = (n + sqSize - 1) / sqSize, //每个进程分到矩形的边长
		sqRow = comRank / sqSize,		   //每个进程分到矩形的行编号
		sqCol = comRank % sqSize;		   //每个进程分到矩形的列编号
	MPI_Comm rowComm, colComm;			   //按行和列划分的通信域
	MPI_Comm_split(MPI_COMM_WORLD, sqRow, sqCol, &rowComm);
	MPI_Comm_split(MPI_COMM_WORLD, sqCol, sqRow, &colComm);
	lf *c = (lf *)malloc(sizeof(lf) * sqLen * sqLen),
	   *ra = (lf *)malloc(sizeof(lf) * sqLen * sqLen),
	   *rb = (lf *)malloc(sizeof(lf) * sqLen * sqLen);
	for (int i = 0; i < sqLen; ++i)
		for (int j = 0; j < sqLen; ++j)
			c[i * sqLen + j] = getA(sqRow * sqLen + i, sqCol * sqLen + j);
	MPI_Alltoall( //按行分发a
		c,
		sqLen * sqLen / sqSize,
		MPI_DOUBLE,
		ra,
		sqLen * sqLen / sqSize,
		MPI_DOUBLE,
		rowComm);
	for (int i = 0; i < sqLen; ++i)
		for (int j = 0; j < sqLen; ++j)
			c[j * sqLen + i] = getB(sqRow * sqLen + i, sqCol * sqLen + j); //保存的是b的转置
	MPI_Alltoall(														   //按列分发b(转置)
		c,
		sqLen * sqLen / sqSize,
		MPI_DOUBLE,
		rb,
		sqLen * sqLen / sqSize,
		MPI_DOUBLE,
		colComm);
	for (int i = 0; i < sqLen; ++i)
		for (int j = 0; j < sqLen; ++j)
			for (int k = c[i * sqLen + j] = 0; k < sqLen; ++k)
				c[i * sqLen + j] += ra[i * sqLen + k] * rb[j * sqLen + k]; //b中是转置
	free(c), free(ra), free(rb);
	MPI_Finalize();
}

调度脚本MatMatMul.pbs

#PBS -N MatMatMul
#PBS -l nodes=8:ppn=32
#PBS -j oe

source /public/software/profile.d/mpi_openmpi-intel-2.1.2.sh

mpicc $PBS_O_WORKDIR/MatMatMul.c -o $PBS_O_WORKDIR/MatMatMul -std=c11 -lm
for logN in 6 7 8 9 10 11 12 13 14 15 16 17
do
time mpiexec -machinefile $PBS_NODEFILE $PBS_O_WORKDIR/MatMatMul $logN
done

计算算法的运行时间,填表

由于要求矩阵二维分划,因此并行的进程数必须是平方数。

详见附件中的MatMatMul.o6633~MatMatMul.o6638,分别对应了进程数 256、64、16、4、1 的运行时间。下表中的x代表没有在限定时间中求解完毕。

可以看到,由于矩阵向量乘的时间复杂度是$O(n^3)$的,按照单核1e9次每秒的运算速度来计算的话,问题规模稍大一点的时候,在一个作业脚本的一个小时限制内基本上是跑不完的。当然,可以看到这里同问题规模且足够大的时候,运行时间会随进程数增加而减少,并行化取得了一定的加速结果。

运行时间

问题规模\进程数141664256
$2^6$0.5430.4480.5871.2451.407
$2^7$0.4960.4330.5721.1651.407
$2^8$0.5300.4770.5751.1361.375
$2^9$0.5200.5070.5621.1811.597
$2^{10}$1.2080.5390.5691.0961.664
$2^{11}$7.3681.1400.6851.1511.665
$2^{12}$61.1147.2791.4731.2231.657
$2^{13}$481.67661.0727.4492.2311.712
$2^{14}$x485.72260.93111.0283.106
$2^{15}$xx487.18080.77715.511
$2^{16}$xxx636.016111.355
$2^{17}$xxxx875.914

加速比

问题规模\进程数141664256
$2^6$11.2120535710.9250425890.4361445780.385927505
$2^7$11.1454965360.8671328670.4257510730.352523099
$2^8$11.1111111110.921739130.4665492960.385454545
$2^9$11.0256410260.9252669040.4403048260.32561052
$2^{10}$12.2411873842.1230228471.1021897810.725961538
$2^{11}$16.46315789510.756204386.4013900964.425225225
$2^{12}$18.39593350741.4894772649.9705641936.88231744
$2^{13}$17.88701860164.66317627215.9013895281.3528037
$2^{14}$xxxxx
$2^{15}$xxxxx
$2^{16}$xxxxx
$2^{17}$xxxxx

运算效率

问题规模\进程数141664256
$2^6$10.3030133930.0578151620.0068147590.001507529
$2^7$10.2863741340.0541958040.0066523610.001377043
$2^8$10.2777777780.0576086960.0072898330.001505682
$2^9$10.2564102560.0578291810.0068797630.001271916
$2^{10}$10.5602968460.1326889280.0172217150.002835787
$2^{11}$11.6157894740.6722627740.100021720.017286036
$2^{12}$12.0989833772.5930923290.7807900650.144071553
$2^{13}$11.971754654.0414485173.3734592111.09903439
$2^{14}$xxxxx
$2^{15}$xxxxx
$2^{16}$xxxxx
$2^{17}$xxxxx

验证等效率函数

不考虑并行开销时(根据古斯塔夫森定律,问题规模大的时候可忽略),等效率函数$W(n)=\frac{n^3}{p^2}$,即$n\to p^{\frac{2}{3}}$。见「运算效率」中标黑部分(进程数增加了 64 倍,问题规模增加 16 倍,运算效率处于同一个数量级)。

矩阵乘法$C=AB$的 CANNON 算法

原理分析

  • 最初子矩阵$A_{i,j}$和$B_{i,j}$分配给进程$P_{i,j}$。
  • 我们调度第$i$行$\sqrt{p}$个进程的计算,使得每个进程在不同时刻使用不同的$A_{i,k}$。
  • 每完成一次子矩阵乘法,这些块在各进程之间进行一次移位,使得每个进程获得下一步需要的新的$A_{i,k}$。
  • 对列使用同样的调度。
  • 该算法需要的内存总量为$O(n^2)$。
  • Cannon 算法的成本最优条件和等效率函数与前面提到的简单方法一致,但更节省空间。

源代码Cannon.c

#include <stdlib.h>
#include <math.h>
#include <mpi.h>
typedef double lf;
lf getA(int i, int j) { return (i - 0.1 * j + 1) / (i + j + 1); }
lf getB(int i, int j) { return (j - 0.2 * i + 1) * (i + j + 1) / (i * i + j * j + 1); }
lf getX(int i) { return i / (i * i + 1.0); }
int main(int argc, char **argv)
{
	MPI_Init(&argc, &argv);
	int comSize, comRank;
	MPI_Comm_size(MPI_COMM_WORLD, &comSize);
	MPI_Comm_rank(MPI_COMM_WORLD, &comRank);

	int dims[2] = {round(sqrt(comSize)), round(sqrt(comSize))}, //进程矩阵长宽
		periods[2] = {1, 1},
		n = 1 << atoi(argv[1]), //矩阵阶数
		sqLen = n / dims[0],	//每个进程分配矩阵长度
		sqRank,
		sqCoord[2];

	MPI_Comm cartComm;
	MPI_Cart_create( //创建笛卡尔拓扑
		MPI_COMM_WORLD,
		2,
		dims,
		periods, //每个维度上循环
		0,
		&cartComm);
	MPI_Comm_rank(cartComm, &sqRank); //获得笛卡尔拓扑下的编号
	MPI_Cart_coords(				  //获得笛卡尔坐标
		cartComm,
		sqRank,
		2,
		sqCoord);

	lf *a = (lf *)malloc(sqLen * sqLen * sizeof(lf)),
	   *b = (lf *)malloc(sqLen * sqLen * sizeof(lf)),
	   *c = (lf *)malloc(sqLen * sqLen * sizeof(lf));

	for (int i = 0; i < sqLen; ++i)
		for (int j = 0; j < sqLen; ++j)
		{ // 初始化矩阵内容
			a[i * sqLen + j] = getA(sqCoord[0] * sqLen + i, sqCoord[1] * sqLen + j);
			b[i * sqLen + j] = getB(sqCoord[0] * sqLen + i, sqCoord[1] * sqLen + j);
			c[i * sqLen + j] = 0;
		}

	int shiftsource, shiftdest;
	MPI_Cart_shift( // 将a、b分发给相应进程
		cartComm,
		0,
		-sqCoord[1],
		&shiftsource,
		&shiftdest);
	MPI_Sendrecv_replace(
		a,
		sqLen * sqLen,
		MPI_DOUBLE,
		shiftdest,
		1,
		shiftsource,
		1,
		cartComm,
		MPI_STATUSES_IGNORE);
	MPI_Cart_shift(
		cartComm,
		1,
		-sqCoord[0],
		&shiftsource,
		&shiftdest);
	MPI_Sendrecv_replace(
		b,
		sqLen * sqLen,
		MPI_DOUBLE,
		shiftdest,
		1,
		shiftsource,
		1,
		cartComm,
		MPI_STATUSES_IGNORE);

	int uRank, dRank, lRank, rRank; //上下左右,其中右、下为源
	MPI_Cart_shift(
		cartComm,
		0,
		-1,
		&rRank,
		&lRank);
	MPI_Cart_shift(
		cartComm,
		1,
		-1,
		&dRank,
		&uRank);

	for (int i = 0; i < dims[0]; ++i)
	{
		for (int i = 0; i < sqLen; ++i) //本地乘加
			for (int j = 0; j < sqLen; ++j)
				for (int k = 0; k < sqLen; ++k)
					c[i * sqLen + j] += a[i * sqLen + k] * b[k * sqLen + j];
		MPI_Sendrecv_replace(
			a,
			sqLen * sqLen,
			MPI_DOUBLE,
			lRank,
			1,
			rRank,
			1,
			cartComm,
			MPI_STATUSES_IGNORE);
		MPI_Sendrecv_replace(
			b,
			sqLen * sqLen,
			MPI_DOUBLE,
			uRank,
			1,
			dRank,
			1,
			cartComm,
			MPI_STATUSES_IGNORE);
	}

	MPI_Cart_shift( // 从相应进程处恢复发送的a、b子块
		cartComm,
		0,
		-sqCoord[1],
		&shiftsource,
		&shiftdest);
	MPI_Sendrecv_replace(
		a,
		sqLen * sqLen,
		MPI_DOUBLE,
		shiftdest,
		1,
		shiftsource,
		1,
		cartComm,
		MPI_STATUSES_IGNORE);
	MPI_Cart_shift(
		cartComm,
		1,
		-sqCoord[0],
		&shiftsource,
		&shiftdest);
	MPI_Sendrecv_replace(
		b,
		sqLen * sqLen,
		MPI_DOUBLE,
		shiftdest,
		1,
		shiftsource,
		1,
		cartComm,
		MPI_STATUSES_IGNORE);
	free(a), free(b), free(c);
	MPI_Comm_free(&cartComm);
	MPI_Finalize();
}

调度脚本Cannon.pbs

这里只放出运行 256 进程时的调度脚本,其他同理。

#PBS -N Cannon
#PBS -l nodes=8:ppn=32
#PBS -j oe

source /public/software/profile.d/mpi_openmpi-intel-2.1.2.sh

mpicc $PBS_O_WORKDIR/Cannon.c -o $PBS_O_WORKDIR/Cannon -std=c11 -lm
for logN in 6 7 8 9 10 11 12 13 14 15 16 17
do
time mpiexec -machinefile $PBS_NODEFILE $PBS_O_WORKDIR/Cannon $logN
done

计算算法的运行时间,填表

由于要求矩阵二维分划,因此并行的进程数必须是平方数。

详见附件中的Cannon.o6645~Cannon.o6649,分别对应了进程数 256、64、16、4、1 的运行时间。下表中的x代表没有在限定时间中求解完毕。

由于 Cannon 算法相对于简单并行矩阵乘法相比减少的只是空间占用,时间复杂度没有改变,并且由于算法变得更加复杂,时间常数变的比较大,当问题规模达到$2^{17}$的时候均不能在规定时间内计算出结果。其他情况下的运行结果和简单矩阵乘法类似,不再赘述。

运行时间

问题规模\进程数141664256
$2^6$0.4990.4760.7911.6001.794
$2^7$0.4570.4520.5831.1671.415
$2^8$0.4910.4830.5631.1711.347
$2^9$0.5800.5620.4961.1421.347
$2^{10}$1.1430.7440.6401.0271.339
$2^{11}$8.0481.8460.8831.1441.394
$2^{12}$61.98515.5064.0001.8011.495
$2^{13}$490.234124.02230.13010.6592.781
$2^{14}$x980.345247.96781.12125.447
$2^{15}$xx1972.293648.052217.948
$2^{16}$xxxx1751.185
$2^{17}$xxxxx

加速比

问题规模\进程数141664256
$2^6$11.0483193280.6308470290.3118750.278149387
$2^7$11.0110619470.7838765010.3916023990.322968198
$2^8$11.0165631470.8721136770.4192997440.364513734
$2^9$11.032028471.1693548390.5078809110.430586488
$2^{10}$11.5362903231.78593751.1129503410.853622106
$2^{11}$14.3596966419.1143827867.0349650355.773314204
$2^{12}$13.99748484515.4962534.4169905641.46153846
$2^{13}$13.95279869716.2706272845.99249461176.2797555
$2^{14}$xxxxx
$2^{15}$xxxxx
$2^{16}$xxxxx
$2^{17}$xxxxx

运行效率

问题规模\进程数141664256
$2^6$10.2620798320.0394279390.0048730470.001086521
$2^7$10.2527654870.0489922810.0061187870.001261595
$2^8$10.2541407870.0545071050.0065515580.001423882
$2^9$10.2580071170.0730846770.0079356390.001681978
$2^{10}$10.3840725810.1116210940.0173898490.003334461
$2^{11}$11.089924160.5696489240.1099213290.022552009
$2^{12}$10.9993712110.9685156250.5377654780.161959135
$2^{13}$10.9881996741.0169142050.7186327280.688592795
$2^{14}$xxxxx
$2^{15}$xxxxx
$2^{16}$xxxxx
$2^{17}$xxxxx

验证等效率模型

不考虑并行开销时(根据古斯塔夫森定律,问题规模大的时候可忽略),等效率函数$W(n)=\frac{n^3}{p^2}$,即$n\to p^{\frac{2}{3}}$。见「运算效率」中标黑部分(进程数增加了 64 倍,问题规模增加 16 倍,运算效率处于同一个数量级)。

矩阵乘法$C=AB$的 DNS 算法

原理分析

  • 使用三维划分。
  • 我们知道结果矩阵 C 中的每个元素实际上是由$A$的行和$B$的列进行一个点乘得到的。把点乘操作的多次乘法运算展开成第三维。
  • 因此,在进程立方中每个进程只负责了一次乘加操作。而二维算法中负责一次点乘操作。
  • DNS 算法最多允许$n^3$个进程参与计算。
  • 假设有一个$n\times n\times n$的进程阵列。
  • 将$A$的第$j$列发送到第$j$层的某一列进程中,将$B$的第$i$行发送到第$i$层的某一行进程中,然后对同层进行广播。
  • 每个处理器计算一个单独的乘加操作。
  • 沿着第三维做加法归约,算出具体对应的矩阵$C$的每一个元素。
  • 一个乘加操作运行时间是一个常数,而归约和广播复杂度为$O(\log n)$,因此总体需要的并行运行时间为$O(\log n)$。
  • 使用$n^3$个进程是并不是成本最优的。
  • 假设进程的数量是完全立方数$p=q^3$。
  • 两个输入矩阵被划分成$\frac{n}{q}\times\frac{n}{q}$的块。
  • 因此矩阵可以被看做是由这些块排成的$q\times q$二维方阵。
  • 算法和前面所述是完全类似的,唯一不同的是每个进程现在对子块操作而不是对矩阵的单个元素操作。

源代码DNS.c

#include <stdlib.h>
#include <math.h>
#include <mpi.h>
typedef double lf;
lf getA(int i, int j) { return (i - 0.1 * j + 1) / (i + j + 1); }
lf getB(int i, int j) { return (j - 0.2 * i + 1) * (i + j + 1) / (i * i + j * j + 1); }
lf getX(int i) { return i / (i * i + 1.0); }
int main(int argc, char **argv)
{
	MPI_Init(&argc, &argv);
	int comSize, comRank, n = 1 << atoi(argv[1]);
	MPI_Comm_size(MPI_COMM_WORLD, &comSize);
	MPI_Comm_rank(MPI_COMM_WORLD, &comRank);

	int sqSize = round(pow(comSize, 1.0 / 3)), //进程数的开立方
		sqLen = (n + sqSize - 1) / sqSize,	 //每个进程分到矩形的边长
		hRank = comRank / sqSize / sqSize,
		rRank = comRank / sqSize % sqSize,
		cRank = comRank % sqSize,
		sqHet = rRank * sqSize + cRank,
		sqRow = cRank * sqSize + hRank,
		sqCol = hRank * sqSize + rRank;

	MPI_Comm hetComm, rowComm, colComm; //按高分的通信域是一条直线,按行、列分的通信域是一个二维平面
	MPI_Comm_split(MPI_COMM_WORLD, sqHet, hRank, &hetComm);
	MPI_Comm_split(MPI_COMM_WORLD, sqRow, rRank, &rowComm);
	MPI_Comm_split(MPI_COMM_WORLD, sqCol, cRank, &colComm);

	lf *c = (lf *)malloc(sizeof(lf) * sqLen * sqLen),
	   *a = (lf *)malloc(sizeof(lf) * sqLen * sqLen),
	   *b = (lf *)malloc(sizeof(lf) * sqLen * sqLen);
	if (!hRank)
		for (int i = 0; i < sqLen; ++i)
			for (int j = 0; j < sqLen; ++j)
			{
				a[i * sqLen + j] = getA(rRank * sqLen + i, cRank * sqLen + j);
				b[j * sqLen + i] = getB(rRank * sqLen + i, cRank * sqLen + j); //b中存的是转置
			}
	MPI_Bcast( //按行广播A
		a,
		sqLen * sqLen,
		MPI_DOUBLE,
		0,
		hetComm);
	MPI_Bcast( //按列广播B
		b,
		sqLen * sqLen,
		MPI_DOUBLE,
		0,
		hetComm);
	/*//相当于每个进程执行下面的代码
	for (int i = 0; i < sqLen; ++i)
		for (int j = 0; j < sqLen; ++j)
		{
			a[i * sqLen + j] = getA(sqRow * sqLen + i, sqHet * sqLen + j);
			b[i * sqLen + j] = getB(sqHet * sqLen + i, sqCol * sqLen + j);
		}
	*/
	for (int i = 0; i < sqLen; ++i)
		for (int j = 0; j < sqLen; ++j)
			for (int k = c[i * sqLen + j] = 0; k < sqLen; ++k)
				c[i * sqLen + j] += a[i * sqLen + k] * b[j * sqLen + k];

	MPI_Reduce( //规约答案到最下面一层
		hRank ? c : MPI_IN_PLACE,
		c,
		sqLen * sqLen,
		MPI_DOUBLE,
		MPI_SUM,
		0,
		hetComm);
	free(a), free(b), free(c);
	MPI_Finalize();
}

调度脚本DNS.pbs

这里只放出运行 512 进程时的调度脚本,其他同理。

#PBS -N DNS
#PBS -l nodes=16:ppn=32
#PBS -j oe

source /public/software/profile.d/mpi_openmpi-intel-2.1.2.sh

mpicc $PBS_O_WORKDIR/DNS.c -o $PBS_O_WORKDIR/DNS -std=c11 -lm
for logN in 6 7 8 9 10 11 12 13 14 15 16 17
do
time mpiexec -machinefile $PBS_NODEFILE $PBS_O_WORKDIR/DNS $logN
done

计算算法的运行时间,填表

由于算法的前提要求,并行的进程数必须是立方数。

详见附件中的DNS.o6678~DNS.o6681,分别对应了进程数 512、64、8、1 的运行时间。下表中的x代表没有在限定时间中求解完毕。

DNS 算法相对 Cannon 算法来说,虽然时间复杂度没有改变,但是常数更大,运行速度更慢(可以对比 64 进程的运行时间)。其他情况下的运行结果和简单矩阵乘法类似,不再赘述。

运行时间

问题规模\进程数1864512
$2^6$0.4880.3651.4971.673
$2^7$0.4890.5691.1231.445
$2^8$0.4010.5161.1161.416
$2^9$0.4360.4501.1001.445
$2^{10}$0.8530.5941.0391.416
$2^{11}$6.5851.2591.1491.448
$2^{12}$52.3096.9332.5801.567
$2^{13}$413.20754.14714.9352.699
$2^{14}$x424.275112.29712.109
$2^{15}$xx882.31366.739
$2^{16}$xxx678.642
$2^{17}$xxxx

加速比

问题规模\进程数1864512
$2^6$11.3369863010.3259853040.291691572
$2^7$10.859402460.4354407840.338408304
$2^8$10.7771317830.3593189960.28319209
$2^9$10.9688888890.3963636360.301730104
$2^{10}$11.4360269360.8209817130.60240113
$2^{11}$15.2303415415.7310704964.547651934
$2^{12}$17.54493004520.274806233.38162093
$2^{13}$17.63120763827.66702377153.096332
$2^{14}$xxxx
$2^{15}$xxxx
$2^{16}$xxxx
$2^{17}$xxxx

运行效率

问题规模\进程数1864512
$2^6$10.1671232880.005093520.00056971
$2^7$10.1074253080.0068037620.000660954
$2^8$10.0971414730.0056143590.00055311
$2^9$10.1211111110.0061931820.000589317
$2^{10}$10.1795033670.0128278390.001176565
$2^{11}$10.6537926930.0895479770.008882133
$2^{12}$10.9431162560.3167938470.065198478
$2^{13}$10.9539009550.4322972460.299016273
$2^{14}$xxxx
$2^{15}$xxxx
$2^{16}$xxxx
$2^{17}$xxxx

验证等效率模型

不考虑并行开销时(根据古斯塔夫森定律,问题规模大的时候可忽略),等效率函数$W(n)=\frac{n^3}{p^2}$,即$n\to p^{\frac{2}{3}}$。见「运算效率」中标黑部分(进程数增加了 8 倍,问题规模增加 4 倍,运算效率处于同一个数量级)。