|||
算法:
1、先计算原始图像每个像素的亮度:u = (unsigned char)(0.299f * r + 0.587f * g + 0.114f * b)。
2、用一个256大小的数组统计每个亮度的点的数量。
C++实现方法:
unsigned long offset; offset = 0; for(y = 0; y < h; y ++) |
对1280×1024大小的图像,在QX6600(2.4GHz)上单线程运行时间为17.5ms。
CUDA实现的方法比较复杂。因为如果每个线程处理一个像素然后累加到统计数组中的话,多个线程同时累加一个地址会造成数据错误,需要用原子操作进行排队,大量的线程排队操作会造成计算单元空闲,无法发挥大部分的计算性能。因此从GPU内部架构考虑,最好的方法是分两步。第一步把整个图像分成很多个部分,每个部分用一个线程块(含很多个线程)独立统计,统计结果放在线程块共有的shared memory中(同样需要用原子操作,但是shared memory在GPU内部,速度很快,而且每个SM有独立的shared memory,因此这样操作并行度很高,能使计算单元满载运行);第二步则把各个部分独立统计的结果再累加起来得到总的统计结果。代码比较复杂:
__global__ void histKernel(unsigned char *in, unsigned long *out) smem[tid] = smem[tid + 128] = 0; __syncthreads(); // 每个线程块有THREAD_N(128)个线程,每个线程处理LOOP_N(64)个点,统计结果存储在每个线程块的smem[256]中 __syncthreads(); // 线程块统计计算完成后,汇总各线程块的统计结果 extern "C" float histCall(unsigned char *in, unsigned long *out, int w, int h) cudaMalloc((void **)&device_src, w * h * sizeof(unsigned long)); cudaMemset(device_dest, 0, 256 * sizeof(unsigned long)); unsigned int timer = 0; cudaMemcpy(device_src, in, w * h * sizeof(unsigned long), cudaMemcpyHostToDevice); cutStartTimer(timer); // 各线程块并行统计,每个线程块处理THREAD_N*LOOP_N个点,然后汇总累加至最终结果 cudaThreadSynchronize(); cutStopTimer(timer); cudaMemcpy(out, device_dest, 256 * sizeof(unsigned long), cudaMemcpyDeviceToHost); float ms = cutGetTimerValue(timer); cudaFree(device_dest); return ms; |
对1280×1024大小的图像,在Geforce GTX 285上计算时间为0.54ms,比QX6600上单线程提速约30倍。
使用CUDA编程时要合理利用GPU内部的shared memory以及熟悉其优化规则,以达到最高效率。