C++ SIMD | "벡터 연산" 가이드

C++ SIMD | "벡터 연산" 가이드

이 글의 핵심

C++ SIMD에 대한 실전 가이드입니다. 개념부터 실무 활용까지 예제와 함께 상세히 설명합니다.

SIMD란?

Single Instruction Multiple Data

// 일반 연산
for (int i = 0; i < 4; ++i) {
    c[i] = a[i] + b[i];
}

// SIMD: 한 번에 4개 처리
// c = a + b (벡터 연산)

자동 벡터화

// 컴파일러 자동 벡터화
void add(float* a, float* b, float* c, int n) {
    for (int i = 0; i < n; ++i) {
        c[i] = a[i] + b[i];
    }
}

// -O3 -march=native 플래그

실전 예시

예시 1: 인트린식 (SSE)

#include <immintrin.h>

void addSSE(float* a, float* b, float* c, int n) {
    for (int i = 0; i < n; i += 4) {
        // 4개 float 로드
        __m128 va = _mm_loadu_ps(&a[i]);
        __m128 vb = _mm_loadu_ps(&b[i]);
        
        // 벡터 덧셈
        __m128 vc = _mm_add_ps(va, vb);
        
        // 저장
        _mm_storeu_ps(&c[i], vc);
    }
}

예시 2: AVX

#include <immintrin.h>

void addAVX(float* a, float* b, float* c, int n) {
    for (int i = 0; i < n; i += 8) {
        // 8개 float 로드
        __m256 va = _mm256_loadu_ps(&a[i]);
        __m256 vb = _mm256_loadu_ps(&b[i]);
        
        // 벡터 덧셈
        __m256 vc = _mm256_add_ps(va, vb);
        
        // 저장
        _mm256_storeu_ps(&c[i], vc);
    }
}

예시 3: 벡터화 힌트

// 컴파일러 힌트
void process(float* data, int n) {
    #pragma omp simd
    for (int i = 0; i < n; ++i) {
        data[i] = std::sqrt(data[i]);
    }
}

// 또는
void process2(float* data, int n) {
    #pragma GCC ivdep
    for (int i = 0; i < n; ++i) {
        data[i] = std::sqrt(data[i]);
    }
}

예시 4: 정렬

// 정렬된 데이터
alignas(32) float a[8] = {1, 2, 3, 4, 5, 6, 7, 8};
alignas(32) float b[8] = {8, 7, 6, 5, 4, 3, 2, 1};
alignas(32) float c[8];

// AVX 정렬 로드
__m256 va = _mm256_load_ps(a);  // 정렬 필요
__m256 vb = _mm256_load_ps(b);
__m256 vc = _mm256_add_ps(va, vb);
_mm256_store_ps(c, vc);

SIMD 연산

// SSE (128비트, 4개 float)
__m128 _mm_add_ps(a, b)      // 덧셈
__m128 _mm_sub_ps(a, b)      // 뺄셈
__m128 _mm_mul_ps(a, b)      // 곱셈
__m128 _mm_div_ps(a, b)      // 나눗셈

// AVX (256비트, 8개 float)
__m256 _mm256_add_ps(a, b)
__m256 _mm256_sub_ps(a, b)
__m256 _mm256_mul_ps(a, b)
__m256 _mm256_div_ps(a, b)

// AVX-512 (512비트, 16개 float)
__m512 _mm512_add_ps(a, b)

자주 발생하는 문제

문제 1: 정렬

// ❌ 비정렬 데이터
float a[8] = {1, 2, 3, 4, 5, 6, 7, 8};
__m256 va = _mm256_load_ps(a);  // 세그폴트 가능

// ✅ 정렬
alignas(32) float a[8] = {1, 2, 3, 4, 5, 6, 7, 8};
__m256 va = _mm256_load_ps(a);

// ✅ 비정렬 로드
float b[8] = {1, 2, 3, 4, 5, 6, 7, 8};
__m256 vb = _mm256_loadu_ps(b);

문제 2: 나머지

void addSIMD(float* a, float* b, float* c, int n) {
    int i = 0;
    
    // SIMD (8개씩)
    for (; i + 8 <= n; i += 8) {
        __m256 va = _mm256_loadu_ps(&a[i]);
        __m256 vb = _mm256_loadu_ps(&b[i]);
        __m256 vc = _mm256_add_ps(va, vb);
        _mm256_storeu_ps(&c[i], vc);
    }
    
    // 나머지 (스칼라)
    for (; i < n; ++i) {
        c[i] = a[i] + b[i];
    }
}

문제 3: 의존성

// ❌ 의존성 있음 (벡터화 불가)
for (int i = 1; i < n; ++i) {
    a[i] = a[i-1] + b[i];  // a[i-1] 의존
}

// ✅ 독립적 (벡터화 가능)
for (int i = 0; i < n; ++i) {
    c[i] = a[i] + b[i];
}

문제 4: 플랫폼

// SIMD는 플랫폼 의존
// - x86: SSE, AVX, AVX-512
// - ARM: NEON
// - 컴파일 플래그: -msse4.2, -mavx2

#ifdef __AVX2__
    // AVX2 코드
#elif defined(__SSE4_2__)
    // SSE4.2 코드
#else
    // 스칼라 코드
#endif

벡터화 조건

// 벡터화 가능:
// 1. 독립적 반복
// 2. 연속 메모리
// 3. 단순 연산

// 벡터화 불가:
// 1. 의존성
// 2. 분기
// 3. 함수 호출

FAQ

Q1: SIMD는?

A: 벡터 연산. 병렬 처리.

Q2: 종류?

A: SSE, AVX, AVX-512, NEON.

Q3: 자동 벡터화?

A: 컴파일러 최적화. -O3.

Q4: 인트린식?

A: 명시적 SIMD. 플랫폼 의존.

Q5: 성능?

A: 2~8배 향상 가능.

Q6: 학습 리소스는?

A:

  • “Optimized C++”
  • “Intel Intrinsics Guide”
  • cppreference.com

같이 보면 좋은 글 (내부 링크)

이 주제와 연결되는 다른 글입니다.

  • C++ SIMD와 병렬화: std::execution과 인트린직 가이드
  • C++ Cache Optimization | “캐시 최적화” 가이드
  • C++ Parallel Algorithms | “병렬 알고리즘” 가이드

관련 글

  • C++ SIMD와 병렬화: std::execution과 인트린직 가이드
  • C++ SIMD 최적화 실전 | SSE·AVX2·NEON 인트린직으로 4배 빠르게 [#51-2]
  • C++ Algorithm Sort |
  • C++ Benchmarking |
  • C++ Cache Optimization |