MESI M(수정),E(배타,유일,메인메모리동일),S(공유,2이상캐시),I(무효,다른캐시수정)
Read miss(I상태에서변경),Read Hit(읽기적중), Write Miss(Read with intend to
modify, I->M, E->M), Write Hit

 

 

 

 

토픽 이름 () MESI
분류 CA > Cache Memory> MESI
키워드(암기) Snoopy, 수정, 배타, 공유, 무효, Write-through, Write-back
암기법(해당경우)  

 

기출문제

번호 문제 회차
1 5. 캐시 일관성 유지를 위한 MESI 프로토콜 합숙_2020.01공통Day-5
2 4. Cache Memory 대하여 다음에 답하시오
. Cache Coherence 개념
. Write through Write Back 비교 설명
. 캐시 일관성 유지를 위한 MESI 프로토콜
모의_2019.03.관리.3
3 1. 캐쉬 일관성 유지 프로토콜 하나인 MESI 프로토콜에 대해 설명하고, 2 개의 프로세서가 1 개의 공유메모리를 공유하는 시스템에서 캐쉬 일관성 프로토콜로 MESI 프로토콜을 사용할 경우, 아래 , , 으로 표기된 상태전이가 각각 어떤 상황에서 발생하는지 프로세서, 캐쉬, 주기억장치를 도식화하여 설명하시오. 모의_16.11_응용_3
4 5. Cache 일관성(Coherency) 유지하는 MESI 프로토콜에 대해서 설명하시오. 모의_15.1_관리_1

 

I. Cache 일관성 유지 프로토콜, MESI 프로토콜의 개요

. MESI 프로토콜의 정의

- 멀티 프로세서 시스템에서 Cache 일관성 유지 위해 메모리가 가질 있는 가지의 상태 정의한 Cache 일관성 유지 프로토콜

. MESI 프로토콜의 특징

- 프로세서가 Cache 데이터 변경해도 주기억장치의 내용은 갱신되지 않음.

- 변경된 Cache 스누피 제어기가 변경 사실을 다른 스누피 제어기들에게 통보함.

 

II. MESI 프로토콜의 상태 전이도 및 설명

 . MESI 프로토콜의 상태 전이도


 


- 실선은 프로세스 동작에 의한 전이, 점선은 다른 캐시 변화에 따른 전이

 

. MESI 프로토콜 전이 상태와 전이 동작 설명

- 스누핑(Snooping): 주소 버스를 항상 감시하여 캐시 메모리에 대한 접근 여부 감시하는 구조. 다른 캐시에서 쓰기 발생 시 캐시 컨트롤러에 의해 자신의 캐시에 있는 복사본을 무효화시킴.

- Cache 일관성 유지 위한 MESI 프로토콜

Cache block 상태 의미
수정 (Modified) 캐시 내의 라인이 수정되었으며 (주기억장치와 상이), 라인은 캐시에만 있다.
배타 (Exclusive) 캐시 내의 라인은 주기억장치에 있는 것과 동일하며, 다른 캐시에는 존재하지 않는다.
공유 (Shared) 캐시 내의 라인은 주기억장치에 있는 것과 동일하며, 다른 캐시에도 있을 있다.
무효 (Invalid) 캐시 내의 라인은 유효한 데이터를 포함하고 있지 않다.

 

III. Write-through, Write-back 일관성 유지 프로토콜의 비교

Write-through 일관성 유지 프로토콜 Write-back 일관성 유지 프로토콜
- 프로세서가 캐시 데이터 수정 동시에 주기억 장치도 갱신
- 주기억장치에 대한 쓰기 동작의 주소가 자신의 캐시에 있는지 검사
- 검사해서 있으면 해당 블록 무효화
- 프로세서가 캐시 데이터를 수정해도 주기억장치 내용은 갱신되지 않음.
- 변경된 캐시의 스누피 제어기가 변경 사실을 다른 스누피 제어기들에게 통보
- 무효화 신호, 무효화 사이클 사용

“끝”

반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

주소 변환 기법  (0) 2023.11.15
가상 메모리  (0) 2023.11.14
집합연관사상  (1) 2023.11.12
연관사상(Associative Mapping)  (0) 2023.11.11
직접사상(Direct Mapping)  (0) 2023.11.10
집합연관사상
(Set Associative Mapping)
집합연관 사상, 세트-연관 사상(Set-Associative Mapping)
직접 사상 보다 캐쉬 적중률이 훨씬 향상
집합번호같음, 태그가 다른 2개 이상의 단어를 저장
000(태그) 'abcd'(데이터) 010(태그), 데이터 00(집합번호)
태세단

 

 

 

 

 

 

토픽 이름 () Set Associative (집합 연관사상)
분류 CA > Cache > Set Associative
키워드(암기) 직접매핑, 완전연관매핑, 세트연관매핑, LRU, LFU, FIFO, RR
성능 평가 요소(적중률, 접근시간)
암기법(해당경우) [태세단]

 

기출문제

번호 문제 회차
1 캐시(Cache) 메모리에서 주소 매핑(Mapping)방식과 교체 알고리즘1(Replacement algorithm)을 설명하시오. 114.응용 4.1
2 캐시메모리 사상기법 3가지에 대해서 설명하시오
1)직접사상기법(Direct Mapping)
2)연관사상기법(Associative Mapping)
3)집합연관사항기법(Set-Associative Mapping)
합숙.공통D3.2
3 캐시메모리 인출(Fetch), 사항(Mapping), 쓰기(Write), 교체(Replacement) 정책을 설명 하시오 모의.2015.07.4
4 캐시메모리 주소 사상(Mapping)방식에 대하여 설명, CPU 캐시 메모리에서 4Byte 크기 워드(Word) 사용하고 주기억장치(Main Memory) 크기가 16MByte이고 캐시 메모리(Cache Memory)크기가 64kByte 경우에 대해 주소 사상 방식을 도식화 설명 하시오 모의.2015.05.3
5 캐시메모리 사상(Mapping)기법 대해서 설명하시오 모의.2012.10.5.1
6 컴퓨터 가상메모리의 페이징 기법에서 가상메모리와 주기억장치가 3가지 주소 사상(Mapping) 기법을 상세히 설명하시오 모의.2010.10.4.1

 

. 직접 사상보다 캐쉬 적중률 향상, 집합 연관 사상 기법의 개요

. 집합 연관 사상 기법(Set Associative Memory) 개념

- 직접 사상과 연관 사상 방식을 조합한 방식으로 집합 번호는 같고 태그가 다른 두개 이상의 단어를 저장할 수 있는 구조를 갖는 사상 방식

- 하나의 주소 영역이 서로 다른 태그를 갖는 여러 개의 집합으로 이루어지는 방식(N-Way 집합연관사상)

. 집합 연관 사상 특징 및 장단점

특징 - 메모리 블록 그룹이 하나의 세트 공유
장점 - 직접 사상, 연관 사상 장점 조합
- 메모리 블록은 특정 세트 어느 곳이나 적재가능
단점 - 복잡성 : 동일한 집합 내의 태그번호로 검색 위한 복잡한 회로 필요

 

 

. 집합 연관 사상 기법 구성도 및 동작 방식

  . 집합 연관 사상 기법 구성도

- 결과적으로 집합의 위치를 선택하는 것은 직접 사상 방법 따르고, 집합 내의 슬롯을 선택하는 것은 연관 사상법

. 주소형식 동작 과정

주소
형식
메모리 주소 형식
  집합필드

- 태그, 데이터로 이루어진 주소 집합
동작
과정
세트 선택 메모리 주소 세트 비트 이용 하나 선택
  태그 비교 -> 캐시 적중 세트 내 태그와 비교, 일치 시 캐시 적중으로 CPU로 인출
  태그 비교 -> 캐시 미스 불일치 시 캐시 미스로 메모리 접근, 라인들 중 교체할 라인 결정하여 교체

 

반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

가상 메모리  (0) 2023.11.14
MESI  (1) 2023.11.13
연관사상(Associative Mapping)  (0) 2023.11.11
직접사상(Direct Mapping)  (0) 2023.11.10
Cache 일관성 유지방법  (0) 2023.11.09
연관사상(Associative Mapping) 연관사상기법
태그, 데이터, 슬롯 ---- 태그, 단어(모두 0비트), 데이터
 
토픽 이름 () Associative (연관사상)
분류 CA > Cache > Associative
키워드(암기) 직접매핑, 완전연관매핑, 세트연관매핑, LRU, LFU, FIFO, RR
성능 평가 요소(적중률, 접근시간)
암기법(해당경우) [태단]

 

기출문제

번호 문제 회차
1 캐시(Cache) 메모리에서 주소 매핑(Mapping)방식과 교체 알고리즘1(Replacement algorithm)을 설명하시오. 114.응용 4.1
2 캐시메모리 사상기법 3가지에 대해서 설명하시오
1)직접사상기법(Direct Mapping)
2)연관사상기법(Associative Mapping)
3)집합연관사항기법(Set-Associative Mapping)
합숙.공통D3.2
3 캐시메모리 인출(Fetch), 사항(Mapping), 쓰기(Write), 교체(Replacement) 정책을 설명 하시오 모의.2015.07.4
4 캐시메모리 주소 사상(Mapping)방식에 대하여 설명, CPU 캐시 메모리에서 4Byte 크기 워드(Word) 사용하고 주기억장치(Main Memory) 크기가 16MByte이고 캐시 메모리(Cache Memory)크기가 64kByte 경우에 대해 주소 사상 방식을 도식화 설명 모의.2015.05.3
5 캐시메모리 사상(Mapping)기법 대해서 설명하시오 모의.2012.10.5.1
6 컴퓨터 가상메모리의 페이징 기법에서 가상메모리와 주기억장치가 3가지 주소 사상(Mapping) 기법을 상세히 설명하시오 모의.2010.10.4.1

 

. 장치간의 속도 차이 극복을 위한 연관 사상 기법의 개요

. 연관 사상 기법(Associative Memory)개념

- 직접 사상 단점 보완한 것으로 주기억장치의 블록을 캐시기억장치의 어느 라인이든 적재할 있는 사상 기법

-연관 사상(Associative Mapping) or 완전 연관 사상(Fully Associative Mapping)

. 연관 사상 기법 특징 및 장단점

특징 효율성 : 메모리 블록 적재 시 캐시 라인이 정해지지 않음
장점 신규 적재 시 캐시 라인 선택 자유, 적중률 향상
단점 H/W 구조 복잡, 구현비용 고가

 

 

. 연관 사상 기법 구성도, 주소형식 및 동작절차

  . 연관 사상 기법 구성도

- 사상에서는 주기억장치의 주소 태그와 단어 데이터가 캐시기억장치에 저장되므로 캐시 단어의 크기는 주기억장치 주소태그 t 단어당 데이터 비트 수의

. 연관 사상 기법 주소형식 및 동작 과정

주소
형식
메모리주소 형식

태그 필드 태그 번호

단어 필드 각 블록 내 단어 중 하나 구분
동작
과정
태그 비교 -> 캐시 적중 메모리 블록은 캐시의 아무 블록 적재
태그 필드 내용 비교, 일치 시 전송

태그 비교 -> 캐시 미스 태그 값 불일치 시 캐시 미스 발생
메모리로부터 데이터 인출
반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

MESI  (1) 2023.11.13
집합연관사상  (1) 2023.11.12
직접사상(Direct Mapping)  (0) 2023.11.10
Cache 일관성 유지방법  (0) 2023.11.09
매니코어 프로세서  (0) 2023.11.08
직접사상(Direct Mapping) 주소, 태그, 데이터 ---- 주소, 데이터
[단점]
1) 각 주기억장치 블록이 적재될 수 있는 캐쉬 슬롯이 한 개뿐이기 때문에, 그 슬롯을 공유하는 다른 볼록이 적재되는 경우에는 swap-out 됨
2) 현재 실행중인 두 개의 프로그램인 같은 슬롯을 공유하는 경우에 캐쉬 슬롯에 대한 적중률이 떨어져 슬롯 교체가 빈번하게 발생 전체적인 캐쉬 성능이 저하
-> 완전 연관 사상(Full Associative mapping)
 
토픽 이름 () Direct Mapping(직접사상)
분류 CA > Cache > Direct Mapping(직접사상)
키워드(암기) 직접매핑, 완전연관매핑, 세트연관매핑, LRU, LFU, FIFO, RR
성능 평가 요소(적중률, 접근시간)
암기법(해당경우) [태라단]

 

기출문제

번호 문제 회차
1 캐시(Cache) 메모리에서 주소 매핑(Mapping)방식과 교체 알고리즘1(Replacement algorithm)을 설명하시오. 114.응용 4.1
2 캐시메모리 사상기법 3가지에 대해서 설명하시오
1)직접사상기법(Direct Mapping)
2)연관사상기법(Associative Mapping)
3)집합연관사항기법(Set-Associative Mapping)
합숙.공통D3.2
3 캐시메모리 인출(Fetch), 사항(Mapping), 쓰기(Write), 교체(Replacement) 정책을 설명 모의.2015.07.4
4 캐시메모리 주소 사상(Mapping)방식에 대하여 설명, CPU 캐시 메모리에서 4Byte 크기 워드(Word) 사용하고 주기억장치(Main Memory) 크기가 16MByte이고 캐시 메모리(Cache Memory)크기가 64kByte 경우에 대해 주소 사상 방식을 도식화 설명 모의.2015.05.3
5 캐시메모리 사상(Mapping)기법 대해서 설명하시오 모의.2012.10.5.1
6 컴퓨터 가상메모리의 페이징 기법에서 가상메모리와 주기억장치가 3가지 주소 사상(Mapping) 기법을 상세히 설명하시오 모의.2010.10.4.1

 

. 주기억장치 블록을 지정. 직접사상기법의 개요

  . 직접 사상 기법(Direct Mapping) 개념

- 주기억장치의 블록이 캐시 기억장치의 특정 라인에만 적재 될 수 있기 때문에 캐시의 적중 여부는 그 블록이 적재될 수 있는 라인만 검사하는 사상 기법

  . 직접 사상 기법 특징 장단점

특징 - 모듈로 연산 : 주기억 장치의 블록 j 적재될 있는 캐시 슬롯의 번호 i 모듈로 연산에 의해 결정
장점 - 단순 : 사상과정이 간단(교체 알고리즘 불필요)
- 저비용 : 작은 용량의 RAM 캐시 기억장치로 사용
단점 - 실패율 높음 (동일 라인에 적재되는 두 블록 반복접근시)

 

 

. 직접 사상 기법 구성도, 주소형식 동작절차

  . 직접 사상 기법 구성도

  . 직접 사상 기법 주소형식 동작 과정

주소
형식
메모리 주소 형식

태그 필드 태그 번호

라인 필드 캐시 라인 중 하나를 지정

단어 필드 각 블록 내 단어 중 하나 구분
동작과정 캐시라인 선택 캐시로 메모리 주소 전달 시 s 비트의 라인번호 기반 캐시 라인 선택

태그비교 -> 캐시적중 선택 라인의 태그 비트와 주소 비교
일치 시 단어 필드 라인 내 단어 인출

태그비교 -> 캐시미스 라인 적재 후 주소 태그를 라인에 기록
해당 라인에 다른 블록 존재 시 삭제

 

 

. 캐시 기억장치의 단점 설계 고려요소

. 캐시 기억장치의 단점

1) 주기억장치 블록이 적재될 있는 캐쉬 슬롯이 개뿐이기 때문에, 슬롯을 공유하는 다른 볼록이 적재되는 경우에는 swap-out

2) 현재 실행중인 개의 프로그램인 같은 슬롯을 공유하는 경우에 캐쉬 슬롯에 대한 적중률이 떨어져 슬롯 교체가 빈번하게 발생 전체적인 캐쉬 성능이 저하 -> 완전 연관 사상(Full Associative mapping)

. 캐시 기억장치의 설계시 고려요소

<이해 참고>

http://blog.skby.net/%EC%BA%90%EC%8B%9C-%EC%82%AC%EC%83%81mapping-%EA%B8%B0%EB%B2%95/

반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

집합연관사상  (1) 2023.11.12
연관사상(Associative Mapping)  (0) 2023.11.11
Cache 일관성 유지방법  (0) 2023.11.09
매니코어 프로세서  (0) 2023.11.08
GPGPU - CUDA  (0) 2023.11.07

 

Cache 일관성 유지방법/
일관성 유지(Coherence)
캐시이용 - 지역성, 시간적, 공간적, 순차적 지역성 성질
유지방법 3가지
1. 공유캐시기억장치 사용하는 방법(1개만 이용)
2. 공유변수를 캐시 저장하지 않음
3. 버스감시(Snooping) 시스템을 사용하는 방법
1) Snoopy Controller
2) 쓰기갱신(Write Update or Broadcast)
3) 쓰기무효(Write Invalid):
4. Directory에 저장하여 유지하는 방법
1) Full-map directory 방식
2) Limited Directory 방식
3) Chained Directory 방식
 
 
 

 

토픽 이름 () 캐시의 일관성(Cache Coherence) 유지방법
분류 CA > Cache > Cache 일관성 유지방법
키워드(암기) 즉시쓰기, 나중쓰기, sw방식, HW방식
암기법(해당경우) [버스갱무] [디풀리차]

 

기출문제

번호 문제 회차
1 1. 캐시일관성(Cache Coherence) 문제해결 방법 하드웨어적 기법에 대하여 설명하시오 모의_2018.07)_응용_1
2 5. Cache 일관성 유지방법을 설명하시오. 합숙_2019.043일차
3 11. 캐시일관성(Cache coherence) 문제해결 방법에 대해서 설명하시오. 합숙_2016.01_관리
4 캐쉬 메모리(Cache Memory) 데이터 일관성 문제(Data Coherency Problem) 해결을 위한 방법을 제시하고, 스누피 프로토콜에 동작방식에 대해 설명하시오. 합숙_2012.08_공통_1

 

  1. Cache Coherence 유지방법 개념
  • 공유 메모리 구조에서 각 CPU Local Cache 탐색한 경우 Local Cache 공유 메모리간 Data 불일치 문제를 방지하고, 일관성을 유지하는 기법

2. 캐시의 일관성(Cache Coherence) 유지방법

. 쓰기 정책 적용 방법

. SW HW 적용하는 방법

구분 해결방법 내용
소프트웨어적
기법
공유 cache 사용  

공유변수 cache 미사용  
하드웨어적
기법
버스감시 메커니즘 사용  

디렉토리 기반 일관성 유지 프로토콜  

- 멀티프로세서 시스템에서 사용되는 기초적인 캐시 일관성 프로토콜인 MESI 프로토콜 존재

 

3. 메모리가 가질 있는 캐시 상태 정의, MESI 프로토콜 적용 방법

 

 
반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

집합연관사상  (1) 2023.11.12
연관사상(Associative Mapping)  (0) 2023.11.11
직접사상(Direct Mapping)  (0) 2023.11.10
매니코어 프로세서  (0) 2023.11.08
GPGPU - CUDA  (0) 2023.11.07
매니코어 프로세서
(many core CPU(Central Processing Unit))
[정의] CPU에 수십개에서 수백개의 코어를 집적하여 극한의 병렬화 된 프로그램 실행을 목적으로 하는 프로세서
[기술요소]
프로세싱 ( 병렬 컴퓨팅, 캐시 일관성, 하드웨어 추상화 )
메모리 ( Messaing Passing, Scratchpad memory, 메모리 주소 분할 )
123회 컴시응 1교시 기출
토픽 이름 () 매니코어 프로세서(many core CPU(Central Processing Unit))
분류 CA > 컴퓨터 구조 > 매니코어 프로세서
키워드(암기) NUCA, NoC, Nano 집적기술, 3D die Stacking, DVFS
암기법(해당경우)  

 

기출문제

번호 문제 회차
1 5. 매니코어 프로세서(many core CPU(Central Processing Unit)) 123.컴시응.1

 

I. 극한의 병렬 처리 프로세서, 매니코어 프로세스(Many core CPU) 개요

정의 CPU 수십개에서 수백개의 코어를 집적하여 극한의 병렬화 된 프로그램 실행을 목적으로 하는 프로세서
특징 - 병렬처리, 다수 코어 집적, 캐시 일관성, 메모리 분할

- 병렬처리에 최적화 되어 있어 병렬 프로그램 이외엔 성능이 하락

 

II. 매니코어 프로세서의 개념도 기술요소 설명

. 매니코어 프로세서의 개념도

- 다수의 Core를 하나의 CPU 집적해 병렬처리를 극대화

 

. 매니코어 프로세서의 기술요소

구분 핵심 기술 설명
하드웨어
측면
NUCA(Non-Uniform Cache Architecture) - 코어블록과 지리적 근접 L2 Cache Bank 접근하도록 하여 Bandwidth 향상

3D die Stacking - SOC die 내부의 여러 지점에 Memory die 연결되는 via 제공하여 대여폭을 향상시키고 훨씬 많은 수의 연결을 지원

NoC(Network on Chip) - 프로세스 인터커넥션을 위한 라우터를 통한 고속의 네트워크를 구현

DVFS(Dynamic Voltage Frequency Scaling) - 프로세서의 전력 효율을 향상, 처리량 대비 가변적 전압과 주파수 적용
- 처리량이 많을 시는 전압과 주파수를 높이고, 처리량이 적을 시는 전압과 주파수를 낮추어 에너지 효율성 향상

Internal Memory Controller - 프로세서 내부에 메모리 컨트롤러를 내장하여 매니코어의 메모리 접근성을 향상

Nano 집적 기술 - 단일 프로세서 칩에 집적하기 위한 50nm 이하의 소자를 집적하는 기술, 현재 10nm 이하 소자 집적으로 기술 발전중
소프트웨어
측면
Massage Passing - 병렬 처리에서 정보 교환 시에 필요한 기본 기능들과 문법, 프로그래밍 API에 대한 표준 기술

Transaction Memory - 병렬 컴퓨팅에서 공유 메모리 접근을 제어하기 위한 동시성 제어 기법

SPMT(Serial Port Memory Technology) - 수행 확률이 높은 부분을 다른 core 통해 미리 수행하여 전체 성능을 향상시키는 기법

Token Based Coherence Protocol - cache coherence 위한 토큰 기반의 프로토콜

SW 지원 플랫폼 - OpenMP, OpenCL, CUDA 병렬 프로그램 지원 플랫폼

- 병렬 컴퓨팅에 최적화 다수의 코어를 사용해 연산처리에 매니코어 프로세서 활용 가능

 

III. 매니코어 프로세서와 멀티코어 프로세서의 비교

비교 매니코어 프로세서 멀티코어 프로세서
개념 - CPU 다수의 코어를 집적 - 다이에 다수의 CPU 집적
코어 - 동일한 코어 집적 - 다양한 기능의 코어를 집적
예시 - Intel Core i5 - Intel Xeon

“끝”

 

반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

집합연관사상  (1) 2023.11.12
연관사상(Associative Mapping)  (0) 2023.11.11
직접사상(Direct Mapping)  (0) 2023.11.10
Cache 일관성 유지방법  (0) 2023.11.09
GPGPU - CUDA  (0) 2023.11.07

 

GPGPU - CUDA [정의] GPU를 CPU가맡고있는응용프로그램들의계산에사용할수있도록활용하고자하는기법
[목적] 그래픽연산, 데이터병렬연산
[장점] 부동소수점연산빠름, 문맥교환속도빠름, 다수쓰레드사용
[단점] 흐름제어기능빈약,프로그래밍기법의제약, Core 당클럭이 CPU에비해느림
[플랫폼]
1. [CUDA-NVIDIA] 프로그램모델제공, 병렬처리, SM/SP 구성, 제한된호환성
2. [OpenCL-크로노스그룹] 이기종시스템지원, C,런타임API, 애플/AMD/IBM
3. [OpenACC-NVIDA] CUDA의추상화모델, 컴파일러지시문기반, 플랫폼독립
4. [C++ AMP-MS] Visual studio에추가된이기종지원, 람다표현, 병렬반복문
HAS(Heterogeneous System Architecture) 고려: OpenCL, OpenACC, C++ AMP
플랫폼독립성: OpenCL, OpenACC
 
토픽 이름 () GPGPU(General Purpose Graphic processing unit)
분류 CA > 컴퓨터 구조 > GPGPU
키워드(암기) PCI express bus, 연동부, SIMD 코어, 그래픽 메모리, 캐시 메모리
CUDA, OpenCL, C++ AMP, OpenACC, SM, SP
암기법(해당경우)  

 

기출문제

번호 문제 회차
1 12. CPU(Central Processing Unit)GPGPU(General-Purpose computing on Graphics Processing Units) 120.정보관리.1교시
2 GPGPU(General Purpose Graphics Processing Units) 111.정보관리.1교시
3 CPU GPU 비교 설명하고, 모바일 GPU 아키텍처와 GPGPU(General-Purpose GPU)기술에 대해 설명하시오 합숙_2014.07.응용.D5
4 5. 인공지능,빅데이터 4차 산업혁명으로 대변되는 새로운 기술의 발전이 대용량의 데이터를 효율적으로
처리하는 GPU 성장을 견인하고 있고 최근 국내에서 금융산업에서도 GPU기반의 아키텍처 도입되고 있다. 다음 아래의 질문에 대하여 설명하시오.
. GPU GPGPU 개념
. GPU CPU 차이점
모의_2018.05.응용.3교시
5 6. GPGPU 프로그래밍 모델 모의_2016.04.응용.1교시
6 3. GPGPU 개념을 설명하고, GPGPU기반 컴퓨팅 플랫폼의 종류를 2 이상 제시하시오. 모의_2015.11.관리.1교시
7 14. GPGPU기반 프로그래밍 모델의 종류에 대하여 설명하시오. 합숙_2019.01.응용

 

1. GPU 수행능력 확대, GPGPU(General Purpose Graphics Processing Units) 개요

. GPGPU(General Purpose Graphics Processing Units) 개념

- GPU(Graphics Processing Unit) 그래픽 연산 아니라 일반 컴퓨팅 영역에도 활용하는 것을

목적으로, 중앙처리장치(CPU)가 맡았던 응용 프로그램들의 계산에 GPU 사용하는 기술

. GPGPU(General Purpose Graphics Processing Units) 등장배경 주요특징

구분 내용 내용 상세 설명
등장
배경
기계학습 성장 - 기계학습기반 딥러닝 폭발적 성장 기인

빅데이터 처리 - 단순비정형 고성능 아니어도 GPU 처리 충분
주요
특징
초병렬 SIMD/SIMT구조 - Control, Cache 부분 간소화한 코어집적/병렬처리

플랫폼 지원 - CUDA, OpenCL GPGPU 플랫폼기반 구현 가능

-  초병렬 SIMD 처리에 의한 강력한 연산능력으로 딥러닝, 인공지능, 빅데이터 처리에 활용확대

 

2. GPGPU(General Purpose Graphics Processing Units) 구성도/구성요소 플랫폼/비교

. GPGPU(General Purpose Graphics Processing Units) 구성도 구성요소

구분 상세 설명
구성도

구성
요소
PCI express bus
연동부
- CPU 통신하거나 CPU 메모리 접근위한 버스
  (PCI Controller, Host Memory, CPU 연동)

SIMD 코어 - 병렬 연산 처리를 위한 스레드 프로세서들 집합

그래픽 메모리 - GPU에서 사용하는 고속의 메모리
 (DDR Memory Controller, DDR5 Memory Module)

캐시 메모리 - 코어 /외부 공유메모리와 메모리와의 정합수행

- AMD HD5870 GPUSIMD코어와 그래픽 메모리, 캐시 컨트롤러 등으로 구성

 

. GPGPU(General Purpose Graphics Processing Units) 플랫폼 비교

구분 플랫폼 유형 플랫폼 설명 관련社
GPGPU
플랫폼
CUDA - 프로그램 모델 제공 병렬처리
- CUDA Runtime APIDriver API 구성
- 제한된 호환성(Geforce8급 이상지원)
* Compute Unified Device Architecture
NVIDIA

OpenCL - Heterogeneous 이기종 시스템 지원
- C, 런타임, API로 구성
- 애플최초개발, AMD, IBM 공동참여
* Open Computing Language
크로노스그룹
(Khronous Group)

C++ AMP - Visual Studio 추가된 이기종 지원
- 람다(Lamda)표현과 병렬반복문 결합
- VS 2012, Windows 8, DirectX 11이상
* C++ Accelerated Massive Parallelism
마이크로
소프트

OpenACC - CUDA 추상화시킨 프로그래밍 모델
- 컴파일러 지시문(Directive)기반
- 플랫폼 독립, Cross-Platform, C/포트란
* for Open Accelerators
NVIDIA
GPGPU
플랫폼
비교








- 제어측면 : HAS(Heterogeneous System Architecture) 고려한 3가지 이용
            à OpenCl, OpenACC, C++ AMP
- 플랫폼 종속성 : 플랫폼 독립적인 2가지기반 구현
à OpenCL, OpenACC


- 기술 사용목적 난이도 고려한 플랫폼 선택 중요하며, CPUGPU 연계 기술 활용 가능

 

3. GPGPU 효율을 위한 CPUGPU 연계, HAS(Heterogeneous System Architecture)

구분 세부 설명
HSA
개념
- CPUGPU 하나의 연산체로 간주하는 추상계층을 생성하여 GPU 연산
보조용으로 사용하는 이기종 아키텍쳐 (Heterogeneous System Architecture)
GPGPU
활용





- 로보어드바이저, 핵심시스템융합관제 GPGPU 기반 구축시 HAS 연계로 효율성 도모 “끝”

 

[참고] CUDA

I. CUDA 개념

개념 -그래픽 처리 장치(GPU)에서 수행하는 병렬 처리) 알고리즘을 C 프로그래밍 언어를 비롯한 산업 표준 언어를 사용하여 작성할 수 있도록 하는GPGPU 기술
특징 G8X GPU 구성된 지포스 8 시리즈급 이상에서 동작한다. CUDA CUDA GPU 안의 명령셋과 대용량 병렬 처리 메모리를 접근할 수 있도록 해 준다.
목적 GPU 이용함으로써 커다란 성능 향상을 기대

 

2. CUDA 데이터 처리 절차

. CUDA 데이터 처리 흐름도

- GPU Memory 에서 동시 병렬 처리를 통한 연산 속도 향상

. CUDA 데이터 처리 설명

순서 설명 영역
1   PC -> GPU
2   CPU 에서 명령
3   GPU 에서 처리
4   GPU -> Main Memory

 

III. CUDA SM(Stream Multiprocessor)& SP 개념

 . CUDASP(Streaminng Processor) 설명

  

 

. CUDA 프로그래밍 함수 예시

 

 

 

[참고]

 

반응형

'정보관리기술사 > CA_OS' 카테고리의 다른 글

집합연관사상  (1) 2023.11.12
연관사상(Associative Mapping)  (0) 2023.11.11
직접사상(Direct Mapping)  (0) 2023.11.10
Cache 일관성 유지방법  (0) 2023.11.09
매니코어 프로세서  (0) 2023.11.08

+ Recent posts