CS/Operating System
[Operating System] 메모리(Memory)
hanseongbugi
2024. 4. 21. 17:12
메인 메모리(Main Memory)
- 메인 메모리는 CPU가 직접 접근할 수 있는 기억 장치
- 프로세스가 실행되기 위해선 프로그램이 메모리에 적재되야함
- 주소가 할당된 일련의 바이트로 구성되어 있음
- CPU는 레지스터가 지시하는대로 메모리에 접근하여 다음에 수행할 명령어를 가져옴
- 명령어 수행 시 메모리에 필요한 데이터가 없으면 해당 데이터를 우선 가져와야 함
- 이 역할을 하는 것이 바로 MMU이다.
MMU(Memory Management Unit, 메모리 관리 장치)
- 논리 주소를 물리 주소로 변환해 준다.
- 메모리 보호나 캐시 관리 등 CPU가 메모리에 접근하는 것을 총 관리해 주는 하드웨어임
- 메모리의 공간이 한정적이기 때문에, 사용자에게 더 많은 메모리를 제공하기 위해 '가상 주소'라는 개념이 등장
- 가상 주소는 프로그램 상에서 사용자가 보는 주소 공간이라고 보면 된다.
- 가상 주소에서 실제 데이터가 담겨 있는 곳에 접근하기 위해선 빠른 주소 변경이 필요
- 이를 MMU가 도와줌
- MMU의 역할
- MMU가 지원되지 않으면, 물리 주소를 직접 접근해야하는 부담이 생긴다.
- MMU는 사용자가 기억 장소를 일일이 할당해야하는 불편을 없애준다.
- 프로세스의 크기가 실제 메모리의 용량을 초과해도 실행될 수 있게 해준다.
- 메인 메모리의 직접 접근은 비효율적이므로, CPU와 메인 메모리의 속도를 맞추기 위해 캐쉬가 존재함
MMU의 메모리 보호
- 프로세스는 독립적인 메모리 공간을 가져야 되고, 자신의 공간에 접근해야 함
- 한 프로세스에게 합법적인 주소 영역을 설정하고, 잘못된 접근이 오면 trap을 발생시키며 보호함
- base와 limit 레지스터를 이용한 메모리 보호 기법
- base 레지스터는 메모리 상의 프로세스 시작 주소를 물리 주소로 저장
- limit 레지스터는 프로세스의 사이즈를 저장
- 프로세스의 합법적인 메모리 영역
- 합법적인 메모리 영역을 X로 가정
- base <= X <= base + limit
- 합법적인 메모리 영역의 밖에서 접근을 요구하면 trap을 발생시킨다.
- 안정성을 위해 base와 limit 레지스터는 커널 영역에만 수정되도록 설계
- 사용자 모드에서는 직접 변경할 수 없음
메모리 과할당(over allocating)
- 실제 메모리의 사이즈보다 더 큰 메모리를 프로세스에 할당한 상황
- 페이지 기법과 같은 메모리 관리 기법은 사용자가 눈치채지 못하도록 눈속임을 통해 메모리를 할당해줌
- 가상 메모리를 이용
- 과할당 상황 발생 시 사용자를 속인 것을 들킬만할 상황이 존재함
- 프로세스 실행 도중 페이지 폴트 발생
- 페이지 폴트를 발생시킨 페이지 위치를 디스크에서 찾음
- 메모리의 빈 프레임에 페이지를 올려야하는데, 모든 메모리가 사용 중이라 빈 프레임이 없음
- 과할당을 해결하기 위해선 빈 프레임을 확보할 수 있어야 함
- 메모리에 올라와있는 한 프로세스를 종료시켜 빈 프레임을 얻음
- 프로세스 하나를 swap out하고, 이 공간을 빈 프레임으로 이용
- swapping 기법을 통해 공간을 바꿔치기하는 2번 방법과는 달리 1번은 사용자에게 페이징 시스템을 들킬 가능성이 매우 높아서 하면 안 됨
- 페이징 기법은 사용자 모르게 시스템 능률을 높이기 위해 선택한 일이므로 들키지 않게 처리해야 한다
페이지 교체
- 메모리 과할당이 발생하였을 때, 프로세스 하나를 swap out해서 빈 프레임을 확보하는 것
- 과정
- 프로세스 실행 도중 페이지 폴트 발생
- 페이지 폴트를 발생시킨 페이지 위치를 디스크에서 찾음
- 메모리에 빈 프레임이 있는지 확인
- 빈 프레임이 있으면 해당 프레임을 사용
- 빈 프레임이 없다면 victim 프레임을 선정해 디스크에 기록하고 페이지 테이블을 갱신
- 빈 프레임에 페이지 폴트를 발생시킨 페이지를 올리고, 페이지 테이블을 갱신
- 페이지 교체가 이루어지면 아무 일이 없던 것 처럼 프로세스를 계속 수행시켜주면서 사용자가 알지 못하도록 해야 함
- 이때, 아무 일도 일어나지 않은 것처럼 하려면, 페이지 교체 당시 오버헤드를 최대한 줄여야 함
페이지 교체 오버헤드를 감소시키는 해결책
- 빈 프레임이 없는 상황에서 victim 프레임을 비울 때와 원하는 페이지를 프레임으로 올릴 때 두 번의 디스크 접근이 이루어짐
- 페이지 교체가 많이 이루어지면, 입출력 연산이 많이 발생하게 되면서 오버헤드 문제가 발생
방법 1
- 변경비트를 모든 페이지마다 둬서, victim 페이지가 정해지면 해당 페이지의 비트를 확인
- 해당 비트가 set 상태인 경우
- 해당 페이지 내용이 디스크 상의 페이지 내용과 달라졌다는 것
- 즉, 페이지가 메모리 올라온 이후 한 번이라도 수정이 일어났던 것
- 따라서 디스크에 기록해야 함
- bit가 clear 상태안 경우
- 디스크 상의 페이지 내용과 메모리 상의 페이지가 정확히 일치하는 상황
- 즉, 디스크와 내용이 같아서 기록할 필요가 없음
- 비트를 활용해 디스크에 기록하는 횟수를 줄이면서 오버헤드에 대한 수를 최대 절반으로 감소시키는 방법
방법 2
- 페이지 교체 알고리즘을 상황에 따라 잘 선택해야 함
- 현재 상황에서 페이지 폴트를 발생할 확률을 최대한 줄여줄 수 있는 교체 알고리즘을 사용
- FIFO
- OPT
- LRU
캐시 메모리
- 주 기억 장치에 저장된 내용의 일부를 임시로 저장해두는 기억 장치
- CPU와 주 기억 장치의 속도 차이로 성능 저하를 방지하기 위한 방법
- CPU가 이미 봤던걸 다시 재접근할 때, 메모리 참조 및 인출 과정에 대한 비용을 줄이기 위해 캐시에 저장해둔 데이터를 활용
- 캐시는 플리플롭 소자로 구성되어 SRAM으로 되어있음
- DRAM보다 빠른 장점을 지님
CPU와 기억장치의 상호 작용
- CPU에서 주소를 전달 -> 캐시 기억 장치에 명령이 존재하는지 확인
- 캐시에 명령이 존재하는 경우
- Cache Hit
- 해당 명령어를 CPU로 전송 → 완료
- 캐시에 명령이 존재하지 않는 경우
- Cache Miss
- 명령어를 갖고 주기억장치로 접근 → 해당 명령어를 가진 데이터 인출 → 해당 명령어 데이터를 캐시에 저장 → 해당 명령어를 CPU로 전송 → 완료
- 캐시를 잘 활용한다면 비용을 많이 줄일 수 있음
- CPU가 어떤 데이터를 원할지 어느 정도 예측할 수 있어야 함
- 캐시에 많이 활용되는 쓸모 있는 정보가 들어있어야 성능이 높아짐
- 적중률을 극대화시키기 위해 사용되는 것이 지역성의 원리
지역성
- 기억 장치 내의 정보를 균일하게 액세스 하는 것이 아니라 한 순간에 특정 부분을 집중적으로 참조하는 특성
- 지역성의 종류는 시간과 공간으로 나뉨
- 시간 지역성 : 최근에 참조된 주소의 내용은 곧 다음에도 참조되는 특성
- 공간 지역성 : 실제 프로그램이 참조된 주소와 인접한 주소의 내용이 다시 참조되는 특성
캐싱 라인
- 빈번하게 사용되는 데이터들을 캐시에 저장했더라도, 내가 필요한 데이터를 캐시에서 찾을 때 모든 데이터를 순회하는 것은 시간 낭비
- 캐시에 목적 데이터가 저장되어 있을 때 바로 접근하여 출력할 수 있어야 캐시 활용이 의미 있어짐
- 캐시에 데이터를 저장할 시, 자료구조를 활용해 묶어서 저장하는데 이를 캐싱 라인이라고 부른다.
- 캐시에 저장하는 데이터에 데이터의 메모리 주소를 함께 저장하면서 빠르게 원하는 정보를 찾을 수 있음
- set이나 map 등을 활용
출처
https://github.com/gyoogle/tech-interview-for-developer