3.1 운영체제와 컴퓨터
하드웨어와 소프트웨어(유저 프로그램)을 관리하는 일꾼인 운영체제와 CPU, 메모리등으로 이루어진 컴퓨터를 알아보자.
3.1.1 운영체제의 역할과 구조
운영체제의 역할
- CPU 스케줄링과 프로세스 관리: CPU 소유권을 어떤 프로세스에 할당할지, 프로세스의 생성과 삭제 자원 할당 및 반환을 관리한다.
- 메모리 관리: 한정된 메모리를 프로세스에 얼만큼 할당해야하는지 관리
- 디스크 파일 관리: 디스크 파일을 어떤 방법으로 보관할지 관리
- I/O 디바이스 관리: 마우스, 키보드와 컴퓨터 간에 데이터를 주고받는것을 관리
운영체제의 구조
맨 위에 유저프로그램이 있고 그 다음으로 GUI, 시스템콜, 커널, 드라이버가 있고, 그 밑에 하드웨어가 있는 구조임
- 운영체제: GUI, 시스템콜, 커널, 드라이버부분이 운영체제를 지칭함
- GUI: 사용자가 전자장치와 상호 작용할 수 있도록 하는 사용자 인터페이스
- 드라이버: 하드웨어를 제어하기 위한 소프트웨어
- CUI: 그래픽이 아닌 명령어로 처리하는 인터페이스
시스템콜
운영체제가 커널에 접근하기 위한 인터페이스
유저 프로그램이 운영체제의 서비스를 받기 위해 커널 함수를 호출할 때 사용한다
유저 프로그램이 I/O 요청으로 트랩(trap)을 발동한다. 올바른 I/O 요청인지 확인 한 후 유저 모드가 시스템 콜을 통해 커널 모드로 변한되어 실행된다.
예) I/O 요청인 fs.readFile()이라는 파일 시스템의 파일을 읽는 함수가 발동했을때
유저 모드에서 파일을 읽지 않고 커널 모드로 들어가 파일을 읽고
다시 유저 모드로 돌아가 그 뒤에 있는 유저 프로그램의 로직을 수행한다.
컴퓨터 자원에 대한 직접 접근을 차단할 수 있고 프로그램을 다른 프로그램으로부터 보호할 수 있음
- 유저 모드: 일반 프로그램( 예: 자바스크립트 코드나 워드프로세서)이 실행되는 안전한 공간
- 커널 모드: 운영체제(OS)가 실행되는 공간. 하드웨어와 직접 통신 가능
- 커널: 운영체제의 핵심 부분이자 시스템 콜 인터페이스를 제공. 운영체제의 중추적인 역할을 함
- I/O 요청: 입출력 함수, 데이터베이스, 네트워크, 파일 접근 등에 관한 일
왜 나눠놨냐면
파일 읽기, 메모리 접근, 하드웨어 조작 같은 건 위험한 행동임
이런걸 아무 프로그램이나 마음대로 하게 되면 컴퓨터가 망가질 수 있고 해커가 악요할 수도 있다.
그래서 일반 프로그램은 직접 하드웨어나 파일 시스템에 접근 못하게 막아놓고
필요할 때만 시스템 콜을 통해 커널에게 요청하도록 만든것
fs.readFile('example.txt', (err, data) => {
console.log(data);
});
- js 코드는 유저 모드에서 실행된다
- 파일 시스템 접근은 커널 모드에서만 가능함
- 그래서 fs.readFile()은 시스템 콜을 사용해 커널에게 파일읽어줘 라고 요청함
- 운영체제(커널)은 커널 모드로 들어가서 example.txt 파일을 읽음
- 파일을 다 읽으면 다시 유저 모드로 돌아와서 콜백함수를 실행함(console.log(data)부분
그림처럼 프로세스나 스레드에서 운영체제로 어떠한 요청을 할 때 시스템콜이라는 인터페이스와 커널을 거쳐 운영체제에 전달된다.
시스템콜은 하나의 추상화 계층이다. 이를 통해 네트워크 통신이나 데이터베이스와 같은 낮은 단계의 영역 처리에 대한 부분을 많이 신경쓰지 않고 프로그램을 구현할 수 잇는 장점이 있음
아 근데 시스템 콜 인터페이스가 무엇.인가요
- 시스템 콜 인터페이스(System Call Interface, SCI): 유저 프로그램이 커널 기능(예: 파일 열기, 읽기, 네트워크 등)을 안전하게 요청할 수 있게 해주는 통로
[유저 프로그램]
|
| ← 시스템 콜 호출 (예: read(), write(), open())
v
[시스템 콜 인터페이스]
|
| ← 커널 내부 함수 호출
v
[운영체제 커널]
- 프로그램(유저모드)은 read()라는 라이브러리 함수를 호출
- 그 함수는 내부적으로 시스템 콜 인터페이스를 통해 커널에 요청
- 시스템 콜 인터페이스를 요청 받아 적절한 커널 내부 코드로 전달
- 커널 작업을 하고 다시 인터페이스를 통해 유저 프로그램에 넘겨준다
유저 프로그램 = 손님
시스템 콜 인터페이스 = 주문받는 직원
커널 = 주방
손님은 주방에 못들어감. 대신 직원(시스템 콜 인터페이스)에게 짜장 주쇼.라고 말하면 직원이 주방에 전달해서 음식을 받아 손님한테 주는 너낌.
왜. 이럿게 하는가.
- 직접 커널 호출은 위험함 -> 인터페이스가 중간에서 안전하게 걸러줌
- 유저와 커널 구조 분리를 유지함
- 하드웨어/커널 구조가 바뀌어도 인터페이스만 유지하면 유저 프로그램 수정할 필요가 없다.
헋,, 그럼 시스템콜이랑 시스템콜 인터페이스 다른건가?
그렇다.
시스템콜은 무언가 해달라고 요청하는 것이고 시스템 콜 인터페이스는 그 요청을 운영체제에 전달하는 문같은것임
항목 | 시스템 콜 | 시스템 콜 인터페이스 |
정의 | 유저 프로그램이 커널 기능을 요청하는 행위/기능 자체 | 유저 프로그램이 커널에 요청을 보내는 통로/매개체 |
역할 | 파일 읽기,쓰기, 메모리 할당, 프로세스 생성같은 작업을 요청한다. | 커널로 들어가는 정해진 입구 역할을 한다 |
형태 | 함수처럼 보임 (예: read(), write()) | 커널에 정의된 진입점 모음 |
관계 | 시스템 콜은 인터페이스를 통해서만 작동한다 | 시스템 콜을 받아서 내부 처리로 연결 시켜줌 |
개발자가 보는 것 | 보통 라이브러리 함수를 통해 호출 (예: libc의 read()) |
일반적으로 직접 보지않는다 os 내부에 있음 |
modebit
시스템 콜이 작동될때 modebit을 참고해서 유저모드와 커널 모드를 구분한다.
- modebit: 1또는 0의 값을 가지는 플래그 변수
예) 카메라를 켜는 프로그램이 있다고 했을 때 유저모드를 기반으로 카메라가 켜진다면 사용자가 의도하지 않아도
공격자가 카메라를 갑자기 켤 수 있는 등 나쁜짓하기 쉬움
커널 모드를 사용한다해서 100퍼센트 막을 수는 없지만 운영체제를 통해서 작동해야 막기가 쉬움.
이를 위한게 modebit임
0은 커널모드
1은 유저 모드임
- 유저ㅡ로그램이 카메라를 이용하려고 할 때 시스템콜을 호출
- modebit을 1에서 0으로 바꾸며 커널모드로 변경
- 카메라 자원을 이용한 로직 수행
- 이후 modebit을 0에서 1로 바꿔 유저 모드로 변경 이후 로직 수행
3.1.2 컴퓨터의 요소
CPU(Central Processing Unit)
산술논리연산장치, 제어장치, 레지스터로 구성되어 있는 컴퓨터 장치를 말한다.
인터럽트에 의해 단순히 메모리에 존재하는 명령어를 해석해서 실행하는 일꾼이다.
제어장치(CU, Control Unit)
프로세스 조작을 지시하는 CPU의 한 부품.
입출력장치 간 통신을 제어하고 명령어들을 읽고 해석하며 데이터 처리를 위한 순서를 결정함
레지스터
CPU안에 있는 매우 빠른 임시기억장치
CPU와 직접 연결되어 있어 연산 속도가 메모리보다 수십 배에서 수백 배까지 빠르다.
CPU는 자체적으로 데이터를 저장할 방법이 없어 레지스터를 거쳐 데이터를 전달한다.
산술논리연산장치(ALU Arithmetic Logic Unit)
덧셈,뺄셈 같은 두 숫자의 산술연산과 배타적 논리합, 논리곱 같은 논리 연산을 계산하는 디지털 회로
CPU의 연산 처리
- 제어장치가 메모리에 계산할 값을 로드한다 또한 레지스터에도 로드함
- 제어장치가 레지스터에 있는 값을 계산하고 산술논리연산장치에 명령한다
- 제어장치가 계산된 값을 다시 레지스터에서 메모리로 계산한 값을 저장
인터럽트
어떤 신호가 들어왔을 때 CPU를 잠깐 정지시키는 것을 말한다.
키보드, 마우스등 IO 디바이스로 인한 인터럽트, 0으로 숫자를 나누는 산술 연산에서의 인터럽트, 프로세스 오류 등으로 발생한다.
인터럽트가 발생 -> 인터럽트 핸들러 함수가 모여 있는 인터럽트 백터로 가서 인터럽트 핸들러 함수 실행 -> 인터럽트 간에는 우선순위가 있고 우선순위에 따라 실행됨
하드웨어 인터럽트, 소프트웨어 인터럽트 두가지로 나뉜다.
- 인터럽트 핸들러 함수: 인터럽트 발생했을 떄 이를 핸들링하기 위한 함수. 커널 배누의 IRQ를 통해 호출되며 request_irq()를 통해 인터럽트 핸들러 함수를 등록할 수 있다.
구분 | 하드웨어 인터럽트 | 소프트웨어 인터럽트 |
누가 발생 시킴? | 하드웨어 장치(예: 키보드, 디스크, 마우스 등) | 프로그램(소프트웨어)가 고의로 발생 시킴 |
언제 발생 | 외부에서 이벤트가 발생할 때 | 프로그램이 커널 기능을 요청할 때 |
예시 | -키보드 눌림 -디스크 읽기 완료 -타이머 알람 |
-시스템 콜 -예외 발생(0으로 나누기 등) |
목적 | 외부 이벤트에 CPU를 반응시키기 위해 | 커널 기능 호출하거나 예외 처리 위해 |
CPU 입장 | 밖에 뭐가 생겻구먼 | 내부적으로 뭔 요청이 왔구먼 |
하드웨어 인터럽트
IO 디바이스에서 발생하는 인터럽트
인터럽트 라인이 설계된 이후 순차적인 인터럽트 실행을 중지하고 운영체제에 시스템 콜을 요청해서 우너하는 디바이스로 향해 디바이스에 있는 작은 로컬 버퍼에 접근하여 일을 수행
- 키보드 누름 -> 키보드가 인터럽트 신호 보냄
- CPU는 원래 한던 걸 잠깐 멈추고 , 키보드 이벤트 처리 루틴 실행
- 외부에서 오는 신호다.
소프트웨어 인터럽트 (trap)
프로그램 내부에서 발생하는 인터럽트로, 보통 시스템 콜 호출이나 예외(오류) 처리 시 발생한다.
예를 들어, 프로그램이 read()나 write() 같은 시스템 콜을 호출하면, 내부적으로 int 0x80 같은 명령어를 통해 커널에 요청을 보낸다.
또한 0으로 나누기, 잘못된 메모리 접근 같은 오류도 트랩을 발생시켜 커널이 개입하도록 한다.
→ 즉, 트랩은 프로그램이 커널의 도움을 필요로 할 때 소프트웨어적으로 발생시키는 인터럽트이다.
DMA 컨트롤러
I/O 디바이스가 메모리에 직접 접근할 수 있도록 하는 하드웨어 장치
CPU 부하를 막아주며 CPU의 일을 부담하는 보조 일꾼임
하나의 작업을 CPU와 DMA 컨트롤러가 동시하는 것을 방지함
메모리(memory)
전자회로에서 데이터나, 상태, 명령어 등을 기록하는 장치를 말한다.
보통 RAM(Random Access Memory)을 일컬어 메모리라고 함
CPU는 계산 담당 메모리는 기억을 담당
메모리가 크면 클수록 많은 일을 동시에 할 수 있다.
타이머
몇 초 안에는 작업이 끝나야 한다는 것을 정하고 특정 프로그램에 시간 제한을 다는 역할
시간이 많이 걸리는 프로그램이 작동할 때 제한을 걸기 위해 존재한다
디바이스 컨트롤러(device controller)
컴퓨터와 연결되어 있는 IO 디바이스들의 작은 CPU를 말함
옆에 붙어 있는 로컬 버퍼는 각 디바이스에서 데이터를 임시로 저장하기 위한 작은 메모리임
3.2 메모리
3.2.1 메모리 계층
구분 | 위치/대상 | 휘발성 여부 | 속도 | 용량 | 비고 |
레지스터 | CPU 내부 | 휘발성 | 가장 빠름 | 가장 작음 | 연산 중 임시 저장용 |
캐시 | CPU와 메인 메모리 사이 | 휘발성 | 매우 빠름 | 작음 | L1,L2,(L3) 포함 |
주기억장치 | RAM | 휘발성 | 보통 | 보통 | 실행 중인 프로그램 저장 |
보조기억장치 | HDD, SSD | 비휘발성 | 느림 | 가장 큼 | 데이터 영구 저장용 |
램은 하드디스크로부터 일정량의 데이터를 복사해서 임시저장을 하고 필요시마다 CPU에 빠르게 전달하는 역할을 한다.
계층이 위로 올라갈수록 비싸지는데 용량은 작아지고 속도는 빨라지는 특성이 있음
캐시(cache)
데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄기이 위한 메모리
데이터를 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 절약할 수 있음
실제로 CPU랑 메모리 사이 속도차이가 너무 큼
중간에 레지스터 계층을 둬서 속도차이를 해결함
속도 차이를 해결하기 위해 계층과 계층 사이에 있는 계층을 캐싱 계층이라고 함.
예) 캐시 메모리와 보조기억장치 사이에 있는 주기억장치를 보조기억장치의 캐싱 계층이라 할 수 있음
지역성의 원리
캐시 계층 말고 캐시를 직접 설정할 때는 자주 사용하는 데이터를 기반으로 설정해야함
자주사용하는 데이터에 대한 근거는 지역성이다. 지역성은 시간 지역성(temporal locality)과 공간 지역성(spatial locality)로 나뉨
시간 지역성
최근 사용한 데이터에 다시 접근하려는 특성
예)
반복문 내 배열 접근
배열의 요소에 반복적으로 접근하는 경우, 동일한 데이터에 여러번 접근하게 된다
let arr = Array.from({length : 10}, ()=> 0);
console.log(arr)
for (let i = 0; i < 10; i += 1) {
arr[i] = i;
}
console.log(arr)
/*
[
0, 0, 0, 0, 0,
0, 0, 0, 0, 0
]
[
0, 1, 2, 3, 4,
5, 6, 7, 8, 9
]
*/
fot 반복문으로 이루어진 코드 안의 변수 i에 계속해서 접근이 이루어진다. 한번 접근한 후 그 값은 가까운 시간 내에 다시 접근될 확률이 놉기때문에 캐시메모리에 저장되어 성능이 향상됨
공간 지역성
최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성
앞 코드에서 배열 arr의 각 요소들에 i가 할당되며 해당 배열에 연속적으로 접근함
캐시히트와 캐시미스
- 캐시히트: 원하는 데이터를 찾음
- 데이터를 제어장치를 거쳐 가져옴. 위치도 가깝고 CPU 내부 버스를 기반으로 작동하기 때문에 빠름
- 캐시미스: 데이터가 캐시에 없으면 메모리로 가서 데이터를 찾아오는 것
- 캐시미스 발동시 메모리에서 가져오게 되는데 시스템 버스를 기반으로 작동하기 때문에 느리다.
캐시 매핑
캐시가 히트되기 위해 매핑하는 방법
CPU의 레지스터와 메모리(RAM)간에 데이터를 주고받을 때를 기반으로 설명한다.
작은 레지스터가 캐시 계층으로써 역할을 잘해주려면 이 매핑을 어떻게 하느냐가 중요함
이름 | 설명 |
직접 매핑(directed mapping) | 메모리가 1~100이 있고 캐시가 1~10이 있다면 1:1~10, 2:1 ~ 10... 이런식으로 매핑하는것을 말함 처리가 빠르지만 충돌 발생이 잦음 |
연관 매핑(associative mapping) | 순서를 일치시키지않고 관련 있는 캐시와 메모리를 매핑함. 충돌이 적지만 모든 블록을 탐색해야해서 속도가 느림 |
집합 연관 매핑(set associative mapping) | 직접 매핑과 연관 매핑을 합쳐놓은 것. 순서는 일치시키지만 집합을 둬서 저장하며 블록화가 되어 있기 때문에 검색은 좀 더 효율 적임 |
웹 브라우저의 캐시
웹 브라우저의 작은 저장소 쿠키, 로컬스토리지,세션 스토리지가 있음
사용자의 커스텀한 정보나 인증 모듈 관련 사항들을 웹브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나
중복 요청 방지를 위해 쓰이며 오리진에 종속된다
구분 | 만료기한 | 저장용량 | 데이터 유지 범위 | 접근/수정 권한 | 기타 특징 |
쿠키 | 있음 | 4KB | 브라우저/서버 설정에 따라 다름 | 서버/클라이언트 모두 가능 | HttpOnly 옵션 적용 가능, 보안 강화 |
로컬 스토리지 | 없음 | 5MB | 브라우저 전체 | 클라이언트만 가능 | 브라우저 종료후에도 유지 |
세션 스토리지 | 없음 | 5MB | 탭(세션) 다뉘 | 클라이언트만 가능 | 탭 닫으면 삭제됨 |
- 쿠키
- 만료기한을 설정할 수 있는 키 - 값 저장소
- 4KB까지 데이터 저장 가능
- httponly 옵션을 적용해 js 접근을 막아 보안을 강화할 수 있음
- 로컬스토리지
- 만료기한이 없는 키 - 값 저장소
- 5MB까지 저장 가능
- 브라우저를 닫아도 데이터 유지
- 클라이언트(js)에서만 접근 및 수정 가능
- 세션 스토리지
- 만료기한이 없는 키 - 값 저장소
- 5MB까지 저장 가능
- 브라우저의 탭(세션) 단위로 데이터가 저장됨
- 탭을 닫으면 데이터 삭제
- 클라이언트(js)에서만 접근 및 수정 가능
데이터베이스의 캐싱 계층
데이터베이스 시스템을 구축할 때도 메인 데이터베이스 위에 레디스(redis) 데이터베이스 계층을 캐싱 계층으로 둬서 성능을 향상시키기도 한다.
3.2.2 메모리 관리
가상메모리(virtual memory)
컴퓨터가 실제로 이용가능한 메모리 자원을 추상화하여 사용자들에게 매우 큰 메모리로 보이게 만드는 것
- 가상 주소(logical address): 가상적으로 주어진 주소
- 메모리관리장치(MMU)에 의해 실제 주소로 변환됨 사용자는 실제 주소 의식x 프로그램 구축 가능
- 실제 주소(physical address): 실제 메모리상에 있는 주소
가상메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 페이지 테이블로 관리됨
이때 속도 향상을 위해 TLB를 쓴다.
- TLB: 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시. 페이지 테이블에 있는 리스트를 보관하며 CPU가 페이지 테이블까지 가지 않도록 해 속도를 향상시킬 수 있는 캐시 계층
스와핑(Swapping)
가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴드가 발생함.
- 스와핑: 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고 하드디스크의 일부분을 마치 메모리처럼 불러와 쓰는 것
마치 페이지 폴트가 일어나지 않은 것처럼 만든다.
페이지 폴트 (page fault)
프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근했을 경우 발생
페이지 폴트와 그로 인한 스와핑은 아래와 같은 과정으로 이루어진다.
- 어떤 명령어가 유효한 가상 주소에 접근했으나 해당 페이지가 만약 없다면 트랩이 발생되어 운영체제에 알리게 된다.
- 운영체제는 실제 디스크로부터 사용하지 않은 프레임을 찾음
- 해당 프레임을 실제 메모리에 가져와서 페이지 교체 알고리즘을 기반으로 특정 페이지와 교체(이때 스와핑이 일어남)
- 페이지 테이블을 갱신시킨 후 해당 명령어를 다시 시작
- 페이지(page): 가상 메모리를 사용하는 최소 크기 단위
- 프레임(frame): 실제 메모리를 사용하는 최소 크기 단위
스레싱(thrashing)
메모리의 페이지 폴트율이 높은 것
즉 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생함
이는 컴퓨터의 심각한 성능 저하를 초래함
해결방법
- 메모리 늘리기
- HDD를 사용한다면 SSD로 바꾸기
- 운영체제에서 해결한다면 작업세트와 PFF가 있음
작업세트( working set)
프로세스의 과거 사용 이력인 지역성(locality)을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것
미리 메모리에 로드하면 탐색에 드는 비용을 줄일 수 있고 스와핑 또한 줄일 수 있음
PFF (Page Fault Frequency)
페이지 폴트 빈도를 조절하는 방법
상한선과 하한선을 만드는 방법임
상한선에 도달한다면 프레임을 늘리고
하한선에 도달한다면 프레임을 줄이는 것
메모리 할당
메모리에 프로그램을 할당할 때는 시작메모리 위치, 메모리의 할당 크기를 기반으로 할당한다.
연속할당과 불연속 할당으로 나눈다.
연속할당
메모리에 연속적으로 공간을 할당하는 것
프로세스A 프로세스 B 프로세스C가 순차적으로 공간에 할당하는것을 볼 수 있다.
메모리를 미리 나누어 관리하는 고정 분할방식과 매 시점 프로개름의 크기에 맞게 메모리를 분할하여 사용하는 가변 분할 방식이 있다.
고정분할 방식(fixed partition allocation)
메모리를 미리 나누어 관리하는 방식
메모리가 미리 나뉘어 있기 때문에 융통성이 없음 내부 단편화가 발생함
가변 분할 방식(variable partition allocation)
매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용
내부 단편화는 발생하지 않고 외부 단편화는 발생할 수 있음
최초적합(first fit), 최적적합(best fit), 최악적합(worst fit)이 있다.
- 내부 단편화(internal fragmentation): 메모리를 나눈 크기보다 프로그램이 작아서 들어가지 못하는 공간이 많이 발생하는 현상
- 외부 단편화(external fragmentation): 메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 공간이 많이 발생하는 현상
예) 100MB를 55MB,45MB로 나눴지만 프로그램의 크기는 70MB일때 들어가지 못하는것 - 홀(hole): 할당할 수 있는 비어 있는 메모리 공간
이름 | 설명 | 장점 | 단점 |
최초적합 | 위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당 | 빠른 할당 | 외부 단편화 가능성 |
최적적합 | 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당 | 외부 단편화 최소화 | 검색 시간 증가 |
최악적합 | 프로세스의 크기와 가장 많이 차이가 나는 홀에 할당 | 대형 공간 유지 | 작은 조작 다량 생성 |
구분 | 분할 방식 | 단편화 유형 | 장점 | 단점 |
고정분할(fixed partition allocation) | 사전 고정 분할 | 내부 단편화 | 관리 용이 | 유연성 부족 |
가변분할(variable partition allocation) | 동적 분할 | 외부 단편화 | 메모리 효율적 사용 | 할당 알고리즘 복잡성 |
불연속 할당
메모리를 연속적으로 할당하지 않는다.
현대 운영체제가 쓰는 방법으로 불연속 할당인 페이징 기법이 있다.
메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램 마다 페이지 테이블을 두어 이를 통해 메모리에 프로그램을 할당하는 것
세그멘테이션, 페이지드 세그멘테이션이 있다.
페이징(paging)
동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당
홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해짐
세그멘테이션(segmentation)
페이지 단위가 아닌 의미 단위인 세그먼트로 나누는 방법
프로세스를 이루는 메모리는 코드,데이터,스택, 힙 영역으로 이루어지는데 코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수도 있음.
공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점이 잇음
페이지드 세그멘테이션(paged sementation)
프로그램을 의미 단위인 세그먼트로 나눠 공유나 보안 측면에 강점을 두고 임의의 길이가 아닌 동일한 크기의 페이지 단위로 나누는 것
페이지 교체 알고리즘
메모리는 한정되어 있기때문에 스와핑이 많이 일어난다. 스와핑은 많이 일어나지 않도록 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.
오프라인 알고리즘(offline algorithm)
먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘
가장 좋은 알고리즘이지만 미래에 사용되는 프로세스를 우리가 알 방법이 없음
사용할 수 없는 알고리즘이지만 가장 좋은 알고리즘이기때문에 다른 알고리즘과의 성능 비교에 대한 상한(upper_bound)를 제공한다.
FIFO(First In First Out)
가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법
LRU(Least Recently Used)
참조가 가장 오래된 페이지를 바꿈
오래된것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야하는 문제점이 있음
LRU 구현을 프로그래밍으로 구현할 ㄸ개는 해시 테이블과 이중 연결 리스트로 구현한다.
해시 테이블은 이중 연결 리스트에서 빠르게 찾을 수 있도록 쓰고, 이중 연결 리스트는 한정된 메모리를 나타냄
NUR(Not Used Recently)
LRU에서 발전한 알고리즘임
일명 clock 알고리즘이라고 하며 0과 1을 가진 비트를 둔다.
1은 최근에 참조되었고 0은 참조되지 않음을 의미함
시계방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체하고 해당부분을 1로 바꾸는 알고리즘
LFU(Least Frequency Used)
가장 참조 횟수가 적은 페이지를 교체함
\많이 사용되지 않은 것을 교체한다는 뜻
3.3 프로세스와 스레드
process
컴퓨터에서 실행되고 있는 프로그램을 말한다.
CPU 스케줄링의 대상이 되는 작업(task)이라는 용어와 거의 같은 의미로 사용됨
3.3.1 프로세스와 컴파일 과정
프로세스는 프로그램이 메모리에 올라가 인스턴스화 된것을 말한다.
예) 프로그램은 구글 크롬 프로그램(chrome.exe)과 같은 실행 파일이며, 두 번 클릭하면 구글 크롬 프로세스로 변환되는 것
- 컴파일: 사람이 이해할 수 있는 코드(C, C++, Java등)를 컴퓨터가 이해할 수 있는 코드(기계어)로 변환하는 작업.
전처리
소스 코드의 주석을 제거하고 #include 등 헤더 파일을 병합하여 매크로를 치환한다.
컴파일러
오류 처리. 코드 최적화 작업을 하며 어셈블리어로 변환
어셈블러
어셈블리어는 목적코드(object code)로 변환된다. 확장자는 운영체제마다 다르다.
링커
프로그램 내에 있는 라이브러리 함수 또는 다른 파일들과 목적 코드를 결합하여 실행 파일을 만든다.
확장자는 .exe 또는 .out
정적 라이브러리와 동적 라이브러리
정적라이브러리
프로그램 빌드시 라이브러리가 제공하는 모든 코드를 실행 파일에 넣는 방식으로 라이브러리를 쓴다. 시스템 환경 등 외부 의존도가 낮음 코드 중복 등 메모리 효율성이 떨어지는 단점이 있음
동적라이브러리
프로그램 실행 시 필요할 때만 DLL이라는 함수 정보를 참조하여 라이브러리를 쓴다. 메모리 효율성에서 장점이지만 외부 의존도가 높아진다는 단점이 있음
구분 | 정적 라이브러리 (Static Library) | 동적 라이브러리 (Dynamic Library / DLL) |
사용 시점 | 프로그램 빌드(컴파일) 시 | 프로그램 실행 시(run-time) |
라이브러리 내용 | 실행 파일에 라이브러리 코드가 포함됨 | 실행 파일은 라이브러리를 참조만 함 |
파일 확장자 | “`.lib` (Windows), `.a` (Linux” | “`.dll` (Windows), `.so` (Linux)” |
외부 의존성 | 낮음 (모든 코드가 실행 파일에 들어 있음) | 높음 (DLL 파일이 존재해야 실행 가능) |
메모리 사용 | 비효율적 (프로그램마다 라이브러리 코드 중복 포함) | 효율적 (여러 프로그램이 하나의 DLL 공유 가능) |
실행 파일 크기 | 큼 (라이브러리 코드 포함) | 작음 (필요 시 DLL 참조) |
업데이트 용이성 | 어려움 (전체 프로그램 다시 컴파일 필요) | 쉬움 (DLL만 교체하면 됨) |
성능 | 약간 빠름 (모든 코드가 내장되어 있음) | 약간 느릴 수 있음 (함수 로딩 필요) |
3.3.2 프로세스 상태
생성(create)
프로세스가 생성된 상태를 의미함 fork() 또는 exec() 함수를 통해 생성함. 이때 PCB가 할당됨
fork()
부모 프로세스의 주소 공간을 그대로 복사
새로운 자식 프로세스를 생성하는 함수임
주소 공간만 복사할 뿐이지 부모 프로세스의 비동기 작업 등을 상속하지 않음
exec()
새롭게 프로세스를 생성하는 함수
대기(ready)
메모리 공간이 충분하면 메모리를 할당받음
아니라면 아닌 상태로 대기하고 있음
CPU 스케줄러로부터 CPU 소유권이 넘어오기를 기다니는 상태
대기 중단(ready suspended)
메모리 부족으로 일시 중단된 상태
실행(running)
CPU 소유권과 메모리를 할당 받고 *인스트럭션을 수행 중인 상태
CPU burst가 일어났다고도 함
인스트럭션: CPU가 수행할 수 있는 가장 기본적인 명령어
중단(blocked)
어떤 이벤트가 발생한 이후 기다리며 프로세스가 차단된 상태
I/O 디바이스에 의한 인터럽트로 이런 현상이 발생하기 쉬움
예) 프린트 인쇄버튼 눌렀을때
일시 중단(blocked suspended)
대기 중단과 유사함. 중단된 상태에서 프로세스가 실행되려 했으나 메모리 부족으로 일시 중단된 상태
종료(terminated)
메모리오 CPU 소유권을 모두 놓고 가는 상태
부모 프로세스가 자식 프로세스를 강제시키는 비자발적 종료(abort)로 종료될 떄도 있음
자식 프로세스에 할당된 자원의 한계치를 넘어서거나 부모 프로세스가 종료되거나 사용자가 process.kill 등 여러 명령어로 프로세스를
종료할 때 발생함
3.3.3 프로세스의 메모리 구조
스택은 위 주소부터 할당
힙은 아래 주소부터 할당
스택과 힙
둘 다 동적 할당된다.
- 동적 할당: 런타임 단계에서 메모리를 할당받는 것
- 스택: 지역변수, 매개변수, 실행되는 함수에 의해 늘어들거나 줄어드는 메모리 영역
- 힙: 동적으로 할당되는 변수들을 담음
데이터 영역과 코드 영역
정적 할당되는 영역임
- 정적 할당: 컴파일 단계에서 메모리를 할당하는 것
- 데이터 영역: BSS segment와 Data segment, code/text segment로 나눠서 저장한다.
- BSS segment: 초기화되지 않은 전역 변수 또는 static 변수들이 0으로 초기화되어 저장됨
(예: int x; static int y;) - Data segment: 전역 변수 또는 static, const로 선언되어 있고 0이 아닌 값으로 초기화된 변수가 이 메모리 영역에 할당됨
예: int a = 10; static int b = 20; const int c = 30;) - code segment: 프로그램의 코드가 들어감. 주로 기계어로 번역된 명령어들이 저장되며 보통 읽기 전용이다.
3.3.4 PCB(Process Control Block)
운영체제가 각 프로세스를 관리하기 위해 생성하는 구조체 또는 데이터 블록.
프로세스 제어블록이라고도 부른다.
프로그램이 실행되어 프로세스가 생성되면 운영체제는 해당 PCB 생성한다.
프로그램이 실행되면 프로세스가 생성되고 프로세스 주소 값들이 앞서 설명한 스택, 힙 등의 구조를 기반으로 메모리가 할당된다.
프로세스의 메타데이터들이 PCB에 저장되어 관리됨 이는 프로세스의 중요한 정보를 포함하고 잇기 때문에 일반 사용자가 접근하지 못하도록 커널 스택의 가장 앞부분에서 관리된다.
메타데이터: 데이터에 관한 구조화된 데이터이자 데이터를 설명하는 작은 데이터
항목 | 설명 |
프로세스 스케줄링 상태 | 현재 프로세스 상태 (예: 준비(Ready), 실행(Running), 대기(Waiting), 종료(Terminated), 일시 중단(Suspended) 등) |
프로세스ID | 고유한 프로세스 식별자(PID) 및 부모/자식 프로세스 ID 정보 포함 |
프로세스 권한 | 해당 프로세스의 사용자 권한 및 접근 가능한 자원(I/O 등)에 대한 정보 |
프로그램 카운터(pc) | 다음에 실행될 명령어의 주소를 가리키는 포인터 |
CPU 레지스터 | 프로세스 실행 중 사용하던 레지스터 값 저장 (PC, SP, general-purpose 등 포함) |
CPU 스케줄링 정보 | 우선순위, 스케줄링 큐에 있는 위치, 마지막 실행 시각 등 |
계정 정보 | 사용자 ID, 그룹 ID, CPU 사용 시간, 사용한 자원 정보 등 |
I/O 상태 정보 | 프로세스가 사용 중인 I/O 장치 및 열린 파일 목록 등 |
PCB는 프로세스의 상태, 실행위치, 자원, 권한등을 모두 기록하는 데이터 구조임
이 정보가 있어야 운영체제가 프로세스를 저장, 복원, 스케줄링할 수 있음
컨텍스트 스위칭(context switching)
운영체제가 CPU를 점유한 프로세스의 상태(문맥)를 PCB에 저장하하고
다른 프로세스의 상태를 PCB에서 복원해 실행을 전환하는 과정이다.
발생하는 상황
- 프로세스가 할당된 CPU시간을 다 썼을때
- 인터럽트가 발생했을때 (예: I/O 요청, 시그널)
- 더 높은 우선순위의 프로세스가 준비된경우(선점형 스케주ㅠㄹ링)
프로세스에 할당된 시간이 끝나거나 인터럽트에 의해 발생한다.
어떠한 시점에서 실행되고 있는 프로세스는 단 한개임.
많은 프로세스가 동시에 구동되는것 처럼 보이는건 다른 프로세스와의 컨텍스트 스위칭이 아주 빠른 속도로 실행되기 때문임.
벗. 요즘에는 멀티코어의 CPU를 가지기 때문에 한 시점에 한개의 프로그램이라는 설명은 틀린디ㅏ.
컨텍스트 스위칭에 드는 비용이 있는데 고것이 바로 캐시미스
비용: 캐시미스
- 컨텍스트 스위칭 시, 이전 프로세스의 레지스터, 프로그램 카운터, 메모리 맵등을 PCB에 저장하고 새로운 프로세스의 상태를 복원한다.
- 이 과정에서 CPU캐시 (CPU 내부 고속 임시 메모리)는 기존 프로세스의 메모리 정보를 담고 있다.
- 새로운 프로세스는 다른 메모리 주소 공간을 사용하기 때문에 이전 캐시 정보는 쓸모 없게 되고 초기화된다.
- 이로 인해 CPU는 메모리에 다시 접근해야하고 이는 캐시미스로 이어져 성능 저하가 발생한다.
긍께 걍 컨텍스트 스위칭 시 캐시 초기화로 캐시미스가 발생하고 이게 오버헤드의 주요 원인이라는 뜻.
스레드에서의 컨텍스트 스위칭
- 스레드는 같은 프로세스 내에서 실행되는 독립적인 실행흐름임
- 스레드 간에는 코드, 힙, 데이터 영역은 공유, 스택과 레지스터만 별도로 유지한다
- 스레드 간 컨텍스트 스위칭은
- 스택과 레지스터만 교체하면 되므로
- 메모리 맵 전체를 바꾸지 않음
- 따라서 캐시 초기화가 거의 일어나지도 않고 컨텍스트 스위칭 비용이 상대적으로 매우 적다.
스레드는 같은 주소 공간을 공유하기 때문에 컨텍스트 스위칭 시 캐시 미스가 덜 발생하고 전환 시간이 빠르며 오버헤드도 적다는 뜻이다.
항목 | 프로세스 | 스레드 |
주소 공간 | 서로 다름 | 공유함 |
컨텍스트 스위칭 비용 | 높음(캐시 미스 발생) | 낮음 |
전환 시간 | 느림 | 빠름 |
공유 메모리 | 없음(완전히 독립) | 코드, 힙, 데이터 공유 |
3.3.5 멀티프로세싱
멀티프로세스를 통해 동시에 두가지 이상의 일을 수행할 수 있는 것
하나 이상의 일을 병렬로 처리할 수 있으며 특정 프로세스의 메모리, 프로세스 중 일부에 문제가 발생하더라도
다른 프로세스를 통해서 처리할 수 있으므로 신뢰성이 높은게 강점임
웹 브라우저
멀티 프로세스 구조를 가지고 있다.
- 브라우저 프로세스: 주소 표시줄, 북마크 막대, 뒤로가기 버튼, 앞으로 가기 버튼 등을 담당하며 네트워크 요청이나 파일 접근 같은 권한을 담당한다
- 렌더러 프로세스: 웹 사이트가 보이는 부분의 모든 것을 제어한다
- 플러그인 프로세스: 웹 사이트에서 사용하는 플러그인을 제어한다
- GPU 프로세스: GPU를 이용해서 화면을 그리는 부분을 제어한다.
IPC(Inter Process Communication)
멀티프로세스는 IPC가 가능하ek.
- IPC: 프로세스끼리 데이터를 주고받고 공유 데이터를 관리하는 메커니즘
예) 서버와 클라이언트
IPC 종류
- 공유메모리
- 파일
- 소켓
- 익명 파이프
- 명명 파이프
- 메시지 큐
얘네는 메모리가 완전히 공유되는 스레드보단 속도가 떨어짐
공유메모리(shared memory)
여러 프로세스에 동일한 메모리 블록에 대한 접근 권한이 부여되어 프로세스가 서로 통신할 수 있도록 공유 메모리를 생성해서 통신하는 것
매개체를 凸통해 데이터를 주고 받는게 아닌 메모리 자체를 공유하기 때문에 불필요한 데이터 복사의 오버헤드가 발생하지않아 빠르다.
벗.
같은 메모리 영역을 여러 프로세스가 공유하기 때문에 동기화가 필요함
파일
디스크에 저장된 데이터 또는 파일 서버에서 제공한 데이터를 말한다. 이를 기반으로 프로세스 간 통신을 한다
소켓
동일한 컴퓨터의 다른 프로세스나 네트워크의 다른 컴퓨터로 네트워크 인터페이스를 통해
전송하는 데이터를 의미하며 TCP와 UDP가 있다.
익명 파이프(unnamed pipe)
프로세스 간에 FIFO 방식으로 읽히는 임시 공간인 파이프를 기반으로 데이터를 주고받는다.
- 단방향 방식의 읽기 전용, 쓰기 전용 파이프를 만들어서 작동하는 방식을 말함
- 부모, 자식 프로세스 간에만 사용할 수 있으며 다른 네트워크상에서는 사용이 불가
명명된 파이프(named pipe)
서버와 하나 이상의 파이프 클라이언트 간의 통신을 위한 명명된 단방향 또는 양방향 파이프
- 클라이언트;/서버 통신을 위한 별도의 파이프를 제공한다.
- 여러파이프를 동시에 사용할 수 있음
- 컴퓨터의 프로세스끼리 또는 다른 네트워크상의 컴퓨터와도 통신할 수 있음
- 구분해서 작동하며 하나의 인스턴스를 열거나 여러 개의 인스턴스를 기반으로 통신
메시지 큐
메시지를 큐 데이터 구조 형태로 관리하는 것
- 커널의 전역변수 형태 등 커널에서 전역적으로 관리된다.
- 다른 IPC 방식에 비해서 사용 방법이 매우 직관적이고 간단함
3.3.6 스레드와 멀티스레딩
스레드
- 스레드: 프로세스의 실행가능한 가장 작은 단위
코드,데이터,스택, 힙을 각각 생성하는 프로세스와는 달리
스레드는 코드, 데이터, 힙은 스레드끼리 공유한다. 스택은 각각 생성댐
멀티스레딩
프로세스 내 작업을 여러 개의 스레드, 멀티스레드로 처리하는 기법
스레드끼리 서로 자원을 공유하기 때문에 효율성이 높음
예) 웹 요청을 처리할 때 새 프로세스를 생성하는 대신 스레드를 사용하는 웹 서버의 경우 훨씬 적은 리소스를 소비하며, 한 스레드가
중단되어도 다른 스레드는 실행 상태일 수 있기 때문에 중단되지 않은 빠른 처리가 가능함
동시성에도 장점이 잇다.
하지만 한 스레드에 문제가 생기면 다른 스레드에도 영향을 끼쳐 스레드로 이루어져있는 프로세스에 영향을 줄 수있음
- 독립성: 서로 독립적인 작업을 작은 단위로 나누고 동시에 실행되는 것처럼 보여지는것
멀티스레드의 예: 웹 브라우저의 렌더러 프로세스
3.3.7 공유 자원과 임계 영역
공유자원(shared resource)
시스템 안에서 각 프로세스, 스레드가 함께 접근 할 수 잇는 모니터, 프린터, 메모리, 파일, 데이터 등의 자원이나 변수등을 의미
- 경쟁상태(race condition): 공유 자원을 두 개 이상의 프로세스가 동시에 읽거나 쓰는 상황
동시에 접근을 시도할 때 접근의 타이밍이나 순서 등이 결괏값에 영향을 줄 수 있는 상태
임계 영역(critical section)
둘 이상의 프로세스, 스레드가 공유 자원에 접근할 때 순서등의 이유로 결과가 달라지는 코드 영역
해결방법
- 뮤텍스
- 세마포어
- 모니터
방법들 모두 상호배제, 한정 대기, 융통성이란 조건을 만족함
이 방법들의 토대가 되는 메커니즘은 잠금(lock)임
예) 화장실이 임계영역이면 A란 사람이 화장실에 들어가 문을 잠궈 -> 다음 사람은 이를 기다리다 A가 나오면 화잘실 써
- 상호배제(mutual exclusion): 한 프로세스가 임계 영역에 들어갔을 때 다른 프로세스는 들어갈 수 없다.
- 한정 대기(bounded waiting): 특정 프로세스가 영원히 임계 영역에 들어가지 못하면 안된다.
- 융통성(progress): 만약 어떠한 프로세스도 임계 영역을 사용하지 않는다면 임계 영역 외부의 어떠한 프로세스도 들어갈 수 있으며
이떄 프로세스끼리 서로 방해하지 않는다.
뮤텍스(mutex)
프로세스나 스레드가 공유자원을 lock(()통해 잠금 설정하고 사용한 후에는 unlock()을 통해 잠금 해제하는 객체
- 잠금이 설정되면 잠긴 코드 영역에 접근할 수 없음. 해제는 그 반대임
- 잠금 또는 잠금 해제라는 상태만 가진다.
세마포어(semaphore)
일반화된 뮤텍스
간단한 정수값과 wait(),signal로 공유자원에 대한 접근을 처리함
- wait(): 자신의 차례가 올 때까지 기다리는 함수
- signal(): 다음 프로세스로 순서를 넘겨주는 함수
프로세스나 스레드가 공유자원에 접근하면 세마포어에서 wait() 작업을 수행하고 공유 자원을 해제하면 signal 작업을 수행함
세마포어에는 조건 변수가 없고 프로세스나 스레드가 세마포어 값을 수정할 때 다른 프로세스나 스레드는 동시에 세마포어 값을 수정할 수 없다.
- 바이너리 세마포어: 0과 1의 두 가지 값만 가질 수 있는 세마포어
- 뮤텍스: 잠금을 기반으로 상호배제가 일어나는 잠금메커니즘
- 세마포어: 신호를 기반으로 상호배제가 일어나는 신호메커니즘
예) 노래 듣다가 전화와서 통화 처리 작업에 관한 인터페이스가 등장
- 카운팅 세마포어: 여러개의 값을 가질 수 있는 세마포어임. 여러 자원에 대한 접근을 제어
모니터
둘 이상의 스레드나 프로세스가 공유 자원에 안전하게 접근할 수 있도록 공유 자원을 숨기고 해당 접근에 대해 인터페이스만 제공
모니터큐를 통해 공유 자원에 대한 작업들을 순차적으로 처리함
세마포어보다 구현하기 쉽고 모니터에서 상호배제는 자동임
세마포어에서는 상호배제를 명시적으로 구현해야하는 차이가 있다.
3.3.8 교착 상태(deadlock)
두 개 이상의 프로세스들이 서로가 가진 자원을 기다리며 중단된 상태
교착 상태의 원인
- 상호 배제: 한 프로세스가 자원을 독점하고 있으며 다른 프로세스들은 접근이 불가능
- 점유 대기: 특정 프로세스가 점유한 자원을 다른 프로세스가 용청하는 상태
- 비선점: 다른 프로세스의 자원을 강제적으로 가져올 수 없다.
- 환형 대기: 프로세스 A는 프로세스 B의 자원을 요구하고 프로세스B는 A의 자원을 요구하는 등 서로가 서로의 자원을 요구하는 상황
교착 상태 해결 방법
- 자원을 할당할 때 애초에 조건이 성립되지 않도록 설계
- 교착 상태 가능성이 없을 때만 자원 할당되며, 프로세스당 요청할 자원들의 최대치를 통해 자원할당
가능 여부를 파악하는 *은행원 알고리즘 사용 - 교착 상태가 발생하면 사이클이 있는지 찾아보고 이에 관련된 프로세스를 한 개씩 지운다
- 교착 상태는 매우 드물게 일어나기 때문에 이를 처리하는 비용이 더 커서 교착 상태가 발생하면 사용자가 작업을 종료한다. 요즘에 이거씀.
은행원 알고리즘: 총 자원의 양과 현재 할당한 자원의 양을 기준으로 안정 또는 불안정 상태로 나누고 안정 상태로 가도록 자원을 할당하는 알고리즘
3.4 CPU 스케줄링 알고리즘
CPU 스케줄러는 CPU 스케줄링 알고리즘에 따라 프로세스에서 해야하는 일을 스레드 단위로 CPU에 할당한다
CPU 스케줄링 알고리즘 목표
- CPU 이용률은 높게
- 주어진 시간에 많은 일을 하게
- 준비 큐(ready queue)에 있는 프로세스는 적게
- 응답 시간은 짧게 설정
3.4.1 비선점형 방식(non-preemptive)
프로세스가 스스로 CPU 소유권을 포기하는 방식
강제로 프로세스를 중지하지 않는다.
컨텍스트 스위칭으로 인한 부하가 적음
FCFS(First Come, First Served)
가장 먼저 온 것을 가장 먼저 처리하는 알고리즘.
길게 수행되는 프로세스 때문에 준비 큐에서 오래기다리는 현상(convoy effect)이 발생하는 단점
SJF(Shortest Job First)
실행시간이 가장 짧은 프로세스를 가장 먼저 실행하는 알고리즘
긴 시간을 가진 프로세스가 실행되지 않는 현상(starvation)이 일어남
평균 대기시간이 가장 짧다.
실제로는 실행시간을 알수없기때문에 과거 시간을 토대로 추측해서 사용함
우선순위
SJF단점을 오래된 작업일 수록 우선순위를 높이는 방법(aging)을 사용해 보완한 알고리즘임
FCFS를 활용해서 만들기도함.
선점형, 비선점형적인 우선순위 스케줄링 알고리즘을 말하기도 한다.
3.4.2 선점형 방식(preemptive)
요즘 쓰는 방식임
프로세스를 알고리즘에 의해 중단 시켜버리고 강제로 다른 프로세스에 CPU 소유권을 할당하는 방식
라운드 로빈(RR, Round Robin)
현대 컴퓨터가 쓰는 선점형 알고리즘 스케줄링 방법임
각 프로세스는 동일한 할당 시간을 주고 그 시간 안에 끝나지 않으면 다시 준비 큐의 뒤로 가는 알고리즘이다.
할당시간이 너무 크면 FCFS가 되고 짧으면 컨텍스트 스위칭이 잦아져서 오버헤드댐
일반적으로 전체 작업시간은 길어지지만 평균 응답 시간은 짧아진다는 특징이 있음
SRF(Shortest Remaining TIme First)
중간에 더 짧은 작업이 들어오면 수행하던 프로세스를 중지하고 해당 프로세스를 수행하는 알고리즘
다단계 큐
우선순위에 따른 준비 큐를 여러 개 사용하고 큐마다 라운드 로빈이나 FCFS등 다른 스케줄링 알고리즘을 적용한것.
큐 간의 프로세스 이동이 안되므로 스케줄링 부담이 적지만
유연성이 떨어지는 특징이 있음
'cs' 카테고리의 다른 글
04.데이터베이스 (2) | 2025.05.15 |
---|---|
02-5. HTTP (0) | 2025.04.30 |
02-4. IP 주소 (0) | 2025.04.30 |
02-3. 네트워크 기기 (0) | 2025.04.30 |
02-2. TCP/IP 4계층 모델 (1) | 2025.04.30 |