mojo's Blog

운영체제 정리 본문

Computer Science/운영체제

운영체제 정리

_mojo_ 2022. 9. 7. 12:58

 

운영체제와 컴퓨터

 

※ 운영체제의 역할과 구조

 

운영체제의 역할은 크게 네 가지가 있다.

 

  1. CPU 스케줄링과 프로세스 관리 : CPU 소유권을 어떤 프로세스에 할당할지, 프로세스의 생성과 삭제, 자원 할당 및 반환을 관리
  2. 메모리 관리 : 한정된 메모리를 어떤 프로세스에게 얼마큼 할당할지를 관리 
  3. 디스크 파일 관리 : 디스크 파일을 어떠한 방법으로 보관할지 관리
  4. I/O 디바이스 관리 : I/O 디바이스들인 마우스, 키보드와 컴퓨터 간에 데이터를 주고받는 것을 관리

 

운영체제의 구조는 다음과 같다.

 

 

유저 프로그램이 가장 위에 존재하며 그 다음으로 GUI, 시스템콜, 커널, 드라이버가 있으며

가장 밑에는 하드웨어가 있는 구조이다.

GUI, 시스템콜, 커널, 드라이버 부분이 바로 운영체제를 지칭한다.

참고로 GUI 가 없고 CUI 만 있는 리눅스 서버가 있다.

 

- GUI : 사용자가 전자장치와 상호 작용할 수 있도록 하는 사용자 인터페이스의 한 형태

- CUI : 그래픽이 아닌 명령어로 처리하는 인터페이스 

- 드라이버 : 하드웨어를 제어하기 위한 소프트웨어

 

 

※ 시스템콜

 

 

시스템콜이란 운영체제가 커널에 접근하기 위한 인터페이스이며 유저 프로그램이 운영체제의 서비스를

받기 위해 커널 함수를 호출할 때 쓴다.

유저 프로그램이 I/O 요청으로 트랩(trap)을 발동하면 올바른 I/O 요청인지를 확인한 후

유저 모드가 시스템콜을 통해 커널 모드로 변환되어 실행된다.

 

- I/O 요청 : 입출력 함수, 데이터베이스, 네트워크, 파일 접근 등 관한 일

- 드라이버 : 하드웨어를 제어하기 위한 소프트웨어

 

프로세스나 스레드에서 운영체제로 어떠한 요청을 할 때, 시스템콜이라는 인터페이스와 커널을 거쳐

운영체제에게 전달된다.

시스템콜은 하나의 추상화 계층이기 때문에 네트워크 통신이나 데이터베이스와 같은 낮은 단계의

영역 처리에 대한 부분을 많이 신경 쓰지 않고 프로그램을 구현할 수 있는 장점이 있다.

 

 

※ modebit

 

시스템콜이 작동될 때 modebit 을 참고하여 유저 모드, 커널 모드 두 개로 구분한다.

0 또는 1의 값을 가지는 플래그 변수이다.

카메라, 키보드 등 I/O 디바이스는 운영체제를 통해서만 작동해야 한다.

커널 모드를 거쳐 운영체제를 통해 I/O 디바이스가 작동되도록 하는 방법이 modebit 으로

modebit 가 0일 때 커널 모드, 1일 때 유저 모드로 설정되며, 유저 모드일 경우에는 시스템콜을

못하게 막아서 한정된 일만 가능하게 한다.

 

- 유저 모드 : 유저가 접근할 수 있는 영역을 제한적으로 두며 컴퓨터 자원에 침범하지 못하는 모드

- 커널 모드 : 모든 컴퓨터 자원에 접근 가능한 모드

- 커널 : 운영체제 핵심 부분으로 시스템콜 인터페이스를 제공하며 보안, 메모리, 프로세스, 파일시스템,

   I/O 디바이스, I/O 요청 관리 등 운영체제의 중추적인 역할을 한다.

 

 

※ 컴퓨터의 요소

 

컴퓨터는 CPU, DMA 컨트롤러, 메모리, 타이머, 디바이스 컨트롤러 등으로 이루어져 있다.

 

 

※ CPU

 

CPU(Central Processing Unit)는 크게 3 가지로 산술논리연산장치, 제어장치, 레지스터로 구성되어 있는

컴퓨터 장치로, 인터럽트에 의해 단순히 메모리에 존재하는 명령어를 가져와서(fetch) 해석하고(decode)

실행하는(execute) 일꾼이다.

 

 

관리자 역할을 하는 운영체제의 커널이 프로그램을 메모리에 올려 프로세스로 만들면 CPU 가 처리한다.

 

 

- 프로그램 : 프로그램은 실행파일로 파일 시스템에 존재하는 실행파일을 의미한다. 

   예를 들어 [~~~].exe 와 같은 실행 파일이 결국 프로그램이다.

- 프로세스 : 프로그램을 실행하게 되면 CPU 를 차지하면서 수행하는 프로세스이다.

   프로그램은 하나지만 이 프로그램을 실행하는 인스턴스는 여러 개가 생길 수 있다.

   (ex : 크롬창을 여러번 띄우는 것으로 여러 개의 프로세스가 생성)

 

 

- 제어장치

제어장치(Control Unit)는 프로세스 조작을 지시하는 CPU의 한 부품이다.

입출력장치 간 통신을 제어하고 명령어들을 읽고 해석하며 데이터 처리를 위한 순서를 결정한다.

 

- 레지스터

레지스터는 CPU 안에 있는 매우 빠른 임시기억장치를 가리킨다.

CPU와 직접 연결되어 있어서 연산 속도가 메모리보다 더 빠르다.

CPU는 자체적으로 데이터를 저장할 방법이 없기 때문에 레지스터를 거쳐 데이터를 전달한다.

 

- 산술논리연산장치

산술논리연산장치(ALU)는 덧셈, 뺄셈 같은 두 숫자의 산술 연산과 배타적 논리합, 논리곱 같은

논리 연산을 계산하는 디지털 회로이다.

 

 

※ CPU의 연산처리

 

CPU 에서 제어장치, 레지스터, 산술논리연산장치를 통해 연산하는 순서는 다음과 같다.

 

  1. 제어장치가 메모리에 계산할 값을 로드하고 레지스터에도 로드한다.
  2. 제어장치가 레지스터에 있는 값을 계산하라고 ALU 에 명령한다.
  3. 제어장치가 계산된 값을 다시 레지스터에서 메모리로 계산한 값을 저장한다.

 

- 인터럽트

어떠한 신호가 왔을 때 CPU를 잠깐 정지시키는 것을 의미한다.

키보드, 마우스 등 IO 디바이스로 인한 인터럽트, 0으로 나누는 행위, 프로세스 오류 등에서 발생된다.

인터럽트가 발생되면 인터럽트 핸들러 함수가 모여 있는 인터럽트 벡터로 가서 인터럽트 핸들러 함수가 

실행된다.

 

 

인터럽트 간에는 우선순위가 있고 우선순위에 따라 실행이 된다.

인터럽트는 하드웨어 인터럽트와 소프트웨어 인터럽트 두 가지로 나뉜다.

 

  • 하드웨어 인터럽트 : IO 디바이스에서 발생하는 인터럽트, 순차적인 인터럽트 실행을 중지하고 운영체제에 시스템콜을 요청해서 원하는 디바이스로 향해 디바이스에 있는 작은 로컬 버퍼에 접근하여 일을 수행
  • 소프트웨어 인터럽트 : 트랩(trap)이라고 하며 프로세스 오류 등으로 프로세스가 시스템콜을 호출할 때 발동

 

- DMA 컨트롤러

DMA 컨트롤러는 I/O 디바이스가 메모리에 직접 접근할 수 있도록 하는 하드웨어 장치를 뜻한다.

CPU 에만 너무 많은 인터럽트 요청이 들어오기 때문에 CPU 부하를 막아주는 것 주 목적이며,

하나의 작업을 CPU와 DMA 컨트롤러가 동시에 하는 것을 방지한다.

 

- 메모리

메모리는 전자회로에서 데이터나 상태, 명령어 등을 기록하는 장치를 말하며, 보통 RAM 으로

Random Access Memory 라고 한다.

CPU 는 계산을 담당하고 메모리는 기억을 담당한다.

 

- 타이머

몇 초 안에 작업이 끝나야 한다는 것을 정하고 특정 프로그램에 시간 제한을 다는 역할을 한다.

시간이 많이 걸리는 프로그램이 작동할 때 제한을 걸기 위해 존재한다.

 

- 디바이스 컨트롤러

디바이스 컨트롤러는 컴퓨터와 연결되어 있는 I/O 디바이스들의 작은 CPU 를 말한다.

 

 

메모리

 

※ 메모리 계층

 

메모리 계층은 레지스터, 캐시, 메모리, 그리고 저장장치 4 가지로 구성되어 있다.

 

 

- 레지스터 : CPU 안에 있는 작은 메모리로 속도가 가장 빠르며 기억 용량이 가장 적다.

- 캐시 : L1, L2 캐시를 지칭하며 속도가 빠르고 기억 용량이 적다. (L3 캐시도 존재)

- 주기억장치 : RAM 을 가리키며 속도는 보통이고 기억 용량도 보통이다.

- 보조기억장치 : HDD, SDD 를 일컬으며 속도가 느리고 기억 용량이 많다.

 

RAM 은 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 필요할 때마다 CPU 에

빠르게 전달하는 역할을 한다.

 

 

※ 캐시

 

캐시(cache)는 데이터를 미리 복사해 놓는 임시 저장소이며 빠른 장치와 느린 장치에서 속도 차이에 따른

병목 현상을 줄이기 위한 메모리를 말한다.

이를 통해 데이터를 접근하는 시간이 오래 걸리는 경우를 해결하고 무언가를 다시 계산하는 시간을 

절약할 수 있다.

 

실제로 메모리와 CPU 사이의 속도 차이가 크기 때문에 그 중간에 레지스터 계층을 둬서 속도 차이를 해결한다.

예를 들어 캐시 메모리와 보조기억장치 사이에 있는 주기억장치를 보조기억장치의 캐싱 계층이라고 할 수 있다.

 

- 지역성의 원리

캐시를 직접 설정하기 위해 자주 사용하는 데이터를 기반으로 설정해야 한다.

지역성은 시간 지역성, 공간 지역성 두 개로 나뉜다.

 

- 시간 지역성 : 최근 사용한 데이터를 다시 접근하려는 특성

   (ex : for - loop 에서 i++ 을 하는 변수 i)

- 공간 지역성 : 최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성

   (ex : arr[0] = 0, arr[1] = 1, ..., arr[n] = n 으로 배열에 연속적으로 접근)

 

 

※ 캐시히트, 캐시미스

 

캐시에서 원하는 데이터를 찾은 경우를 캐시히트, 해당 데이터가 캐시 없다면 주 메모리로 가서

데이터를 찾아오는 것을 캐시미스라고 한다.

캐시히트를 하게 되면 해당 데이터를 제어장치를 통해 가져오게 된다.

캐시히트의 경우 위치가 가깝고 CPU 내부 버스를 기반으로 작동하기 때문에 빠르다.

반면에 캐시미스가 발생되면 메모리에서 가져오게 되는데, 이는 시스템 버스 기반으로 작동하기

문에 느리다.

 

 

※ 캐시매핑

 

캐시매핑이란 캐시가 히트되기 위해 매핑하는 방법을 말하며 CPU 의 레지스터와 주 메모리(RAM)간에

데이터를 주고받을 때를 기반으로 설명한다.

 

캐시매핑 분류 관련해서는 이 주소에서 잘 설명이 되어 있는것 같다.

[컴퓨터구조] 캐시 메모리(CACHE)와 매핑 방법 & 일관성 (itnovice1.blogspot.com)

 

[컴퓨터구조] 캐시 메모리(CACHE)와 매핑 방법 & 일관성

[컴퓨터구조] 캐시 메모리(CACHE)와 매핑 방법 & 일관성 Cache Memory 빠른 CPU, 느린 Memory 프로그램을 CPU 혼자서 수행하는 것이 아니라 메모리도 같이 참여한다. 용량은 Cache < Main Memor...

itnovice1.blogspot.com

 

 

※ 가상 메모리

 

운영체제의 대표적으로 할 일은 메모리 관리이다.

컴퓨터 내의 한정된 메모리를 극한으로 활용할 수 있도록 해야 한다.

가상 메모리는 메모리 관리 기법으로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를

사용하는 사용자들에게 매우 큰 메모리로 보이게 만드는 것을 말한다.

 

 

가상적으로 주어진 주소를 가상 주소, 실제 메모리 상에 존재하는 주소를 물리 주소라고 한다.

가상 주소는 MMU(Memory Management Unit) 에 의해 실제 주소로 변환이 되고,

이 덕분에 사용자는 실제 주소를 의식할 필요 없이 프로그램 구축이 가능하다.

 

가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 

'페이지 테이블' 로 관리된다.

속도 향상을 위해 TLB 를 쓴다.

 

 

가상메모리와 메인메모리, 디스크의 관계가 아래 주소에서 상세하게 설명되어 있다.

https://velog.io/@mysprtlty/%EA%B0%80%EC%83%81-%EB%A9%94%EB%AA%A8%EB%A6%AC%EC%99%80-%EA%B0%80%EC%83%81-%EC%A3%BC%EC%86%8C-%EA%B3%B5%EA%B0%84#1

 

가상 메모리와 가상 주소 공간

가상 메모리(Virtual Memory)와 가상(논리) 주소 공간(Virtual Address Space)는 다른 개념이다.가상 주소 공간은 각 프로세스 당 주어지는 논리적인 공간이다.가상 주소 공간의 크기는 물리 메모리(RAM)의

velog.io

 

- TLB : 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시이다.

   페이지 테이블에 있는 리스트를 보관하며 CPU 가 페이지 테이블까지 가지 않도록 하여 속도를

   향상시킬 수 있도록 하는 캐시 계층이다.

 

 

※ 스와핑

 

만약 가상 메모리에 존재하지만 실제 메모리인 RAM 에 없는 데이터 또는 코드에 접근할 경우 

페이지 폴트(page fault) 가 발생하게 된다.

이를 방지하기 위해 당장 사용하지 않는 영역을 하드디스크로 옮겨 필요할 때 다시 RAM 으로 불러오고,

사용하지 않으면 다시 하드디스크로 내림을 반복하여 RAM 을 효과적으로 관리하는 것을 스와핑이라 한다.

 

 

※ 페이지 폴트

 

페이지 폴트(page fault)란 프로세스의 주소 공간에는 존재하지만 RAM 에는 없는 데이터에 접근

경우에 발생하게 된다.

이때 운영체제는 다음 과정으로 해당 데이터를 메모리로 가져와서 마치 페이지 폴트가 전혀 발생하지

않은 것 처럼 프로그램이 작동하게끔 한다.

페이지 폴트가 떴을 때 스와핑이 일어나는 과정은 다음과 같다.

 

 

  1. CPU 는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생하여 운영체제에 알림
  2. 운영체제는 CPU 동작을 멈춤
  3. 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고 없으면 프로세스를 중단
  4. 현재 물리 메모리에 비어 있는 프레임을 찾음
    1. 프레임이 없는 경우 : 해당 페이지의 프레임을 로드
    2. 프레임이 있는 경우 : 스와핑을 통해 해당 페이지의 프레임과 임의의 프레임을 교체
  5. 물리 메모리에 프레임 업데이트 완료 시 페이지 테이블을 최신화
  6. 중단되었던 CPU 를 다시 실행 (다시 해당 페이지로 접근)

 

- 페이지 : 가상 메모리를 사용하는 최소 크기 단위

- 프레임 : 실제 메모리를 사용하는 최소 크기 단위

 

 

※ 스레싱

 

스레싱(thrashing)은 메모리의 페이지 폴트율이 높은 것을 의미하며, 이는 컴퓨터의 심각한 성능

저하를 초래하게 된다.

 

 

메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하게 된다.

즉, 페이지 폴트가 일어날 때 마다 CPU 를 멈추고 운영체제에게 요청을 하게 되는데 이러한 작업이

많이 일어나게 되는 것이다.

스레싱이 발생하게 되는 이유는 CPU 이용률이 낮아지는 시점에서 운영체제는 CPU 의 이용률이

낮은 것을 보고 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리기 때문에 이러한 악순환이

반복된다.

 

이를 해결할 수 있는 방법은 메모리를 늘리거나 HDD 대신 SDD 로 바꾸는 방법이 있다.

이외에 운영체제에서 이를 해결할 수 있는 방법으로 작업 세트, PFF 가 있다.

 

- 작업 세트

작업 세트(working set)는 프로세스의 과거 사용 이력인 지역성(locality)을 통해 결정된 페이지 집합을

만들어서 미리 메모리에 로드하는 것이다.

미리 메모리에 로드하면 탐색에 드는 비용이 줄고 스와핑 또한 줄어들 수 있다.

 

- PFF

PFF(Page Fault Frequency)는 페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만든다.

 

  • 상한선에 도달할 경우 : 페이지를 늘림
  • 하한선에 도달할 경우 : 페이지를 줄임

 

아래 주소에서 작업 세트 PFF 에 대한 내용이 잘 정리되어 있는 것 같다.

[운영체제 OS] -10장. 스레싱 (Thrasing),워킹셋(Working set),PFF ② (tistory.com)

 

[운영체제 OS] -10장. 스레싱 (Thrasing),워킹셋(Working set),PFF ②

스레싱이란? - page fault가 빈번하게 발생하여 페이지교체(swap-in, swap-out)하는 시간이 많아지는 현상을 말한다. (계속 page fault가 나면 cpu가 원하는 데이터를 가져오기위해 swap영역과 메인메모리 사

dudumandu0321.tistory.com

 

 

※ 메모리 할당

 

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데,

연속 할당과 불연속 할당으로 나뉜다.

 

 

연속 할당

 

메모리에 연속적으로 공간을 할당하는 것을 말한다.

메모리를 미리 나눠서 관리하는 고정 분할 방식매 시점 프로그램의 크기에 맞게 메모리를

분할하여 사용하는 가변 분할 방식이 있다.

 

- 고정 분할 방식 : 메모리를 미리 나눠서 관리하는 방식으로 메모리가 미리 나뉘어 있기 때문에

   융통성이 없는 문제가 있고 내부 단편화가 발생한다.

 

- 가변 분할 방식 : 매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용한다.

   내부 단편화는 발생하지 않고 외부 단편화가 발생할 수 있다.

   first fit, best fit, worst fit 세 가지 케이스가 존재한다.

 

  • first bit : 위쪽 또는 아래쪽부터 시작하여 홀을 찾는 순간에 바로 할당 (한번에 할당 가능)
  • best fit : 프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당 (전부 탐색한 후 할당)
  • worst fit : 프로세스의 크기와 가장 많이 차이가 나는 홀에 할당 (전부 탐색한 후 할당)

 

연속 할당에 대한 자세한 설명은 아래 주소에서 공부하도록 해야겠다.

[운영체제] 메모리 분할 ( Memory Partioning ) [ 연속 메모리 할당 ] (tistory.com)

 

[운영체제] 메모리 분할 ( Memory Partioning ) [ 연속 메모리 할당 ]

다수의 프로세스에게 메모리를 분할해줘야 한다. 이번 포스팅에서는 연속 메모리 할당 방식의 메모리 분할법을 다루겠다. 연속 메모리 할당이란? 프로세스의 구성요소가 메모리에 연속된 주소

lordofkangs.tistory.com

 

 

※ 불연속 할당

 

메모리를 연속으로 할당하지 않는 불연속 할당은 현대 운영체제가 쓰는 방법으로 불연속 할당인

페이징 기법이 있다.

메모리를 동일한 크기의 페이지(보통 4KB)로 나누고 프로그램마다 페이지 테이블을 두어 이를 통해

메모리에 프로그램을 할당하는 것이다.

페이징 기법 말고도 세그멘테이션, 페이지드 세그멘테이션이 있다.

 

- 페이징 : 동일한 크기의 페이지 단위로 나눠 메모리의 서로 다른 위치에 프로세스를 할당하는 방식이다.

   홀의 크기가 균일해져서 좋지만 주소 변환이 복잡해진다.

 

- 세그멘테이션 : 페이지 단위가 아닌 의미 단위인 세그먼트(segment)로 나누는 방식이다.

   프로세스는 코드, 데이터, 스택, 힙 등으로 나뉘는데, 코드와 데이터 등 이를 기반으로 나눌 수 있으며

   함수 단위로도 나눌 수 있음을 의미한다.

   공유와 보안 측면에서 좋지만 홀 크기가 균일하지 않는 문제가 존재한다.

 

- 페이지드 세그멘테이션 : 공유나 보안을 의미 단위로 세그먼트로 나누고, 물리적 메모리는 페이지로

   나누는 것을 의미한다.

 

  • 홀(hole) : 할당할 수 있는 비어 있는 메모리 공간을 의미한다.

 

 

※ 페이지 교체 알고리즘

 

메모리는 한정되어 있기 때문에 스와핑이 많이 일어난다.

스와핑은 많이 일어나지 않도록 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.

 

- 오프라인 알고리즘

 

 

오프라인 알고리즘(offline algorithm)은 먼 미래에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는

알고리즘으로써 가장 좋은 방법 중 하나이다.

그러나 미래에 사용되는 프로세스를 알 수 없는 문제가 존재한다.

즉, 사용할 수 없는 알고리즘이지만 다른 알고리즘과의 성능 비교에 대한 기준을 제공한다.

 

- FIFO

 

 

FIFO(First In First Out)는 가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법을 의미한다.

 

- LRU

 

 

LRU(Least Recently Used)는 참조가 가장 오래된 페이지를 바꾼다.

오래된 것을 파악하기 위해 각 페이지마다 계수기, 스택을 둬야 하는 문제점이 있다.

LRU 을 C++ 로 구현한 코드는 다음과 같다.

class LRUCache {
	list<int> li;
	unordered_map<int, list<int>::iterator> hash;
	int csize;
public:
	LRUCache(int);
	void refer(int);
	void display();
};

LRUCache::LRUCache(int n) {
	csize = n;
}

void LRUCache::refer(int x) {
	if (hash.find(x) == hash.end()) {
		if (li.size() == csize) {
			int last = li.back();
			li.pop_back();
			hash.erase(last);
		}
	}
	else {
		li.erase(hash[x]);
	}
	li.push_front(x);
	hash[x] = li.begin();
}

void LRUCache::display() {
	for (auto it = li.begin(); it != li.end(); it++) {
		cout << (*it) << " ";
	}
	cout << endl;
}

 

- NUR

 

 

LRU 에서 발전한 NUR(Not Used Recently) 알고리즘이 있다.

일명 clock 알고리즘이라고 하며 먼저 0과 1을 가진 비트를 둔다.

1은 최근에 참조된 것이고 0은 참조되지 않음을 의미한다.

시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 페이지를 교체하고, 해당 부분을 1로 바꾸는 알고리즘이다.

 

- LFU

LFU(Least Frequently Used)는 가장 참조 횟수가 적은 페이지를 교체한다.

즉, 많이 사용되지 않은 페이지를 교체하는 것을 의미한다.

 

 

프로세스와 스레드

 

※ 프로세스 컴파일 과정

 

프로세스는 프로그램으로부터 인스턴스화 된 것을 말한다.

프로그램은 컴파일러가 컴파일 과정을 거쳐 컴퓨터가 이해할 수 있는 기계어로 번역되어  실행할 수 있는 파일이

되는 것을 의미한다.

 

 

- 전처리 : 소스 코드의 주석을 제거하고 #include 등 헤더 파일을 병합하여 매크로를 치환한다.

 

- 컴파일러 : 오류 처리, 코드 최적화 작업을 하여 어셈블리어로 변환한다.

 

- 어셈블러 : 어셈블리어는 목적 코드로 변환된다.

 

- 링커 : 프로그램 내에 있는 라이브러리 함수 또는 다른 파일들과 목적코드를 결합하여 실행 파일을 만든다.

   실행 파일의 확장자는 .exe 또는 .out 이라는 확장자를 갖는다.

 

- 정적 라이브러리 : 프로그램 빌드 시 라이브러리가 제공하는 모든 코드를 실행 파일에 넣는 방식이다.

   시스템 환경 등 외부 의존도가 낮고 코드 중복 등 메모리 효율성이 떨어지는 단점이 있다.

 

- 동적 라이브러리 : 프로그램 실행 시 필요할 때만 DDL 이라는 함수 정보를 통해 참조하는 방식이다.

   메모리 효율성에서의 장점외부 의존도가 높아진다는 단점이 있다.

 

 

※ 프로세스의 상태

 

프로세스의 상태는 여러 가지의 상태 값을 갖는다.

 

 

- 생성 상태 : 프로세스가 생성된 상태를 의미하며 fork() 함수를 통해 생성되고 PCB 가 할당된다.

 

fork() 함수란 부모 프로세스의 주소 공간을 그대로 복사하며, 새로운 자식 프로세스를 생성하는 함수다.

주소 공간만 복사할 뿐이며 부모 프로세스의 비동기 작업등을 상속하지 않는다.

 

- 대기 상태 : 메모리 공간이 충분하면 메모리를 할당받고 아니면 아닌 상태로 대기하고 있는다.

  CPU 스케쥴러로부터 CPU 소유권이 넘어오기를 기다리는 상태이다.

 

- 실행 상태 : CPU 소유권과 메모리를 할당받고 명령어를 수행 중인 상태를 의미한다.

 

- 중단 상태 : 어떤 이벤트가 발생한 이후 기다리며 프로세스가 차단된 상태이다.

   I/O 디바이스에 의한 인터럽트로 이런 현상이 많이 발생하기도 한다.

 

- 종료 상태 : 메모리와 CPU 소유권을 모두 놓고 가는 상태를 말한다. 

   자연스럽게 종료되는 것도 있지만, 부모 프로세스가 자식 프로세스를 강제시키는 비자발적 종료도 있다.

   자식 프로세스에 할당된 자원의 한계치를 넘어서거나 부모 프로세스가 종료되거나 사용자가 process, kill

   등 여러 명령어로 프로세스를 종료할 때 발생한다.

 

 

※ 프로세스의 메모리 구조

 

운영체제는 프로세스에 적절한 메모리를 할당하는데 아래 구조 기반으로 할당한다.

 

 

위에서부터 스택, 힙, 데이터 영역, 코드 영역으로 나뉜다.

스택은 위 주소부터 할당되며 힙은 아래 주소부터 할당된다.

 

- 스택 : 스택에는 지역변수, 매개변수, 함수가 저장되고 컴파일 시에 크기가 결정되며 동적인 특징을 갖는다.

  재귀 호출로 인하여 동적으로 크기가 늘어날 수 있는데 힙과 스택의 메모리 영역이 겹치면 안되므로

  힙과 스택의 공간을 비워 놓는다.

 

- 힙 : 힙은 동적 할당할 때 사용되며 런타임 시 크기가 결정되며 동적인 특징을 갖는다.

 

- 데이터 영역 : 데이터 영역은 전역변수, 정적변수가 저장되고, 정적인 특징을 갖으며 프로그램이 종료되면

  사라지는 변수가 들어 있는 영역이다.

 

  • BSS segment : 초기화가 되지 않은 변수가 0으로 초기화되어 저장된다.
  • Data segment : 0이 아닌 다른 값으로 할당된 변수들이 저장된다.

 

- 코드 영역 : 프로그램에 내장되어 있는 소스 코드가 들어가는 영역이다. 

   수정 불가능한 기계어로 저장되어 있으며 정적인 특징을 갖는다.

 

 

※ PCB

 

PCB(Process Control Block)은 운영체제에서 프로세스에 대한 메타데이터를 저장한 데이터를 말한다.

프로세스가 생성되면 운영체제는 해당 PCB를 생성한다.

프로그램이 실행되면 프로세스가 생성되고 프로세스 주소 값들에 스택, 힙 등의 구조를 기반으로 메모리가 할당된다.

그리고 이 프로세스의 메타데이터들이 PCB에 저장되어 관리된다.

이는 프로세스의 중요한 정보를 포함하므로 일반 사용자가 접근하지 못하도록 커널 스택의 가장 앞부분에 관리된다.

 

- 메타데이터 : 데이터에 관한 구조화된 데이터이면서 데이터를 설명하는 작은 데이터로, 대량의 정보 가운데에서

  찾고 있는 정보를 효율적으로 찾아내서 이용하기 위해 일정한 규칙에 따라 콘텐츠에 대해 부여하는 데이터다.

 

PCB 구조는 다음과 같이 이뤄진다.

 

 

- 프로세스 스케쥴링 상태 : '준비', '일시중단' 등 프로세스가 CPU 에 대한 소유권을 얻은 이후의 상태

- 프로세스 ID : 프로세스 ID 및 해당 프로세스의 자식 프로세스 ID

- 프로세스 권한 : 컴퓨터 자원 또는 I/O 디바이스에 대한 권한 정보

- 프로그램 카운터 : 프로세스에서 실행해야 할 다음 명령어의 주소에 대한 포인터

- CPU 레지스터 : 프로세스를 실행하기 위해 저장해야 할 레지스터에 대한 정보

- CPU 스케쥴링 정보 : CPU 스케쥴러에 의해 중단된 시간 등에 대한 정보

- 계정 정보 : 프로세스 실행에 사용된 CPU 사용량, 실행한 유저의 정보

- I/O 상태 정보 : 프로세스에 할당된 I/O 디바이스 목록

 

 

※ 컨텍스트 스위칭

 

컨텍스트 스위칭이란 PCB 를 교환하는 과정을 말한다.

한 프로세스에 할당된 시간이 끝나거나 인터럽트에 의해 발생된다.

컴퓨터는 많은 프로그램을 동시에 실행하는 것처럼 보이는 환각을 준다.

하지만 어떠한 시점에서 실행되고 있는 프로세스는 단 한개이며, 많은 프로세스가 동시에 구동되는 것처럼

보이는 것은 다른 프로세스와의 컨텍스트 스위칭이 아주 빠른 속도로 실행되기 때문이다.

 

현대 컴퓨터는 멀티코어의 CPU를 가지기 때문에 한 시점에 여러 개의 프로그램이 돌아간다.

하지만 컨텍스트 스위칭을 설명할 땐 싱글코어를 기준으로 설명한다.

 

 

위 과정처럼 프로세스가 여러개 수행되기 위해 각 프로세스의 PCB를 로드하거나 저장한다.

컨텍스트 스위칭이 일어날 때 유휴 시간(idle time)이 발생한다.

컨텍스트 스위칭에 드는 비용은 바로 캐시미스이다.

 

- 캐시미스 비용

컨텍스트 스위칭이 일어날 때 프로세스가 가지고 있는 메모리 주소가 그대로 있으면 잘못된

주소 변환이 생기므로 캐시클리어 과정을 겪게 되므로 캐시미스가 발생한다.

 

- 스레드에서의 컨텍스트 스위칭

스레드는 스택 영역을 제외한 모든 메모리를 공유하기 때문에 스레드 컨텍스트 스위칭의 경우 

비용이 더 적고 시간도 더 적게 걸린다.

 

 

※ 멀티프로세싱

 

멀티프로세싱은 여러 개의 프로세스로 동시에 두 가지 이상의 일을 수행할 수 있는 것이다.

이를 통해 하나 이상의 일을 병렬로 처리할 수 있고 특정 프로세스의 메모리, 프로세스 중 일부 문제가

발생하더라도 다른 프로세스를 이용해서 처리할 수 있으므로 신뢰성 높은 강점이 있다.

 

- IPC

멀티프로세스는 IPC(Inter Process Communication)가 가능하며 IPC는 프로세스끼리 데이터를

주고받고 공유 데이터를 관리하는 매커니즘을 뜻한다.

IPC 종류로는 공유 메모리, 파일, 소켓, 익명 파이프, 명명 파이프, 메시지 큐가 있으며 메모리가 완전히 공유되는

스레드보다는 속도가 덜어진다.

 

- 공유 메모리

공유 메모리는 여러 프로세스에 동일한 메모리 블록에 대한 접근 권한이 부여되어 프로세스가

서로 통신할 수 있도록 공유 버퍼를 생성하는 것을 말한다.

공유 메모리를 통해 여러 프로세스가 하나의 메모리를 공유할 수 있다.

IPC 방식 중 어떠한 매개체를 통해 데이터를 주고받는 것이 아니라 메모리 자체를 공유하기 때문에

불필요한 데이터 복사의 오버헤드가 발생하지 않아 가장 빠르고, 같은 메모리 영역을 여러 프로세스가

공유하므로 동기화가 필요하다.

 

- 파일

디스크에 저장된 데이터 또는 파일 서버에서 제공한 데이터를 말한다.

이를 기반으로 프로세스 간 통신이 이뤄진다.

 

- 소켓

동일한 컴퓨터의 다른 프로세스나 네트워크의 다른 컴퓨터로 네트워크 인터페이스를 통해 전송하는

데이터를 의미하며 TCP, UDP 가 있다.

 

- 익명 파이프

익명 파이프(unamed pipe)는 프로세스 간에 FIFO 방식으로 읽히는 임시 공간인 파이프를 기반으로

데이터를 주고받으며, 단방향 방식의 읽기 전용, 쓰기 전용 파이프를 만들어서 작동하는 방식이다.

 

- 명명된 파이프

명명된 파이프(named pipe)는 파이프 서버와 하나 이상의 파이프 클라이언트 간의 통신을 위한

명명된 단방향 또는 이중 파이프를 말한다.

클라이언트/서버 통신을 위한 별도의 파이프를 제공하며, 여러 파이프를 동시에 사용할 수 있다.

컴퓨터의 프로세스끼리 또는 다른 네트워크상의 컴퓨터와도 통신 가능하다.

 

 

왼쪽은 하나의 파이프 인스턴스 방식이며 오른쪽은 여러 개의 파이프 인스턴스 방식이다.

 

- 메시지 큐

메시지 큐는 메시지를 큐(queue) 데이터 구조 형태로 관리하는 것을 의미한다.

커널의 전역변수 형태 등 커널에서 전역적으로 관리되며 다른 IPC 방식에 비해서 사용 방법이 매우 직관적이고

간단하며 다른 코드의 수정 없이 단지 몇 줄의 코드를 추가시켜 간단하게 메시지 큐에 접근할 수 있는 장점이 있다.

 

공유 메모리를 통해 IPC를 구현할 때 쓰기 및 읽기 빈도가 높으면 동기화 떄문에 기능을 구현하는 것이 복잡하지만,

이를 대안으로 메시지 큐를 사용하기도 한다.

 

 

※ 스레드와 멀티스레딩

 

- 스레드

스레드는 프로세스의 실행 가능한 가장 작은 단위이다.

프로세스는 여러스레드를 가질 수 있다.

코드, 데이터, 스택 힙을 각각 생성하는 프로세스와는 달리 스레드는 코드, 데이터, 힙은 스레드끼리 서로 공유한다.

그 외의 영역인 스택 영역은 각각 생성된다.

 

- 멀티스레딩

멀티스레딩은 프로세스 내 작업을 여러 개의 스레드, 멀티스레드로 처리하는 기법이며 스레드끼리 서로 자원을

공유하기 때문에 효율성이 높다.

새로운 프로세스를 생성하는 대신 스레드를 사용하는 웹 서버의 경우 훨씬 적은 자원으로 처리할 수 있으며,

한 스레드가 중단되어도 다른 스레드는 실행 상태일 수 있기 때문에 중단되지 않은 빠른 처리가 가능하다.

동시성에도 큰 장점이 있지만, 한 스레드에 문제가 생기면 다른 스레드에도 영향을 끼쳐 스레드로 이루어져 있는

프로세스에 영향을 줄 수 있는 단점이 있다.

 

- 동시성 : 서로 독립적인 작업들을 작은 단위로 나누고 동시에 실행되는 것처럼 보여주는 것을 의미

 

 

※ 공유 자원과 임계 영역

 

- 공유 자원 

공유 자원은 시스템 안에서 각 프로세스, 스레드가 함께 접근할 수 있는 모니터, 프린터, 메모리, 파일,

데이터 등의 자원이나 변수 등을 의미한다.

공유 자원을 두 개 이상의 프로세스가 동시에 읽거나 쓰는 상황을 경쟁 상태라고 한다.

 

- 임계 영역

공유 자원에 접근할 떄 순서 등의 이유로 결과가 달라지는 영역을 임계 영역(critical section) 이라 한다.

임계 영역을 해결하기 위한 방법은 크게 뮤텍스, 세마포어, 모니터 세 가지가 있으며,

이 방법 모두 상호 배제, 한정 대기, 융통성이란 조건을 만족한다.

이 방법에 토대가 되는 매커니즘은 잠금(lock) 이다.

 

  • 상호 배제 : 한 프로세스가 임계 영역에 들어갈 때 다른 프로세스는 들어가지 못하는 것
  • 한정 대기 : 특정 프로세스가 영원히 임계 영역에 들어가지 못하는 것 (무한정 대기 x)
  • 융통성 : 한 프로세스가 다른 프로세스 일을 방해하면 안되는 것

 

※ 뮤텍스

 

뮤텍스(mutex)는 공유 자원을 사용하기 전에 설정하고 사용한 후에 해제하는 잠금이다.

잠금이 설정되면 다른 스레드는 잠긴 코드 영역에 접근이 불가능하다.

또한 뮤텍스는 하나의 상태만을 가진다. (잠금 or 잠금 해제)

 

 

※ 세마포어

 

세마포어(semaphore)는 일반화된 뮤텍스이다.

간단한 정수 값과 두 가지 함수 wait(P 함수) 및 signal(V 함수, post)로 공유 자원에 대한 접근을 처리한다.

wait()는 자신의 차례가 올 때까지 기다리는 함수고, signal()은 다음 프로세스로 순서를 넘겨주는 함수이다.

 

프로세스가 공유 자원에 접근하면 세마포어에서 wait() 작업을 수행하고 프로세스가 공유 자원을 해제하면

세마포어에서 signal() 작업을 수행한다.

세마포어에는 조건 변수가 없으며 프로세스가 세마포어 값을 수정할 때 다른 프로세스는 동시에 

세마포어 값을 수정할 수 없다.

 

- 바이너리 세마포어

바이너리 세마포어는 0, 1 두 가지 값만 가질 수 있는 세마포어이다.

구현의 유사성으로 인해 뮤텍스는 바이너리 세마포어라고 할 수는 있다.

그러나 뮤텍스는 리소스에 대한 접근을 동기화하는 데 사용되는 잠금 매커니즘이고,

세마포어는 신호를 기반으로 상호 배제가 일어나는 신호 매커니즘이다.

 

- 카운팅 세마포어

카운팅 세마포어는 여러 개의 값을 가질 수 있는 세마포어로, 여러 자원에 대한 접근을 제어하는데 사용된다.

 

 

※ 모니터

 

모니터는 둘 이상의 스레드나 프로세스가 공유 자원에 안전하게 접근할 수 있도록 공유자원을 숨기고

해당 접근에 대해 인터페이스만 제공한다.

 

 

모니터는 모니터큐를 통해 공유 자원에 대한 작업(job)들을 순차적 처리가 이뤄진다.

모니터는 세마포어보다 구현이 쉬우며 모니터에서 상호 배제는 자동인 반면에,

세마포어에서는 상호 배제를 명시적으로 구현해야 하는 차이점이 있다.

 

 

※ 교착 상태

 

교착 상태(deadlock)는 두 개 이상의 프로세스들이 서로가 가진 자원을 기다리며 중단된 상태를 말한다.

교착 상태의 원인은 4가지로 다음과 같다.

 

  • 상호 배제 : 한 프로세스가 자원을 독점하고 있으면 다른 프로세스들이 접근이 불가능하다.
  • 점유 대기 : 특정 프로세스가 점유한 자원을 다른 프로세스가 요청하는 상태이다. 
  • 비선점 : 다른 프로세스 자원을 강제적으로 가져올 수 없다.
  • 환형 대기 : 프로세스 서로가 서로의 자원을 요구하는 상황이다.

 

교착 상태의 해결 방법은 다음과 같다.

 

  • 자원 할당 시 조건이 성립되지 않도록 설계하면 된다. (당연한 것)
  • 교착 상태 가능성이 없을 때만 자원이 할당되며, 프로세스당 요청할 자원들이 최대치를 통해 자원 할당 가능 여부를 파악하는 은행원 알고리즘을 사용한다.
  • 교착 상태 발생 시 사이클이 있는지를 찾아보고 이에 관련된 프로세스를 하나 지워서 사이클을 방지한다.
  • 교착 상태는 매우 드물게 일어나므로 교착 상태가 발생할 경우 사용자가 작업을 종료하는 것으로 현대 운영체제가 채택한 방법이다.

 

- 은행원 알고리즘 : 총 자원의 양과 현재 할당한 자원의 양을 기준으로 안정 또는 불안정 상태로 나누고 안정 상태로

  가도록 자원을 할당하는 알고리즘이다.

 

 

CPU 스케쥴링 알고리즘

 

CPU 스케줄러는 CPU 스케쥴링 알고리즘에 따라 프로세스에서 해야 하는 일을 스레드 단위로 CPU 에 할당한다.

 

 

프로그램이 실행될 때 CPU 스케쥴링 알고리즘이 어떤 프로그램에 CPU 소유권을 줄 것인지를 결정한다.

이 알고리즘은 CPU 이용률은 높게, 주어진 시간에 많은 일을 할 수 있도록 준비 큐(ready queue)에 있는 프로세스는

적게, 응답 시간은 짧게 설정하는 것을 목표로 한다.

 

 

※ 비선점형 방식

 

비선점형 방식(non-preemptive)은 프로세스가 스스로 CPU 소유권을 포기하는 방식이다.

강제로 프로세스를 중지하지 않기 때문에 컨텍스트 스위칭으로 인한 부하가 적다.

 

- FCFS

FCFS(First Come First Served)이란 가장 먼저 온 것을 가장 먼저 처리하는 알고리즘을 의미한다.

길게 수행되는 프로세스로 인해 convoy effect(ready queue 에서 오래 기다림) 가 발생하는 단점이 존재한다.

 

- SJF

SJF(Shortest Job First)는 실행 시간이 가장 짧은 프로세스를 가장 먼저 실행하는 알고리즘이다.

긴 시간을 가진 프로세스가 실행되지 않는 현상으로 starvation 이 발생하며 평균 대기 시간이 가장 짧다.

하지만 실제로 실행 시간을 알 수 없기 때문에 과거에 실행되었던 시간을 토대로 추측해서 사용한다.

 

- Priorirty

기존 SJF 스케쥴링 방식에서 긴 시간을 가진 프로세스가 실행되지 않는 starvation 현상이 존재한다.

이러한 단점을 보완하고자 오래된 작업일수록 우선순위를 높이는 방법을 통해 단점을 보완한 알고리즘이다.

 

 

※ 선점형 방식

 

선점형 방식(preemptive)은 현대 운영체제가 쓰는 방식으로 지금 사용하고 있는 프로세스를 알고리즘에 의해

중단시켜 버리고 강제로 다른 프로세스에 CPU 소유권을 할당하는 방식을 말한다.

 

- Round Robin

Round Robin은 현대 컴퓨터가 쓰는 스케쥴링인 우선순위 스케쥴링의 일종으로, 각 프로세스는 동일한 현대 시간을

주고 그 시간 안에 끝나지 않으면 다시 준비 큐(ready queue) 의 뒤로 가는 알고리즘이다.

예를 들어 q만큼의 할당 시간이 부여된 N 개의 프로세스가 운영될 경우, p * (N - 1) 시간이 지나면 자기 차례가 온다.

할당 시간이 너무 크면 FCFS가 되고, 할당 시간이 너무 짧으면 컨텍스트 스위칭이 많아져서 오버헤드가 생긴다.

일반적으로 전체 작업 시간은 길어지지만 평균 응답 시간은 짧아진다는 특징이 있다.

 

- SRF

SJF(Shortest Job First)는 중간에 실행 시간이 더 짧은 작업이 들어와도 기존 짧은 작업을 모두 수행하고 

그 다음 짧은 작업을 이어나가는데, SRF(Shortest Remaining time First)는 중간에 더 짧은 작업이 들어오면

수행하던 프로세스를 중지하고 해당 프로세스를 수행하는 알고리즘이다.

 

- 다단계 큐

다단계 큐는 우선순위에 따른 준비 큐를 여러 개 사용하고, 큐마다 라운드 로빈이나 FCFS 등 다른 스케쥴링

알고리즘을 적용하는 것을 말한다.

큐 간의 프로세스 이동이 안되므로 스케쥴링 부담이 적지만, 유연성이 떨어지는 특징이 있다.

Comments