스파크는 여러 컴퓨터에 설치해놓고, 데이터 분석을 분산처리할 수 있게 해준다.
드라이버 프로그램은 스파크 컨텍스트를 생성하고 관리한다. 드라이버 프로그램에서 메인 함수를 실행하면, 워커 노드들에서 익스큐터 프로세스들이 돌아가게 된다.
스파크 컨텍스트는 데이터베이스의 커넥션 같은 존재이다. 스파크 컨텍스트를 통해 rdd나 어큐뮬레이터 변수 등을 생성하고 사용할 수 있다.
스파크 클러스터 모델에서는 익스큐터가 자원 할당 단위가 된다고 한다.
클러스터 환경에서 스파크가 동작되는 방식
1. 드라이버 프로그램에서 스파크 컨텍스트를 생성해서,
2. 클러스터 매니저에게 데이터 처리를 할거라고 알려주면
3. 클러스터 매니저가 워커 노드에 익스큐터 프로세스를 띄운다 ( 워커 노드에는 익스큐터 프로세스가 여러개 뜰 수 있다 )
4. 그러면 드라이버 프로그램이 연산을 시작한다. 데이터를 지지고 볶는 척하는 트랜스포메이션 연산이 호출될 때는 실제로 작업을 처리하지는 않는다. 액션 연산이 호출될 때 실제로 작업이 처리된다. 아무튼.. 액션 연산이 호출될 때, 실제 JOB이 생성된다. JOB은 액션연산 갯수만큼 생성이 된다.
5. 이 JOB들은 바로 워커노드로 가지 않는다. 스테이지라는 단계를 거치고 나서, 워커 노드에 가서 열일을 한다.
이 단계에서는 셔플을 최소화하는 방식으로 연산을 처리할 수 있게 스테이지라는 것들을 묶는다. 관심법으로 이해하기에, 뭔가 같이 셋트로 묶어있는게 좋은 데이터들 + 연산 작업들을 스테이지라는 한 덩어리로 묶는 개념인건가 싶었다.
6. 마지막으로 이 스테이지들은 태스크라는 단위로 쪼개져서, 워커노드의 익스큐터 프로세스들로 전달된다. 이 태스크들은 익스큐터 프로세스 안에서 쓰레드로 처리된다.
7. 익스큐터는 할당받은 태스크들을 처리하는 역할도 하지만, 데이터들을 나중에 재사용할 수 있게 저장하는 역할도 한다.
디플로이 모드
클러스터 매니저마다 조금씩 다른 방식으로 애플리케이션을 실행시키는데, 이렇게 다른 실행모드를 디플로이 모드라고 한다.
대표적으로는 클라이언트 디플로이 모드와 클러스터 디플로이 모드가 있다.
클라이언트 디플로이 모드
클라이언트 디플로이 모드는 애플리케이션을 실행한 프로세스에서 드라이버 프로그램을 구동하는거다.
이 경우, 드라이버 프로그램의 작업이 클라이언트 서버 프로세스에 포함된다. 스파크 쉘을 띄어놓고, 워커 노드들에서 오는 결과값이 올 때까지 기다려야하는 상황이 디플로이 모드 환경이라고 이해된다. 스파크 쉘을 꺼버리면, 애플리케이션이 종료되는 상황으로 이해된다.
클러스터 디플로이 모드
클러스터 디플로이 모드는 애플리케이션을 실행한 프로세스에서는 클러스터 매니저에게 작업 실행만 요청하고 바로 종료되는 거다. 그러면 실제 드라이버 프로그램이 실행은 클러스터 내부에서 실행되는 것을 의미한다. 스파크 쉘을 꺼버려도, 뒷단에서 애플리케이션이 알아서 다 돌고, 종료되는 상황으로 이해된다.
데이터 분석을 위해 스파크를 사용하는 경우나 개발 환경에서는 바로바로 실행결과를 확인할 수 있어야한다. 이런 경우, 클라이언트 디플로이 모드가 적합하다.
반면 배치 작업처럼 이미 정형화되어있고, 고정적인 작업인 경우에는 클러스터 디플로이 모드가 적합하다. 왜냐하면, 드라이버프로그램과 익스큐터간의 메시지 전송을 위한 네트워크 비용이 줄어들 수 있기 때문이다.
참고 링크 https://aws.amazon.com/ko/blogs/big-data/submitting-user-applications-with-spark-submit/
'소프트웨어-이야기 > 데이터 저장소 + 시각화 ' 카테고리의 다른 글
[DB] 갈레라 클러스터의 특이한 점들 (0) | 2017.10.23 |
---|---|
[DB] 갈레라 클러스터 주의사항 - 테이블 변경하기 (0) | 2017.10.16 |
[리서치]람다 아키텍처 (1) | 2017.07.22 |
[Spark]User Define Function (0) | 2017.03.11 |
[Spark]DataFrame을 S3에 CSV으로 저장하기 (0) | 2017.03.11 |