| 000 | 00000cam c2200205 c 4500 | |
| 001 | 000045896962 | |
| 005 | 20170303142455 | |
| 007 | ta | |
| 008 | 170302s2017 ggka 001c kor | |
| 020 | ▼a 9791158390549 ▼g 93000 | |
| 035 | ▼a (KERIS)BIB000014402505 | |
| 040 | ▼a 211062 ▼c 211062 ▼d 211009 | |
| 082 | 0 4 | ▼a 006.312 ▼2 23 |
| 085 | ▼a 006.312 ▼2 DDCK | |
| 090 | ▼a 006.312 ▼b 2017 | |
| 100 | 1 | ▼a 백성민 |
| 245 | 2 0 | ▼a (빅데이터 분석을 위한) 스파크 2 프로그래밍 : ▼b 대용량 데이터 처리부터 머신러닝까지 / ▼d 백성민 지음 |
| 260 | ▼a 파주 : ▼b 위키북스, ▼c 2017 | |
| 300 | ▼a xv, 562 p. : ▼b 삽화 ; ▼c 24 cm | |
| 440 | 0 0 | ▼a 데이터베이스 & 빅데이터 시리즈 ; ▼v 015 |
| 500 | ▼a 부록: 스칼라란? | |
| 500 | ▼a 색인수록 | |
| 945 | ▼a KLPA | |
| 949 | ▼a 데이터베이스 and 빅데이터 시리즈 ; ▼v 015 |
Holdings Information
| No. | Location | Call Number | Accession No. | Availability | Due Date | Make a Reservation | Service |
|---|---|---|---|---|---|---|---|
| No. 1 | Location Main Library/Monographs(3F)/ | Call Number 006.312 2017 | Accession No. 111767939 (7회 대출) | Availability Available | Due Date | Make a Reservation | Service |
Contents information
Book Introduction
빅데이터 분야의 기존 스타들과의 연동을 통해 데이터 처리와 관련된 거의 대부분의 영역에서 영향력을 넓혀가고 있는 스파크(Spark). 이를 처음 접하는 개발자들이 빠른 시간에 스파크의 정의와 활용 방법 등 실무에 필요한 감을 잡을 수 있도록 스파크 전체 모듈에 대한 설명과 예제를 담고 있다. 스파크를 써 보고 싶지만 새로운 언어를 배우는 부담 때문에 망설이던 개발자들을 위해 스칼라, 자바, 파이썬 예제도 수록하였다.
스파크를 처음 접하는 입문자를 위한 안내서!
2017년 현재, 스파크는 RDD보다도 더 뛰어난 기능으로 무장한 데이터셋을 추가로 도입해서 머신러닝, 그래프 알고리즘, 실시간 스트리밍 처리는 물론이고 하둡, R, 하이브(Hive), 카프카(Kafka), 아파치 제플린(Zeppelin) 등 빅데이터 분야의 기존 스타들과의 연동을 통해 데이터 처리와 관련된 거의 대부분의 영역에서 영향력을 넓혀가고 있다.
이 책은 스파크를 처음 접하는 개발자들이 빠른 시간 내에 스파크가 무엇이고 어디에 어떻게 활용할 수 있는지 실무에 필요한 감을 잡을 수 있도록 스파크 전체 모듈에 대한 설명과 예제를 담고 있다. 특히 스파크를 써 보고 싶지만 새로운 언어를 배우는 부담 때문에 망설이던 개발자들을 위해 스칼라, 자바, 파이썬 예제를 수록하였다.
Information Provided By: :
Author Introduction
Table of Contents
▣ 01장: 스파크 소개 1.1 스파크 __1.1.1 빅데이터의 등장 __1.1.2 빅데이터의 정의 __1.1.3 빅데이터 솔루션 __1.1.4 스파크 __1.1.5 RDD(Resilient Distributed Dataset) 소개와 연산 __1.1.6 DAG __1.1.7 람다 아키텍처 1.2 스파크 설치 __1.2.1 스파크 실행 모드의 이해 __1.2.2 사전 준비 __1.2.3 스파크 설치 __1.2.4 예제 실행 __1.2.5 스파크 셸 __1.2.6 실행 옵션 __1.2.7 더 살펴보기 1.3 개발 환경 구축 __1.3.1 로컬 개발 환경 구축 1.4 예제 프로젝트 설정 __1.4.1 WordCount 예제 실행 1.5 정리 ▣ 02장: RDD 2.1 RDD __2.1.1 들어가기에 앞서 __2.1.2 스파크컨텍스트 생성 __2.1.3 RDD 생성 __2.1.4 RDD 기본 액션 __2.1.5 RDD 트랜스포메이션 __2.1.6 RDD 액션 __2.1.7 RDD 데이터 불러오기와 저장하기 __2.1.8 클러스터 환경에서의 공유 변수 __2.1.9 정리 2.2 정리 ▣ 03장: 클러스터 환경 3.1 클러스터 환경 __3.1.1 클러스터 모드와 컴포넌트 __3.1.2 클러스터 모드를 위한 시스템 구성 __3.1.3 드라이버 프로그램과 디플로이 모드 3.2 클러스터 매니저 __3.2.1 스탠드얼론 클러스터 매니저 __3.2.2 Apache Mesos __3.2.3 얀 __3.2.4 히스토리 서버와 매트릭스 ▣ 04장: 스파크 설정 4.1 스파크 프로퍼티 4.2 환경변수 4.3 로깅 설정 4.4 스케줄링 __4.4.1 애플리케이션 간의 자원 스케줄링 __4.4.2 단일 애플리케이션 내부에서의 자원 스케줄링 4.5 정리 ▣ 05장: 스파크 SQL 5.1 데이터셋 5.2 연산의 종류와 주요 API 5.3 코드 작성 절차 및 단어 수 세기 예제 5.4 스파크세션 5.5 데이터프레임, 로우, 칼럼 __5.5.1 데이터프레임 생성 __5.5.2 주요 연산 및 사용법 5.6 데이터셋 __5.6.1 데이터셋 생성 __5.6.2 타입 트랜스포메이션 연산 5.7 하이브 연동 5.8 분산 SQL 엔진 5.9 Spark SQL CLI 5.10 정리 ▣ 06장: 스파크 스트리밍 6.1 개요 및 주요 용어 __6.1.1 스트리밍컨텍스트 __6.1.2 DStream(Discretized Streams) 6.2 데이터 읽기 __6.2.1 소켓 __6.2.2 파일 __6.2.3 RDD 큐(Queue of RDD) __6.2.4 카프카(Kafka) 6.3 데이터 다루기(기본 연산) __6.3.1 print() __6.3.2 map(func) __6.3.3 flatMap(func) __6.3.4 count(), countByValue() __6.3.5 reduce(func), reduceByKey(func) __6.3.6 filter(func) __6.3.7 union() __6.3.8 join() 6.4 데이터 다루기(고급 연산) __6.4.1 transform(func) __6.4.2 updateStateByKey() __6.4.3 윈도우 연산 __6.4.4 window(windowLength, slideInterval) __6.4.5 countByWindow(windowLength, slideInterval) __6.4.6 reduceByWindow(func, windowLength, slideInterval) __6.4.7 reduceByKeyAndWindow(func, invFunc, windowLength, slideInterval, [numTasks]) __6.4.8 countByValueAndWindow(windowLength, slideInterval, [numTasks]) 6.5 데이터의 저장 __6.5.1 saveAsTextFiles(), saveAsObjectFiles(), saveAsHadoopFiles() __6.5.2 foreachRDD() 6.6 CheckPoint 6.7 캐시 6.8 모니터링 6.9 주요 설정 ▣ 07장: 스트럭처 스트리밍 7.1 개요 7.2 프로그래밍 절차 7.3 데이터프레임과 데이터셋 생성 7.4 스트리밍 연산 __7.4.1 기본 연산 및 조인 연산 __7.4.2 윈도우 연산 __7.4.3 워터마킹 __7.4.4 스트리밍 쿼리 7.5 정리 ▣ 08장: MLlib 8.1 개요 8.2 관측과 특성 8.3 레이블 8.4 연속형 데이터와 이산형 데이터 8.5 알고리즘과 모델 8.6 파라메트릭 알고리즘 8.7 지도학습과 비지도학습 8.8 훈련 데이터와 테스트 데이터 8.9 MLlib API 8.10 의존성 설정 8.11 벡터와 LabeledPoint __8.11.1 벡터 __8.11.2 LabeledPoint 8.12 파이프라인 8.13 알고리즘 __8.13.1 Tokenizer __8.13.2 TF-IDF __8.13.3 StringIndexer, IndexToString 8.14 회귀와 분류 __8.14.1 회귀 __8.14.2 분류 8.15 클러스터링 8.16 협업 필터링 8.17 정리 ▣ 09장: SparkR 9.1 개요 9.2 R 설치 및 실행 9.3 데이터프레임 9.4 데이터프레임 생성 __9.4.1 R데이터프레임으로부터 생성 __9.4.2 파일로부터 생성 9.5 데이터프레임 연산 __9.5.1 조회 및 기본 연산 __9.5.2 그룹 및 집계 연산 __9.5.3 칼럼 연산 __9.5.4 집합 연산 __9.5.5 dapply(), dapplyCollect() __9.5.6 gapply(), gapplyCollect() __9.5.7 spark.lapply() __9.5.8 createOrReplaceTempView() __9.5.9 write() 9.6 하이브 연동 9.7 머신러닝 9.8 정리 ▣ 10장: GraphX 10.1 주요 용어 __10.1.1 유방향 그래프 __10.1.2 유방향 멀티 그래프 __10.1.3 속성 그래프 10.2 데이터 타입 __10.2.1 RDD __10.2.2 VertextID __10.2.3 꼭짓점 __10.2.4 선(Edge) __10.2.5 EdgeTriplet __10.2.6 VertexRDD __10.2.7 EdgeRDD __10.2.8 Graph 10.3 그래프 생성 10.4 그래프 연산 __10.4.1 numEdges, numVertices __10.4.2 inDegrees, outDegrees, degrees __10.4.3 vertices, edges, triplets __10.4.4 mapVertices(), mapEdges(), mapTriplets() __10.4.5 reverse() __10.4.6 subgraph() __10.4.7 mask() __10.4.8 groupEdges() __10.4.9 joinVertices(), outerJoinVertices() __10.4.10 collectNeighborIds(), collectNeighbors() __10.4.11 aggregateMessages() __10.4.12 pregel() 10.5 VertextRDD, EdgeRDD 연산 10.6 그래프 알고리즘 10.7 정리 ▣ 부록: 스칼라란? 부록.1 스칼라 설치 부록.2 스칼라 셸 부록.3 변수 타입과 변수 선언 부록.4 Range와 형변환 부록.5 클래스, 객체, 컴패니언 오브젝트 부록.6 트레이트와 상속 부록.7 apply 부록.8 튜플과 옵션, 케이스클래스 부록.9 패턴 매치 부록.10 패키지 객체 부록.11 type 부록.12 임포트 부록.13 함수와 메서드 부록.14 제네릭 부록.15 암묵적 변환과 타입 클래스 패턴 부록.16 정리



