Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 스케치데브
- 이터널리턴
- 스케치퀴즈
- 토이프로젝트
- 개인앱
- submodules
- 코딩공부
- 영원회귀
- nestjs
- nodejs
- 캐치마인드
- 룩백
- 플러터
- 펀널
- git pull
- git
- 사이드프로젝트
- 블랙서바이벌
- 카카오톡
- 부업
- 라인광고플랫폼
- 메모장앱
- Kotlin
- Redis
- 카카오톡공유하기
- 광고플랫폼
- 페이스북광고
- 구글검색광고
- 개발자를_위한 #PPT팁
- funnel
Archives
- Today
- Total
가을기 Workspace
[개발] spark DataFrame 을 MySQL에 저장하기 본문
JDBC를 통해 접근하기 때문에 driver가 필요하다.
SBT를 사용하므로, build.sbt에 maven의 mysql-connector-java 를 추가한다.
import org.apache.spark.sql.SaveMode
val jdbcUrl = "jdbc:mysql://{host}:{port}/{db_name}"
val df = spark.table("...")
println(df.rdd.partitions.length)
// given the number of partitions above, users can reduce the partition value by calling coalesce() or increase it by calling repartition() to manage the number of connections.
df.repartition(10)
.write.mode(SaveMode.Append)
.jdbc(jdbcUrl, "product_mysql", connectionProperties)
'개발 > Data Engineering' 카테고리의 다른 글
Bitset, RoaringBitmap 설명 (0) | 2021.07.21 |
---|---|
Apache Spark 소개 및 기본 설명 (0) | 2021.07.17 |
[개발] spark에서 특정 조건의 최신 row들 가져오기 (0) | 2021.06.02 |
Comments