Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 개인앱
- git
- 구글검색광고
- 부업
- 페이스북광고
- 펀널
- 블랙서바이벌
- 토이프로젝트
- 스케치퀴즈
- 플러터
- 캐치마인드
- Kotlin
- nestjs
- git pull
- 코딩공부
- 룩백
- 스케치데브
- 광고플랫폼
- 카카오톡
- 메모장앱
- Redis
- 영원회귀
- funnel
- nodejs
- submodules
- 개발자를_위한 #PPT팁
- 이터널리턴
- 사이드프로젝트
- 라인광고플랫폼
- 카카오톡공유하기
Archives
- Today
- Total
가을기 Workspace
[개발] spark DataFrame 을 MySQL에 저장하기 본문
JDBC를 통해 접근하기 때문에 driver가 필요하다.
SBT를 사용하므로, build.sbt에 maven의 mysql-connector-java 를 추가한다.
import org.apache.spark.sql.SaveMode
val jdbcUrl = "jdbc:mysql://{host}:{port}/{db_name}"
val df = spark.table("...")
println(df.rdd.partitions.length)
// given the number of partitions above, users can reduce the partition value by calling coalesce() or increase it by calling repartition() to manage the number of connections.
df.repartition(10)
.write.mode(SaveMode.Append)
.jdbc(jdbcUrl, "product_mysql", connectionProperties)
'개발 > Data Engineering' 카테고리의 다른 글
Bitset, RoaringBitmap 설명 (0) | 2021.07.21 |
---|---|
Apache Spark 소개 및 기본 설명 (0) | 2021.07.17 |
[개발] spark에서 특정 조건의 최신 row들 가져오기 (0) | 2021.06.02 |
Comments