Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 페이스북광고
- 스케치데브
- 개인앱
- submodules
- 영원회귀
- 이터널리턴
- 개발자를_위한 #PPT팁
- Kotlin
- 메모장앱
- 스케치퀴즈
- 부업
- 룩백
- Redis
- 카카오톡
- 카카오톡공유하기
- funnel
- 토이프로젝트
- 구글검색광고
- 사이드프로젝트
- git pull
- nodejs
- 라인광고플랫폼
- 플러터
- 코딩공부
- 광고플랫폼
- 블랙서바이벌
- 캐치마인드
- nestjs
- 펀널
- git
Archives
- Today
- Total
가을기 Workspace
[개발] spark DataFrame 을 MySQL에 저장하기 본문
JDBC를 통해 접근하기 때문에 driver가 필요하다.
SBT를 사용하므로, build.sbt에 maven의 mysql-connector-java 를 추가한다.
import org.apache.spark.sql.SaveMode
val jdbcUrl = "jdbc:mysql://{host}:{port}/{db_name}"
val df = spark.table("...")
println(df.rdd.partitions.length)
// given the number of partitions above, users can reduce the partition value by calling coalesce() or increase it by calling repartition() to manage the number of connections.
df.repartition(10)
.write.mode(SaveMode.Append)
.jdbc(jdbcUrl, "product_mysql", connectionProperties)
'개발 > Data Engineering' 카테고리의 다른 글
Bitset, RoaringBitmap 설명 (0) | 2021.07.21 |
---|---|
Apache Spark 소개 및 기본 설명 (0) | 2021.07.17 |
[개발] spark에서 특정 조건의 최신 row들 가져오기 (0) | 2021.06.02 |
Comments