Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 광고플랫폼
- submodules
- 페이스북광고
- funnel
- 사이드프로젝트
- 구글검색광고
- 토이프로젝트
- 카카오톡공유하기
- 개인앱
- 스케치데브
- nestjs
- 영원회귀
- 카카오톡
- 룩백
- 펀널
- 캐치마인드
- 블랙서바이벌
- git
- 라인광고플랫폼
- Redis
- 메모장앱
- 부업
- Kotlin
- 코딩공부
- 플러터
- nodejs
- 이터널리턴
- 개발자를_위한 #PPT팁
- 스케치퀴즈
- git pull
Archives
- Today
- Total
가을기 Workspace
[개발] spark DataFrame 을 MySQL에 저장하기 본문
JDBC를 통해 접근하기 때문에 driver가 필요하다.
SBT를 사용하므로, build.sbt에 maven의 mysql-connector-java 를 추가한다.
import org.apache.spark.sql.SaveMode
val jdbcUrl = "jdbc:mysql://{host}:{port}/{db_name}"
val df = spark.table("...")
println(df.rdd.partitions.length)
// given the number of partitions above, users can reduce the partition value by calling coalesce() or increase it by calling repartition() to manage the number of connections.
df.repartition(10)
.write.mode(SaveMode.Append)
.jdbc(jdbcUrl, "product_mysql", connectionProperties)
'개발 > Data Engineering' 카테고리의 다른 글
Bitset, RoaringBitmap 설명 (0) | 2021.07.21 |
---|---|
Apache Spark 소개 및 기본 설명 (0) | 2021.07.17 |
[개발] spark에서 특정 조건의 최신 row들 가져오기 (0) | 2021.06.02 |
Comments