Spark Dataframe 에서 특정 컬럼 타입 변경
Spark 에서 Schema 를 지정해 Dataframe 을 생성한다면 좋겠지만 csv 등 schemaless 하게 Dataframe 을 생성한 경우 타입을 변경해야 할 일이 있을 수 있다. 기본적으로 아래와 같이 캐스팅 하면 된다. df.withColumn(columnName, col(columnName).cast("type")) 만약 변경해야 하는 컬럼이 여러 개라면? import org.apache.spark.sql.DataFrame import org.apache.spark.sql.functions._ val DEFAULT_COLUMN_TYPES_MAP = Map( "SEQ" -> "decimal(9,0)", "AMT" -> "decimal(9,0)" ) object DataFrameExtens..
BigData/Spark
2023. 10. 27. 20:13
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- spark
- 데이터 리터러시
- bigdata
- linux
- Sqoop
- 태그를 입력해 주세요.
- json
- Hdfs
- db
- jackson
- Apache Spark
- Learning Spark
- flume
- Django
- mongodb
- 데이터과학자
- 알고리즘
- Git
- mongo
- 책요약
- Oracle
- java
- spring
- jenkins
- PYTHON
- exception
- mysql
- jenkins2.0
- HADOOP
- 확률분포
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함