官术网_书友最值得收藏!

SparkSession

SparkSession allows programming with the DataFrame and Dataset APIs. It is a single point of entry for these APIs.

First, we need to create an instance of the SparkConf class and use it to create the SparkSession instance. Consider the following example:

val spConfig = (new SparkConf).setMaster("local").setAppName("SparkApp")
val spark = SparkSession
.builder()
.appName("SparkUserData").config(spConfig)
.getOrCreate()

Next we can use spark object to create a DataFrame:

val user_df = spark.read.format("com.databricks.spark.csv")
.option("delimiter", "|").schema(customSchema)
.load("/home/ubuntu/work/ml-resources/spark-ml/data/ml-100k/u.user")
val first = user_df.first()
主站蜘蛛池模板: 衡水市| 罗源县| 彰化市| 湖口县| 克山县| 巴里| 通化市| 庄河市| 赤水市| 句容市| 仁怀市| 阿克| 宣汉县| 汾阳市| 舞钢市| 尼木县| 泰来县| 江孜县| 万荣县| 天长市| 姜堰市| 化州市| 洛南县| 武威市| 大厂| 平阳县| 土默特右旗| 常德市| 新乐市| 林口县| 霞浦县| 麻阳| 慈溪市| 喀喇| 东城区| 松潘县| 鲁山县| 呼伦贝尔市| 五峰| 盈江县| 仙桃市|