Scala Spark 在idea下的错误记录
百度真坑爹,一群人互相抄作业,浪费时间
Object apache is not a member of package org…
idea下,使用默认的scala插件开发
错误描述:这个错误是缺少jar配置文件导致的,但是奇怪的是在linux系统下会出现这个问题,但是windows下使用msi安装sbt不会出现这个问题,idea真神奇
错误解决:
- 导入spark下的jars(2.0版本后) 
- 下载 spark-assembly-1.6.0-hadoop2.6.0-6.0.0.jar 然后导入即可,这个包包含了全部的集成环境 
- 不要使用maven了,利用sbt构建环境,新建scala项目,右边选择sbt,在打开的build.sbt中写入以下依赖,版本自行决定 - 1 
 2
 3
 4
 5
 6
 7
 8
 9- name := "LearningSparkWithSBT" 
 version := "0.1"
 scalaVersion := "2.11.8"
 libraryDependencies ++= Seq(
 "org.apache.spark" %% "spark-core" % "2.2.0",
 "org.apache.spark" %% "spark-sql" % "2.2.0"
 )
NOTE: 版本一定要保持一直,spark和对于的scala版本