您所在的位置:开发 > 大数据应用 > Spark实战:单节点本地模式搭建Spark运行环境

Spark实战:单节点本地模式搭建Spark运行环境

2014-09-16 10:13 强子哥哥 强子哥哥的博客 字号:T | T
一键收藏,随时查看,分享好友!

Spark与Hadoop一样,是一种开源的集群计算环境,但在特定工作负载情况下比Hadoop更高效。Spark采用基于内存的分布式数据集,优化了迭代式的工作负载以及交互式查询。下面作者将通过单节点本地模式搭建Spark运行环境

AD:

前言:

Spark本身用scala写的,运行在JVM之上。

JAVA版本:java 6 /higher edition.

1 下载Spark

http://spark.apache.org/downloads.html

你可以自己选择需要的版本,这里我的选择是:

http://d3kbcqa49mib13.cloudfront.net/spark-1.1.0-bin-hadoop1.tgz

如果你是奋发图强的好码农,你可以自己下载源码:http://github.com/apache/spark.

注意:我这里是运行在Linux环境下。没有条件的可以安装下虚拟机之上!

2 解压缩&进入目录

tar -zvxf spark-1.1.0-bin-hadoop1.tgz

cd spark-1.1.0-bin-hadoop1/

3 启动shell

./bin/spark-shell

你会看到打印很多东西,最后显示

4 小试牛刀

先后执行下面几个语句

  1. val lines = sc.textFile("README.md")   
  2.  
  3. lines.count()   
  4.  
  5. lines.first()   
  6.  
  7. val pythonLines = lines.filter(line => line.contains("Python"))   
  8.  
  9. scala> lines.first()  
  10. res0: String = ## Interactive Python Shel  

---解释,什么是sc

sc是默认产生的SparkContext对象。

比如

  1. scala> sc  
  2. res13: org.apache.spark.SparkContext = org.apache.spark.SparkContext@be3ca72 

这里只是本地运行,先提前了解下分布式计算的示意图:

 

5 独立的程序 

最后以一个例子结束本节

为了让它顺利运行,按照以下步骤来实施即可:

--------------目录结构如下:

  1. /usr/local/spark-1.1.0-bin-hadoop1/test$ find .  
  2. .  
  3. ./src  
  4. ./src/main  
  5. ./src/main/scala  
  6. ./src/main/scala/example.scala  
  7. ./simple.sbt 

然后simple.sbt的内容如下:

  1. name :"Simple Project"  

  1. version :"1.0"   

  1. scalaVersion :"2.10.4"  

  1. libraryDependencies += "org.apache.spark" %% "spark-core" % "1.1.0" 

example.scala的内容如下: 

  1. import org.apache.spark.SparkConf  
  2.  import org.apache.spark.SparkContext  
  3.  import org.apache.spark.SparkContext._   
  4.  
  5. object example {  
  6.    def main(args: Array[String]) {  
  7.     val conf = new SparkConf().setMaster("local").setAppName("My App")  
  8.     val sc = new SparkContext("local""My App")  
  9.     sc.stop()  
  10.     //System.exit(0)  
  11.     //sys.exit()  
  12.     println("this system exit ok!!!")  
  13.    }  
  14.  }  

红色local:一个集群的URL,这里是local,告诉spark如何连接一个集群,local表示在本机上以单线程运行而不需要连接到某个集群。

橙黄My App:一个项目的名字,

然后执行:sbt package

成功之后执行

./bin/spark-submit  --class  "example"   ./target/scala-2.10/simple-project_2.10-1.0.jar

结果如下:

说明确实成功执行了!

结束!

本文来自:http://my.oschina.net/qiangzigege/blog/313859

【编辑推荐】

  1. Twitter将采用Spark分析大数据
  2. Spark:一个高效的分布式计算系统
  3. 利用Scala语言开发Spark应用程序
  4. Spark:利用Eclipse构建Spark集成开发环境
  5. 将Spark部署到Hadoop 2.2.0上
【责任编辑:林师授 TEL:(010)68476606】



分享到:

热点职位

更多>>

热点专题

更多>>

读书

程序设计实践双语版
程序设计实践并不只是写代码。程序员必须评论各种折衷方案,在许多可能性之中做出选择、排除错误、做测试和改进程序性能,还要维

51CTO旗下网站

领先的IT技术网站 51CTO 领先的中文存储媒体 WatchStor 中国首个CIO网站 CIOage 中国首家数字医疗网站 HC3i 51CTO学院