A-A+

基于Eclipse的Hadoop应用开发环境配置

2014年07月07日 Hadoop 暂无评论 阅读 1,620 views 次

经过hadoop环境搭建运行wordcount第一个程序,接下来我们运用eclipse来开发运行hadoop程序。

Eclipse版本:eclipse-jee-kepler-SR2-linux-gtk.tar

一、添加插件
复制hadoop安装目录/contrib/eclipse-plugin/hadoop-0.20.2-eclipse-plugin.jar 到eclipse安装目录/plugins/ 下。

二、重启eclipse
配置hadoop installation directory。 如果安装插件成功,打开Window—>Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你需要配置Hadoop installation directory。配置完成后退出。

三、配置Map/Reduce Locations。
在Window—>Show View中打开Map/Reduce Locations。 在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键—>New Hadoop Location。在弹出的对话框中你需要配置Location name,如Hadoop,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。如:
Map/Reduce Master

localhost
9001

DFS Master

localhost
9000

配置完后退出。点击DFS Locations—>Hadoop如果能显示文件夹(2)说明配置正确,如果显示”拒绝连接”,请检查你的配置。

四、新建项目。
File—>New—>Other—>Map/Reduce Project项目名可以随便取,如WordCount。复制hadoop安装目录/src/example/org/apache/hadoop /example/WordCount.java到刚才新建的项目下面。

五、上传模拟数据文件夹。
为了运行程序,我们需要一个输入的文件夹,和输出的文件夹。 在本地新建word.txt

java c++ python c
java c++ javascript 
helloworld hadoop
mapreduce java hadoop hbase

通过hadoop的命令在HDFS上创建/workcount目录,命令如下:

bin/hadoop fs -mkdir /wordcount

通过copyFromLocal命令把本地的word.txt复制到HDFS上,命令如下:

bin/hadoop fs -copyFromLocal /home/hadoop/word.txt  /wordcount/word.txt

六、运行项目
1.在新建的项目Hadoop,点击WordCount.java,右键—>Run As—>Run Configurations 2.在弹出的Run Configurations对话框中,点Java Application,右键—>New,这时会新建一个application名为WordCount 3.配置运行参数,点Arguments,在Program arguments中输入“你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹”,

hdfs://localhost:9000/wordcount/word.txt   hdfs://localhost:9000/wordcount/out

七、点击Run,运行程序。
点击Run,运行程序,过段时间将运行完成,等运行结束后,查看运行结果,使用命 令: bin/hadoop fs -ls /wordcount/out查看例子的输出结果,发现有两个文件夹和一个文件,使用命令查看part-r-00000文件, bin/hadoop fs -cat /wordcount/out/part-r-00000可以查看运行结果。

c    1
c++    2
hadoop    2
hbase    1
helloworld    1
java    3
javascript    1
mapreduce    1
python    1

Copyright © 风恋尘香 保留所有权利.   Theme  Ality

用户登录