国产成人精品亚洲777人妖,欧美日韩精品一区视频,最新亚洲国产,国产乱码精品一区二区亚洲

您的位置:首頁技術(shù)文章
文章詳情頁

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

瀏覽:56日期:2024-07-13 13:57:41
下載安裝Hadoop

下載安裝包

進(jìn)入官網(wǎng)下載下載hadoop的安裝包(二進(jìn)制文件)http://hadoop.apache.org/releases.html

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

我們這里下載2.10.1版本的,如果想下載更高版本的請先去maven倉庫查看是否有對應(yīng)版本

解壓文件

下載好的.gz文件可以直接解壓。

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

winRAR和Bandizip都可以用來解壓,但是注意必須以管理員身份打開解壓軟件,否則會出現(xiàn)解壓錯誤

配置環(huán)境變量

配置JAVA_HOME和HADOOP_HOME

我們在環(huán)境變量處分別設(shè)置JAVA_HOME和HADOOP_HOME

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

然后在Path里添加JAVA和hadoop的二進(jìn)制文件夾,bin文件夾

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

驗證環(huán)境變量配置

打開你的cmd,輸入以下命令,出現(xiàn)我這樣的輸出說明配置環(huán)境變量成功:

C:Userslenovo>hadoop -version

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

HDFS配置

來到之前解壓的hadoop文件夾下,打開etc/hadoop文件夾

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

現(xiàn)在我們的任務(wù)就是修改這些文件當(dāng)中的代碼,務(wù)必修改,不然根本無法運行hadoop!!

修改 hadoop-env.cmd

將configuration處更改為:

<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://0.0.0.0:9000</value> </property></configuration>

修改 hdfs-site.xml

將configuration處更改為如下所示,其中file:///E:/DevTols/hadoop-2.10.1/namespace_logsfile:///E:/DevTols/hadoop-2.10.1/data這兩個文件夾一定需要是已經(jīng)存在的文件夾,你可以在你的hadoop文件夾下隨意創(chuàng)建兩個文件夾,然后將下面的這兩個文件夾的絕對路徑替換成你的文件夾,這里我也是創(chuàng)建了兩個新的文件夾,hadoop的下載文件夾里本身是沒有的。

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

將configuration標(biāo)簽及內(nèi)容替換為

<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>file:///E:/DevTols/hadoop-2.10.1/namespace_logs</value> </property> <property> <name>dfs.data.dir</name> <value>file:///E:/DevTols/hadoop-2.10.1/data</value> </property></configuration>

修改 mapred-site.xml

將下方的%USERNAME%替換成你windows的用戶名用戶名可以通過win鍵查看

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

<configuration> <property> <name>mapreduce.job.user.name</name> <value>%USERNAME%</value> </property> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>yarn.apps.stagingDir</name> <value>/user/%USERNAME%/staging</value> </property> <property> <name>mapreduce.jobtracker.address</name> <value>local</value> </property></configuration>

注意以上代碼有兩個地方的%USERNAME%需要替換,不要漏了!!!

修改 yarn-site.xml

<configuration> <property> <name>yarn.server.resourcemanager.address</name> <value>0.0.0.0:8020</value> </property> <property> <name>yarn.server.resourcemanager.application.expiry.interval</name> <value>60000</value> </property> <property> <name>yarn.server.nodemanager.address</name> <value>0.0.0.0:45454</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.server.nodemanager.remote-app-log-dir</name> <value>/app-logs</value> </property> <property> <name>yarn.nodemanager.log-dirs</name> <value>/dep/logs/userlogs</value> </property> <property> <name>yarn.server.mapreduce-appmanager.attempt-listener.bindAddress</name> <value>0.0.0.0</value> </property> <property> <name>yarn.server.mapreduce-appmanager.client-service.bindAddress</name> <value>0.0.0.0</value> </property> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>-1</value> </property> <property> <name>yarn.application.classpath</name> <value>%HADOOP_CONF_DIR%,%HADOOP_COMMON_HOME%/share/hadoop/common/*,%HADOOP_COMMON_HOME%/share/hadoop/common/lib/*,%HADOOP_HDFS_HOME%/share/hadoop/hdfs/*,%HADOOP_HDFS_HOME%/share/hadoop/hdfs/lib/*,%HADOOP_MAPRED_HOME%/share/hadoop/mapreduce/*,%HADOOP_MAPRED_HOME%/share/hadoop/mapreduce/lib/*,%HADOOP_YARN_HOME%/share/hadoop/yarn/*,%HADOOP_YARN_HOME%/share/hadoop/yarn/lib/*</value> </property></configuration>

初始化環(huán)境變量

在windows下的cmd,輸入cmd的命令,用于初始化環(huán)境變量。

%HADOOP_HOME%etchadoophadoop-env.cmd

格式化文件系統(tǒng)

這個命令在整個hadoop的配置環(huán)境和之后的使用當(dāng)中務(wù)必僅使用一次!將如下的命令輸入到cmd當(dāng)中進(jìn)行格式化:

hadoop namenode -format

會彈出一大堆指令,只要看到其中有如下提示,就說明格式化成功

INFO common.Storage: Storage directory E:DevTolshadoop-2.10.1namespace_logs has been successfully formatted.

向hadoop文件當(dāng)中注入winutills文件

由于windows下想要開啟集群,會有一定的bug,因此我們?nèi)ゾW(wǎng)站:https://github.com/steveloughran/winutils下載對應(yīng)版本的winutils.exe文件。打開這個Github倉庫后如下所示:

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

我們打開hadoop2.8.3/bin,選擇其中的winutils.exe文件進(jìn)行下載,然后將下載的這個文件放入到本地的hadoop/bin文件當(dāng)中。不然的話,你打開一會兒你的偽分布式集群,馬上hadoop就會自動關(guān)閉,缺少這兩個文件的話。

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

向hadoop文件當(dāng)中添加hadoop.dll文件

hadoop.dll文件是啟動集群時必須的,如果在安裝過程中悲催地發(fā)現(xiàn)/bin目錄下沒有該文件(比如博主),就需要去網(wǎng)上自學(xué)下載該文件。進(jìn)入網(wǎng)頁https://github.com/4ttty/winutils,根據(jù)箭頭所指步驟下載hadoop.dll文件

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

下載完成后,把文件添加到/bin目錄

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

開啟hadoop集群

在cmd當(dāng)中輸入

%HADOOP_HOME%/sbin/start-all.cmd

這樣就會跳出來很多黑色的窗口,如下所示:

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

然后可以使用JPS工具查看目前開啟的node有哪些,如果出現(xiàn)namenode,datanode的話說明集群基本上就成功了。如下所示:

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

打開本地瀏覽器進(jìn)行驗證

我們在瀏覽器輸入localhost:50070,如果能夠打開這樣的網(wǎng)頁,說明hadoop已經(jīng)成功開啟:

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

IDEA 配置

歷經(jīng)千辛萬苦我們總算安裝完Hadoop了,下面在IDEA上用maven配置hadoop

創(chuàng)建MAVEN項目工程

打開IDEA之后,里面的參數(shù)和項目工程名稱隨便寫,等待工程創(chuàng)建完畢即可。然后我們編輯pom.xml文件

<?xml version='1.0' encoding='UTF-8'?><project xmlns='http://maven.apache.org/POM/4.0.0' xmlns:xsi='http://www.w3.org/2001/XMLSchema-instance' xsi:schemaLocation='http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd'> <modelVersion>4.0.0</modelVersion> <groupId>com.atguigu</groupId> <artifactId>hdfs1205</artifactId> <version>1.0-SNAPSHOT</version> <properties><maven.compiler.source>8</maven.compiler.source><maven.compiler.target>8</maven.compiler.target> </properties> <dependencies><dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>RELEASE</version></dependency><dependency> <groupId>org.apache.logging.log4j</groupId> <artifactId>log4j-core</artifactId> <version>2.8.2</version></dependency><dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.10.1</version></dependency><dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.10.1</version></dependency><dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-hdfs</artifactId> <version>2.10.1</version></dependency> </dependencies></project>

點擊右下方的auto-import,自動安裝jar包。完成后左側(cè)External Libraries可以看到添加了很多個jar包,如下圖

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

這樣就說明我們導(dǎo)入maven倉庫成功了。

編寫log4j.proporties配置文件

在src/main/resources目錄下創(chuàng)建log4j.proporties文件,編寫如下代碼

log4j.rootLogger=debug, stdout, Rlog4j.appender.stdout=org.apache.log4j.ConsoleAppenderlog4j.appender.stdout.layout=org.apache.log4j.PatternLayout# Pattern to output the caller’s file name and line number.log4j.appender.stdout.layout.ConversionPattern=%5p [%t] (%F:%L) - %m%nlog4j.appender.R=org.apache.log4j.RollingFileAppenderlog4j.appender.R.File=example.loglog4j.appender.R.MaxFileSize=100KB# Keep one backup filelog4j.appender.R.MaxBackupIndex=5log4j.appender.R.layout=org.apache.log4j.PatternLayoutlog4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n編寫Java文件

終于到最后一步了,編寫java文件并執(zhí)行別忘了先hadoop偽分布式集群!!!cmd中編寫%HADOOP_HOME%/sbin/start-all.cmd

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileStatus;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import java.net.URI;public class Test { public static void main(String[] args) throws Exception {FileSystem fs = FileSystem.get(new URI('hdfs://127.0.0.1:9000'), new Configuration());FileStatus[] files = fs.listStatus(new Path('/'));for (FileStatus f : files) { System.out.println(f);}System.out.println('Compile Over'); }}

這段代碼的含義是遍歷hadoop文件系統(tǒng)(HDFS)下的root下所有文件的狀態(tài),并輸出

使用IDEA搭建Hadoop開發(fā)環(huán)境的操作步驟(Window10為例)

完成以后在cmd輸入%HADOOP_HOME%/sbin/start-all.cmd關(guān)閉偽集群

為了方便可以配置%HADOOP_HOME%/sbin/start-all.cmd和%HADOOP_HOME%/sbin/start-all.cmd的環(huán)境變量,這里不再贅述,留給讀者發(fā)揮。

到這里Window10下使用IDEA搭建開發(fā)環(huán)境就完成了,撒花!!!

到此這篇關(guān)于Window10下使用IDEA搭建Hadoop開發(fā)環(huán)境的文章就介紹到這了,更多相關(guān)IDEA搭建Hadoop開發(fā)環(huán)境內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: IDEA
相關(guān)文章:
主站蜘蛛池模板: 江门市| 奎屯市| 广宁县| 肃南| 会东县| 左云县| 易门县| 嘉义市| 新河县| 涡阳县| 正阳县| 湖州市| 泗洪县| 弥勒县| 阳原县| 怀安县| 融水| 新郑市| 苗栗县| 浙江省| 永川市| 伊宁市| 伊川县| 兖州市| 马公市| 湟中县| 鲜城| 建昌县| 明光市| 黎川县| 全椒县| 岫岩| 会理县| 菏泽市| 富裕县| 德江县| 寿宁县| 博白县| 上虞市| 西华县| 潮州市|