大数据关于伪分布的配置
在16.04上下好了hadoop-2.7.3,,存放在home下的hadoop下,怎么将其解压到usr/local下
我尝试过但它说无法打开hadoop-2.7.3,不知道怎么回事,求大佬解答
Hadoop的环境搭建
Notepad++远程操作linux下的远程文件NppFTP插件
环境基础1. linux64位2. JDK 1.7+网络的基本设置修改网卡vi /etc/sysconfig/nework-script/ifcfg-eth0
从新启动网卡service network start|stop|restart # 设置网卡
关闭防火墙# 临时关闭防火墙service iptables stop # 永久关闭防火墙chkconfig iptables off
修改主机名vi /etc/sysconfig/network
主机名映射windowsC:WindowsSystem32driversetchosts192.168.64.10 hadooplinuxvi /etc/hosts
关闭SelinuxSelinux 是红帽子的安全套件 RedHat = centos vi /etc/selinux/configSELINUX=disabled
规范Linux中软件的安装目录#原始安装文件 /opt/models #安装目录 1. 如果软件有默认安装目录则默认安装 /usr2. 如果需要指定安装目录 统一放置在 /opt/install文件夹
安装JDK#rpmrpm -ivh jdkxxxxxvi .bash_profilejava_HOME=/usr/java/jdk1.7.0_71CLASSPATH=.PATH=$JAVA_HOME/bin:$PATH:$HOME/binexport JAVA_HOMEexport CLASSPATHexport PATHsource .bash_profile
9.Hadoop安装
#hadoop的伪分布式环境1. 上传hadoop2.5.2压缩包 /opt/models
2. 解压缩 /opt/install
3. 配置文件配置 etc/hadoop
这个问题一般人看不懂
解压必须有解压密码,,,
还是有些难度的提问。
大数据状态下可以选
上一篇:eclipse无法打开