重装一遍好了,貌似之前是java的jps的权限问题,无法在/tmp/下生成新的id文件,我是重装后成功的
之前进程是在的,服务也确定确定能起来,再启动会弹already started,ps里面有个java进程应该就是它,Namenode的log里都是info没有error
alan@ubuntu-app:~/hadoop/hadoop-2.2.0$ ps -ef|grep java
alan 2240 1 2 22:42 pts/0 00:00:03 /home/alan/hadoop/jdk1.8.0_25/bin/java -Dproc_namenode -Xmx1000m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/home/alan/hadoop/hadoop-2.2.0/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/alan/hadoop/hadoop-2.2.0 -Dhadoop.id.str=alan -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/alan/hadoop/hadoop-2.2.0/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Djava.net.preferIPv4Stack=true -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/home/alan/hadoop/hadoop-2.2.0/logs -Dhadoop.log.file=hadoop-alan-namenode-ubuntu-app.log -Dhadoop.home.dir=/home/alan/hadoop/hadoop-2.2.0 -Dhadoop.id.str=alan -Dhadoop.root.logger=INFO,RFA -Djava.library.path=/home/alan/hadoop/hadoop-2.2.0/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,RFAS org.apache.hadoop.hdfs.server.namenode.NameNode
alan 2335 1408 0 22:45 pts/0 00:00:00 grep --color=auto java