1.参考官方教程
可以畅通无阻的部署好hadoop,如果是macos的话,也可以参考Mac OS 💡 上搭建 Hadoop 开发环境指南

2.提示 permission denied 的话应该考虑是ssh的问题,根据官方文档,可以通过

  $ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
  $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  $ chmod 0600 ~/.ssh/authorized_keys

解决。
如果已经新建好了id_rsa,直接执行后面两句就可以了。

3.开启dfs节点后,伪分布式(Pseudo-Distributed)下,我这里发现http://localhost:50070/ 访问不了,几次尝试和google,终于发现要在 hdfs-site.xml 种添加下面的属性:

<property>
  <name>dfs.http.address</name>
  <value>0.0.0.0:50070</value>
</property>

然后重新格式化namenode,启动hadoop,即可访问正常。

4.在往 core-site.xml 中添加下面的属性时,

<property>
 <name>fs.defaultFS</name>
 <value>hdfs://localhost:9000</value>
</property>

可以将localhost修改为本机ip(macos 命令为 ifconfig),方便局域网其他设备查看。