最近要在裝有Debian系統的Banana Pi安裝Hadoop & Spark
從原本裝在CentOS的master複製過去後發現JAVA的路徑不正確
按照習慣的邏輯卻完全找不到究竟在哪裡,於是費勁千辛萬苦終於找到了
/usr/lib/jvm/jdk-7-oracle-armhf
然後再到以下檔案改Hadoop的參數~
hduser@banana01 ~ $ sudo vi /etc/profile
hduser@banana01 ~ $ vi /home/hduser/.bashrc
hduser@banana01 ~ $ vi /opt/hadoop/libexec/hadoop-config.sh
hduser@banana01 ~ $ vi /opt/hadoop/etc/hadoop/hadoop-env.sh
hduser@banana01 ~ $ vi /opt/hadoop/etc/hadoop/yarn-env.sh
原本大概是長這樣
export JAVA_HOME=/usr/java/jdk1.7.0_65
Banana Pi要改成這樣~
export JAVA_HOME=/usr/lib/jvm/jdk-7-oracle-armhf
別忘了給Hadoop&Spark權限
sudo chown -R hduser:hadoop /opt/hadoop
sudo chown -R hduser:hadoop /opt/spark
如果還有第234....多台Pi要加入cluster
將系統燒成映像檔,再燒入到其他張SD卡再做以下設定即可
各別將它們設定IP
sudo nano /etc/network/interfaces
設定hostname (Banana02)
sudo nano /etc/hostname
最後別忘了給Hadoop&Spark權限
sudo chown -R hduser:hadoop /opt/hadoop
sudo chown -R hduser:hadoop /opt/spark
改完就可以啟動Hadoop&Spark囉!