Written by
in
ต่อจาก Spark #01: Standalone Installation
Apache Spark ทำงานแบบ Master – Slave โดย Spark Cluster Component ดังภาพ
ภาพจาก http://spark.apache.org/docs/latest/img/cluster-overview.png
การใช้งาน Apache Spark จะใช้ผ่านการเขียนโปรแกรมด้วยภาษา Scala, Java, Python หรือ R แล้วสั่งการผ่าน “Driver” ซึ่งจะทำการส่งการไปยัง “Worker” เพื่อให้ Execute ตามที่ต้องการ การสร้าง Cluster จะมี Cluster Manager เป็น Standalone, Apache Mesos และ Hadoop YARN [1]
ในบทความนี้ จะกล่าวถึงเฉพาะ การติดตั้ง Apache Spark Cluster แบบ Standalone คือใช้ Apache Spark เองเป็น Cluster Manager
cp conf/spark-env.sh.template conf/spark-env.sh echo "SPARK_MASTER_HOST=192.168.XXX.YYY" >> conf/spark-env.sh
cp conf/slaves.template conf/slaves echo "192.168.XXX.ZZZ" >> conf/slaves
sbin/start-all.sh
หมายเหตุ: หากไม่ได้ทำ Password-less SSH ก็จะต้องใส่ Password ทีละเครื่องจนเสร็จ
ประมาณนี้
บทความต่อไป จะลงรายละเอียดเกี่ยวกับการเขียน Program เพื่อทำงานบน Spark Cluster
Reference:
Your email address will not be published. Required fields are marked *
Comment *
Name *
Email *
Website
Save my name, email, and website in this browser for the next time I comment.
Δ
Leave a Reply