系统: Debian 9

记录一下我怎么装Horizon的,这样服务器被封后,可以迅速重建。

1
apt install curl vim -y

安装Docker

1
2
curl -fsSL https://get.docker.com -o get-docker.sh
sh get-docker.sh

Elasticsearch

配置 elasticsearch/elasticsearch.yml

1
network.host: 127.0.0.1
1
docker run -d --network host --name elasticsearch -v esdata:/usr/share/elasticsearch/data -e "discovery.type=single-node"  -v "$(pwd)"/elasticsearch/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml elasticsearch:7.0.0

安装ik插件

1
2
docker exec -it elasticsearch /usr/share/elasticsearch/bin/elasticsearch-plugin install -b https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.0.0/elasticsearch-analysis-ik-7.0.0.zip
docker restart elasticsearch

然后 GET http://127.0.0.1:9200/_cat/plugins?v&s=component&h=name,component,version,description,验证一下。

1
2
name           component   version description
VM-0-10-debian analysis-ik 7.0.0 IK Analyzer for Elasticsearch

Kibana

配置,kibana/kibana.yml

1
2
server.host: localhost 
elasticsearch.hosts: "http://localhost:9200"
1
docker run -d --network host --name kibana -v "$(pwd)"/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml kibana:7.0.0

ZeroNet

安装python2

目前还是用py2版本的ZeroNet

1
apt install python-pip git unzip -y
1
2
3
4
5
6
7
wget https://github.com/HelloZeroNet/ZeroNet/archive/master.zip -O ZeroNet.zip
unzip ZeroNet.zip
rm ZeroNet.zip
mv ZeroNet-master ZeroNet
cd ZeroNet
pip install -r requirements.txt
# python zeronet.py

Horizon爬虫

安装node10

1
2
3
4
5
6
7
cd ..
curl -sL https://deb.nodesource.com/setup_10.x | bash -
apt-get install -y gcc g++ make
apt-get install -y nodejs
curl -sL https://dl.yarnpkg.com/debian/pubkey.gpg | sudo apt-key add -
echo "deb https://dl.yarnpkg.com/debian/ stable main" | sudo tee /etc/apt/sources.list.d/yarn.list
apt-get update && apt-get install yarn
1
2
3
4
5
6
wget https://github.com/v4ww/HorizonSpider/archive/node.zip -O horizon.zip
unzip horizon.zip
rm horizon.zip
mv HorizonSpider-node HorizonSpider
cd HorizonSpider
yarn

反向代理

到此就基本安装完毕了,但现在的设计是把计算节点放在国内,网站架设在国外。具体原因你懂的。

显然,计算节点被封的可能性更大,因为版权问题。
所以就要用反向代理服务器SSH连入计算节点。

用ssh而不是别的,你懂的。

1
2
3
apt-get install autossh -y
scp ~/.ssh/id_rsa root@<Reverse proxy>:/root/.ssh/
autossh -L 5601:localhost:5601 -L 9200:localhost:9200 -N -T root@<Computing node> -f

然后架设网站?

爬虫数据库换了,代码还没写完呢。

为确保安全,国内节点只用SSH端口转发

1
ssh -L 5601:localhost:5601 -L 9200:localhost:9200  -N -T root@<Computing node>