Retrieve stocks data
https://gui-stocks.herokuapp.com/
Este crawler extrai as informações do site do Eduardo que tem várias análises sobre as empresas da Bolsa de Valores.
Criei a API para poder utilizar estas as informações em meu BOT.
Estes endpoints aceitam GET
e POST
.
Com GET
as informações serão recuperadas do Mongodb, com POST
o crawler irá extrair em tempo real e salvar no Mongo.
Clone este repositório
$ git clone git@github.com:Guilehm/stocks-crawler.git
Entre no diretório
$ cd stocks-crawler
Copie o arquivo env.sample
para .env
$ cp env.sample .env
Utilize algum editor para alterar suas credenciais*
$ vim .env
para obter as credenciais se cadastre aqui.
faça o cadastro com e-mail e senha, não utilize o login do Facebook.*
(se quiser rodar sem Docker, vá para a próxima etapa)
É necessário ter o Docker e o Docker-compose instalados em sua máquina.
Recomendo este tutorial de instalação para o Linux https://www.digitalocean.com/community/tutorials/como-instalar-e-usar-o-docker-no-ubuntu-18-04-pt
Após ter concluído as etapas anteriores e estar com o serviço do Docker rodando, execute:
$ docker-compose up
Finalizamos, neste ponto o app deverá estar rodando em http://localhost:5000 e o Mongodb na porta 27017
. Siga os próximos passos apenas se não desejar executar o app via Docker.
Crie o ambiente virtual (necessário Pipenv)
$ pipenv install
Ative o ambiente virtual
$ pipenv shell
Execute o app
$ env $(cat .env) python app.py
Execute o comando abaixo para obter ajuda
$ python main.py --help
Inicie o crawler:
$ python main.py
Caso ocorra o seguinte erro:
Error starting userland proxy: listen tcp 0.0.0.0:5000: bind: address already in use
Pare a execução do seu mongo local com o seguinte comando:
$ sudo systemctl stop mongodb
Faça o build novamente
$ docker-compose up --build