Este projeto realiza uma análise abrangente dos dados de carros de 1970 a 2024. Utilizando um dataset do Kaggle, exploramos tendências, características e outras informações relevantes sobre os veículos ao longo dos anos. Esta análise pode ajudar em estudos de mercado, desenvolvimento de novos produtos e estratégias de marketing.
- Sarah Almeida Dalla Valle Prior #1
- João Vinicius Araújo Rocha #2
- Kassia Cristina de Sousa Lopes #3
- Alesangela Bezerra da Fonseca #4
Esse template foi inicialmente baseado no template de ciência de dados do cookiecutter, mas ao longo do tempo várias modificações foram sendo realizadas. Atualmente o template tem as seguintes características:
- Utilização do arquivo
pyproject.toml
como centralizador de dependências; - Configuração para criação de aplicação Streamlit;
- Utilização de Jupyter Notebooks para análise de dados;
- Documentação com o MkDocs (Material Design Theme).
Para utilizar este template, você precisará de um ambiente com os seguintes softwares:
git
- Python 3.8
- Poetry 1.1.13 ou superior
É aconselhável o uso do pyenv
para o gerenciamento de versões do Python.
Para iniciar um novo projeto a partir deste template:
- Clicar no botão "Use this template" (ou "Usar este modelo").
- Digitar um nome para seu repositório e uma descrição opcional.
- Escolher a visibilidade do projeto (Pública ou privada).
- Clicar em "Create repository from template" (Criar repositório a partir do modelo).
Para clonar o repositório e começar a contribuir:
- Acima da lista de arquivos, clique no botão "Code" (em verde).
- Copie a URL do repositório.
- Utilize uma chave SSH para clonar:
git clone https://github.com/atlantico-academy/equipe4-2024.1
- Navegue até o diretório do repositório clonado:
cd equipe4-2024.1
- Instale as dependências do projeto:
poetry install
- Ative o ambiente virtual criado pelo Poetry:
poetry shell
Após a instalação, você pode iniciar a aplicação Streamlit para visualizar a análise dos dados:
streamlit run app.py
Ou abrir e executar os Jupyter Notebooks para explorar as análises de dados:
jupyter notebook notebooks/
.
├── data/ # Diretório contendo todos os arquivos de dados
│ ├── external/ # Arquivos de dados de fontes externas
│ ├── interim/ # Arquivos de dados intermediários
│ ├── processed/ # Arquivos de dados processados
│ └── raw/ # Arquivos de dados originais, imutáveis
├── docs/ # Documentação gerada através da biblioteca MkDocs
├── models/ # Modelos treinados e serializados, predições ou resumos de modelos
├── notebooks/ # Diretório contendo todos os notebooks utilizados nos passos
├── references/ # Dicionários de dados, manuais e todo o material exploratório
├── src/ # Código fonte utilizado nesse projeto
│ ├── data/ # Classes e funções utilizadas para download e processamento de dados
│ ├── deployment/ # Classes e funções utilizadas para implantação do modelo
│ └── model/ # Classes e funções utilizadas para modelagem
├── app.py # Arquivo com o código da aplicação do Streamlit
├── Procfile # Arquivo de configuração do Heroku
├── pyproject.toml # Arquivo de dependências para reprodução do projeto
├── poetry.lock # Arquivo com sub-dependências do projeto principal
├── README.md # Informações gerais do projeto
└── tasks.py # Arquivo com funções para criação de tarefas utilizadas pelo invoke