Pytorch implementation of Polygon-RNN
- Download data from CityScapes, organize the image files and annotation json files as follows:
img
├── train
│ ├── cityname1
│ │ ├── pic.png
│ │ ├── ...
│ ├── cityname2
│ │ ├── pic.png
│ │ ├── ...
├── val
│ ├── cityname
│ │ ├── pic.png
│ │ ├── ...
├── test
│ ├── cityname
│ │ ├── pic.png
│ │ ├── ...
label
├── train
│ ├── cityname1
│ │ ├── annotation.json
│ │ ├── ...
│ ├── cityname2
│ │ ├── annotation.json
│ │ ├── ...
├── val
│ ├── cityname
│ │ ├── annotation.json
│ │ ├── ...
├── test
│ ├── cityname
│ │ ├── annotation.json
│ │ ├── ...
The png files and the json files should have corresponding same name.
Execute the following command to make directories for new data:
mkdir -p new_img/(train/val/test)
mkdir -p new_label/(train/val/test)
- Run the following command to generate data for train/validation/test.
python generate_data.py --data train/val/test
- Run the following command to train.
python train.py --gpu_id 0 1 2 --batch_size 4 --pretrained False --lr 0.001