╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ /home/mdisk2/tanjunwen/gitprj/mChatGLM_mutli_gpu_tuning/finetune_ptuning.py:34 in │
│ │
│ 31 │ │ return super().forward(x).to(torch.float32) │
│ 32 │
│ 33 │
│ ❱ 34 class ModifiedTrainer(Trainer): │
│ 35 │ def evaluate( │
│ 36 │ │ self, │
│ 37 │ │ eval_dataset: Optional[Dataset] = None, │
│ │
│ /home/mdisk2/tanjunwen/gitprj/mChatGLM_mutli_gpu_tuning/finetune_ptuning.py:37 in │
│ ModifiedTrainer │
│ │
│ 34 class ModifiedTrainer(Trainer): │
│ 35 │ def evaluate( │
│ 36 │ │ self, │
│ ❱ 37 │ │ eval_dataset: Optional[Dataset] = None, │
│ 38 │ │ ignore_keys: Optional[List[str]] = None, │
│ 39 │ │ metric_key_prefix: str = "eval", │
│ 40 │ │ **gen_kwargs │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
NameError: name 'Optional' is not defined
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ /home/mdisk2/tanjunwen/gitprj/mChatGLM_mutli_gpu_tuning/finetune_ptuning.py:34 in │
│ │
│ 31 │ │ return super().forward(x).to(torch.float32) │
│ 32 │
│ 33 │
│ ❱ 34 class ModifiedTrainer(Trainer): │
│ 35 │ def evaluate( │
│ 36 │ │ self, │
│ 37 │ │ eval_dataset: Optional[Dataset] = None, │
│ │
│ /home/mdisk2/tanjunwen/gitprj/mChatGLM_mutli_gpu_tuning/finetune_ptuning.py:37 in │
│ ModifiedTrainer │
│ │
│ 34 class ModifiedTrainer(Trainer): │
│ 35 │ def evaluate( │
│ 36 │ │ self, │
│ ❱ 37 │ │ eval_dataset: Optional[Dataset] = None, │
│ 38 │ │ ignore_keys: Optional[List[str]] = None, │
│ 39 │ │ metric_key_prefix: str = "eval", │
│ 40 │ │ **gen_kwargs │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
NameError: name 'Optional' is not defined
[2023-05-27 11:30:35,479] [INFO] [launch.py:428:sigkill_handler] Killing subprocess 58780
[2023-05-27 11:30:35,505] [INFO] [launch.py:428:sigkill_handler] Killing subprocess 58781
[2023-05-27 11:30:35,505] [ERROR] [launch.py:434:sigkill_handler] ['/home/mdisk2/tanjunwen/anaconda3/bin/python', '-u', 'finetune_ptuning.py', '--local_rank=1', '--train_path', 'junshi/train.json', '--max_len', '128', '--max_input_len', '256', '--model_name_or_path', '/chatGLM-6B', '--tokenizer_name/chatGLM-6B', '--per_device_train_batch_size', '8', '--gradient_accumulation_steps', '4', '--num_train_epochs', '1', '--save_steps', '1000', '--learning_rate', '2e-2', '--fp16', '--logging_steps', '50', '--prefix_projection', 'True', '--pre_seq_len', '128', '--output_dir', 'output', '--deepspeed', 'ds_config.json'] exits with return code = 1