本项目旨在提供一些NLP常用任务的基础代码,如抽取式问答、阅读理解等,项目将使用Bert-base
作为预训练模型。
- PyTorch: https://pytorch.org/
- Transformers: https://huggingface.co/docs/transformers/quicktour
- Accelerate: https://huggingface.co/docs/accelerate/
- question-answering-demo: 抽取式问答 Demo,预测答案的开始Token和结束Token所在位置。
- epochs:训练轮数
- learning_rate:学习率
- base_model_name:预训练模型
- load_model_path:训练好的模型,一般在测试时加载
- train_batch_size:训练batch_size
- test_batch_size:测试batch_size
- train_file:训练数据集
- test_file:测试数据集
- max_test_data_num:调试时使用,加载test数据条数
- max_train_data_num:训练时使用,加载train数据条数
- max_seq_length:最大序列长度,bert参数
- save_model_path:保存模型路径
- test_num:多少step测试
- seed:随机种子
- weight_decay:权重削减
- do_train:是否训练,测试时不用指定