Search

Dolly 2.0

Affiliation
Databricks
Commercial
Fine-tuning Method
SFT
Note
- blog - HuggingFace model card (dolly-v2-12b) : https://huggingface.co/databricks/dolly-v2-12b - training model : pythia-12b model family - Data description and download . InstructGPT의 가이드를 따라서 7개의 기존 category에 하나(open-ended free form)를 추가하여, 총 8개의 prompt / response pair를 만듦 . 5000명 이상의 Databricks 직원들이 InstructGPT의 방식으로 데이터를 생성함 . Tasks : brainstorming, classification, closed QA, creative writing, information extraction, open QA, and summarization. . Wikipedia 소스를 제외한 나머지 웹 소스는 활용하지 않도록 함 . generative AI의 결과를 이용하지 않도록 함 . 전체 데이터 작업 중에, 반은 질문을 생성하도록 하고, 나머지 반은 본래 질문을 rephrase + response를 만들도록 함. . 별도의 context 필드에는 활용된 reference wikipedia의 내용이 포함되어 있고, 이들은 citation number [42] 가 포함되어 있어서, downstream application에서는 이를 제거할 것을 추천함. - 활용법 : instructions examples을 생성하기 위한 few-shot examples & data augmentation (restate & translate)
데이터
- dolly15k : Instruction/response fine-tuning 15k Data for the first instruction-following LLM - 기존 instruction following 모델인 Alpaca, Koala, GPT5All, Vicuna 모두 ChatGPT 결과로부터 만들어진 데이터를 활용했기에 상업적 활용이 불가했음. 상업적 활용이 가능하도록 새롭게 데이터를 만들었고, 이를 통해 학습된 모델 & 코드 & 데이터 공개함.
모델 크기
12B (pythia-12b Fine-tuning)
새롭게 제공된 Resource
Model
InstructData
출시일
2023-04-12