콘텐츠로 이동

GPT-NeoX-Japanese [[gpt-neox-japanese]]

일본어를 위한 자동회귀 언어 모델인 GPT-NeoX-Japanese를 소개합니다. 이 모델은 https://github.com/EleutherAI/gpt-neox에서 학습되었습니다. 일본어는 많은 어휘와 히라가나, 가타카나, 한자의 조합으로 이루어진 독특한 언어입니다. 이러한 일본어의 독특한 구조를 해결하기 위해 특수 서브워드 토크나이저를 사용했습니다. 이 유용한 토크나이저를 오픈소스로 제공해 준 tanreinama에게 매우 감사드립니다.

이 모델은 Google의 PaLM 연구 권장 사항을 따르며, 트랜스포머 블록에서 편향 파라미터를 제거하여 모델 성능을 향상시켰습니다. 자세한 내용은 이 기사를 참조하세요.

모델 개발은 ABEJA, Inc.신야 오타니, 타카요시 마카베, 안주 아로라, 쿄 하토리에 의해 주도되었습니다. 이 모델 개발 활동에 대한 자세한 내용은 여기를 참조하세요.

generate() 메서드를 사용하면 GPT NeoX Japanese 모델을 통해 텍스트를 생성할 수 있습니다.

>>> from transformers import GPTNeoXJapaneseForCausalLM, GPTNeoXJapaneseTokenizer
>>> model = GPTNeoXJapaneseForCausalLM.from_pretrained("abeja/gpt-neox-japanese-2.7b")
>>> tokenizer = GPTNeoXJapaneseTokenizer.from_pretrained("abeja/gpt-neox-japanese-2.7b")
>>> prompt = "人とAIが協調するためには、"
>>> input_ids = tokenizer(prompt, return_tensors="pt").input_ids
>>> gen_tokens = model.generate(
... input_ids,
... do_sample=True,
... temperature=0.9,
... max_length=100,
... )
>>> gen_text = tokenizer.batch_decode(gen_tokens, skip_special_tokens=True)[0]
>>> print(gen_text)
人とAIが協調するためには、AIと人が共存し、AIを正しく理解する必要があります。

GPTNeoXJapanese 설정 (GPTNeoXJapaneseConfig) [[transformers.GPTNeoXJapaneseConfig]]

섹션 제목: “GPTNeoXJapanese 설정 (GPTNeoXJapaneseConfig) [[transformers.GPTNeoXJapaneseConfig]]”

[[autodoc]] GPTNeoXJapaneseConfig

GPTNeoXJapanese토큰화 (GPTNeoXJapaneseTokenizer) [[transformers.GPTNeoXJapaneseTokenizer]]

섹션 제목: “GPTNeoXJapanese토큰화 (GPTNeoXJapaneseTokenizer) [[transformers.GPTNeoXJapaneseTokenizer]]”

[[autodoc]] GPTNeoXJapaneseTokenizer

GPTNeoXJapaneseModel [[transformers.GPTNeoXJapaneseModel]]

섹션 제목: “GPTNeoXJapaneseModel [[transformers.GPTNeoXJapaneseModel]]”

[[autodoc]] GPTNeoXJapaneseModel - forward

일상 LLM 을 위한 GPTNeoXJapanese(GPTNeoXJapaneseForCausalLM) [[transformers.GPTNeoXJapaneseForCausalLM]]

섹션 제목: “일상 LLM 을 위한 GPTNeoXJapanese(GPTNeoXJapaneseForCausalLM) [[transformers.GPTNeoXJapaneseForCausalLM]]”

[[autodoc]] GPTNeoXJapaneseForCausalLM - forward