環境に優しいAI:DeepSeek-R1が示す高効率学習の未来

先日発表された、DeepSeek-R1を色々調べています。まず、DeepSeek-V3を含めた諸元です。

NameDeepSeekDeepSeekQwen2.5Llama 3.1Claude 3.5GPT-4o
VersionV3V2.572B-Inst405B-InstSonnet-10220513
ArchitectureMoEMoEDenseDense
Activted Params37B21B72B405B
Total Params671B236B72B405B

まず、DeepSeekはMoE (Mixture of Expert)を利用したモデルであること。MoEは理論上、少ないパラメータ数でより精度の高いモデルを作れる可能性があります。この辺はLLMの未来: スケーリング則の限界と効率化の新アプローチで説明しています。そして、既に書いた、GPT-4以降のLLMスケーリング則の課題と解決策で説明したように、DeepSeek-R1では以下のような特徴があります。

  • 基本モデルに対する大規模強化学習(RL)の直接適用
  • 2つのRLステージと2つのSFTステージによる開発パイプライン

これらによって、DeepSeek-R1はかなり、効率のいい学習をしていると考えられます。学習データを導入したかは気にはなりますが、今はおいておきます。いかに大量のデータを入手しようと昨今の収穫逓減の状況にあってはうまい学習をさせないと性能には結びつかないためです。特に注目したのは最初のSFTステージで少量のコールドスタートデータを組み込みのところです。この部分はDeepSeek-R1を読むでも触れられていたので極めてセンスのいい部分だと思います。

聞くところによると、DeepSeek-R1はo1のようなモデルに比べて、1/10のコストで学習をしていると聞きます。これは、破格の高効率学習と言えます。

これらを踏まえると、DeepSeek-R1が普及するかとは別に、これがベンチマークとなって、AIモデルがゲームチェンジする可能性は十分あると見ています。今までは、大量の電力を使って、大量のGPUを買い集めてモデルを作っていました。しかし、それは環境的な持続性を考えても、コストを考えても常に適切だと考えるには無理があります。

いささか古い資料ではありますが、LLM(GPT-3)と人の消費電力の比較によれば、GPT-3において学習には約4.6TJのエネルギーを消費したと推定しています。それに対して、生体脳はたかだか一年で631.7MJです。全く、単位が違います。

生体脳と比べるべくもなく、コストが1/10になれば、チャレンジャーも増えることが想定できます。現状のLLMでは参入しているのはGoogle、Microsoft、metaと言った特に北米の超超大企業だけです。参入障壁は低いに越したことはありません。

私はゲームチェンジを歓迎します。

Janus Pro 1Bで実現する最新画像生成技術:GitHubリポジトリを活用した簡単ガイド

話題のJanus Pro 1Bを使ってみました。基本的にはレポジトリにあるコードベースで行っています。コードはGitHubで示します。

naoyaikeda/januspro1b

まあ、基本的にはやっていることは大したことはないです。レポジトリのコードでプロンプトを少しいじったくらいですね。Janusを使用している例はあったのでその延長上でやった感じです。コードとしては以下の感じです。

# Copyright (c) 2023-2024 DeepSeek.
#
# Permission is hereby granted, free of charge, to any person obtaining a copy of
# this software and associated documentation files (the "Software"), to deal in
# the Software without restriction, including without limitation the rights to
# use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of
# the Software, and to permit persons to whom the Software is furnished to do so,
# subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in all
# copies or substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
# IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS
# FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR
# COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER
# IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
# CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.

import torch
from transformers import AutoModelForCausalLM

from janus.models import MultiModalityCausalLM, VLChatProcessor
import numpy as np
import os
import PIL.Image

# specify the path to the model
model_path = "deepseek-ai/Janus-Pro-1B"
vl_chat_processor: VLChatProcessor = VLChatProcessor.from_pretrained(model_path)
tokenizer = vl_chat_processor.tokenizer

vl_gpt: MultiModalityCausalLM = AutoModelForCausalLM.from_pretrained(
    model_path, trust_remote_code=True
)
vl_gpt = vl_gpt.to(torch.bfloat16).cuda().eval()

conversation = [
    {
        "role": "User",
        "content": "Toyota Sprinter AE86, White Car, (((Course out from curve))), (((Crashing))), , Dynamic Lighting, Dynamic Angle, (((Headlong into the valley)))",
    },
    {"role": "Assistant", "content": ""},
]

sft_format = vl_chat_processor.apply_sft_template_for_multi_turn_prompts(
    conversations=conversation,
    sft_format=vl_chat_processor.sft_format,
    system_prompt="",
)
prompt = sft_format + vl_chat_processor.image_start_tag


@torch.inference_mode()
def generate(
    mmgpt: MultiModalityCausalLM,
    vl_chat_processor: VLChatProcessor,
    prompt: str,
    temperature: float = 1,
    parallel_size: int = 16,
    cfg_weight: float = 5,
    image_token_num_per_image: int = 576,
    img_size: int = 384,
    patch_size: int = 16,
):
    input_ids = vl_chat_processor.tokenizer.encode(prompt)
    input_ids = torch.LongTensor(input_ids)

    tokens = torch.zeros((parallel_size*2, len(input_ids)), dtype=torch.int).cuda()
    for i in range(parallel_size*2):
        tokens[i, :] = input_ids
        if i % 2 != 0:
            tokens[i, 1:-1] = vl_chat_processor.pad_id

    inputs_embeds = mmgpt.language_model.get_input_embeddings()(tokens)

    generated_tokens = torch.zeros((parallel_size, image_token_num_per_image), dtype=torch.int).cuda()

    for i in range(image_token_num_per_image):
        outputs = mmgpt.language_model.model(inputs_embeds=inputs_embeds, use_cache=True, past_key_values=outputs.past_key_values if i != 0 else None)
        hidden_states = outputs.last_hidden_state

        logits = mmgpt.gen_head(hidden_states[:, -1, :])
        logit_cond = logits[0::2, :]
        logit_uncond = logits[1::2, :]

        logits = logit_uncond + cfg_weight * (logit_cond-logit_uncond)
        probs = torch.softmax(logits / temperature, dim=-1)

        next_token = torch.multinomial(probs, num_samples=1)
        generated_tokens[:, i] = next_token.squeeze(dim=-1)

        next_token = torch.cat([next_token.unsqueeze(dim=1), next_token.unsqueeze(dim=1)], dim=1).view(-1)
        img_embeds = mmgpt.prepare_gen_img_embeds(next_token)
        inputs_embeds = img_embeds.unsqueeze(dim=1)


    dec = mmgpt.gen_vision_model.decode_code(generated_tokens.to(dtype=torch.int), shape=[parallel_size, 8, img_size//patch_size, img_size//patch_size])
    dec = dec.to(torch.float32).cpu().numpy().transpose(0, 2, 3, 1)

    dec = np.clip((dec + 1) / 2 * 255, 0, 255)

    visual_img = np.zeros((parallel_size, img_size, img_size, 3), dtype=np.uint8)
    visual_img[:, :, :] = dec

    os.makedirs('generated_samples', exist_ok=True)
    for i in range(parallel_size):
        save_path = os.path.join('generated_samples', "img_{}.jpg".format(i))
        PIL.Image.fromarray(visual_img[i]).save(save_path)


generate(
    vl_gpt,
    vl_chat_processor,
    prompt,
)

作成した画像は以下の通りです。

コード中で画像のサイズが指定されていますが、そこだけの変更だともろもろ不整合を起こして正しく動きません。スライスとかを中心に考える必要があるかなと思います。プロンプトはとりあえず、入れたプロンプトは反映されてはいるようです。ただ、入れたプロンプトが、Stable Diffusion系列を当てにしているところがある、カッコによる強調とかですがその辺を見直す必要が恐らくあります。

1Bであればダウンロードしてモデルの規模感的には一般的な、GPUで動作できるのではないかとの所感を持っています。

コードのライセンスの文言はよくある、MITライセンスですが、PC Watchの記事によれば、画像生成の時のトークン処理にLlamaが使われているようなので、Llamaのリスクはありそうという感じはします。

ローカルでも動作させてみました、スクリプトは、DeepSeekの提供のものそのものです。瞬間的にVRAM消費はGeForce RTX3060 12GBのものをほとんど持ってっているので、Janus Pro 1Bがサイズ的にはローカルで動かすのには限界のように思えます。

作成した画像は以下のものです。