以前、多くのバーチャル試着プロジェクトを共有しましたが、その多くはアリババによって作られました。
今日は、先週発表されたテンセントとファーウェイのバーチャル試着プロジェクトIMAGDressingを見ていきます。コードとモデルはGitHubで公開されています:https://github.com/muzishen/IMAGDressing
シーン
タスクにおける条件と適用シーンの違い:
主にユーザーがどのように仮想環境で服を試着するかに焦点を当てており、部分的な服修復を通じて現実的な試着効果を実現し、消費者のオンラインショッピング体験を向上させます。 タスクは、顔、姿勢、シーンなどのオプション条件を持つ固定された服装を持つ自由編集可能な人体画像の生成に重点を置いており、商家が服装を多様なニーズで展示するのに適しています。
方法
IMAGDressing-v1フレームワーク図
このフレームワークは主にトレーニング可能な服装UNetとフローズンのノイズ除去UNetで構成されています。前者は細かい服装特徴を抽出し、後者はそれらの特徴とテキストプロンプトをバランスを取ります。IMAGDressing-v1はControlNetやIP-Adapterなどの他のコミュニティモジュールと互換性があります。
比較
:IMAGDressing-v1といくつかの最先端の方法との定量的比較です。 :特定および非特定条件下でのIMAGDressing-v1と他の最先端の方法(BLIP-Diffusion、Versatile Diffusion、IP-Adapter、MagicClothingを含む)の定性的比較です。