JP5254507B1 - 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 - Google Patents

画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP5254507B1
JP5254507B1 JP2013509769A JP2013509769A JP5254507B1 JP 5254507 B1 JP5254507 B1 JP 5254507B1 JP 2013509769 A JP2013509769 A JP 2013509769A JP 2013509769 A JP2013509769 A JP 2013509769A JP 5254507 B1 JP5254507 B1 JP 5254507B1
Authority
JP
Japan
Prior art keywords
item
image
area
model image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013509769A
Other languages
English (en)
Other versions
JPWO2014103045A1 (ja
Inventor
靖之 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP5254507B1 publication Critical patent/JP5254507B1/ja
Publication of JPWO2014103045A1 publication Critical patent/JPWO2014103045A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置は、アイテム画像を取得するアイテム画像取得部及びモデル画像を取得するモデル画像取得部と、アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する補正部と、モデル画像にアイテム領域が重畳されるように表示させるためにモデル画像及びアイテム領域を出力する出力部と、を備える。これにより、アイテムが実際に人体に装着された状態により近い合成画像が提供される。

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体に関する。
アクセサリ等の人が身につけて使用するアイテムの画像を、人の画像に合成して表示する技術が知られている(例えば、非特許文献1参照)。この技術では、選択されたアクセサリの画像がユーザの画像に重畳して表示される。
VIEWTRY、[online]、[2012年12月17日検索]、インターネット<URL: http://www.viewtry.com/>
アクセサリ等のアイテムを販売する電子商取引サイト等に掲載されるアイテムの画像は、アイテムが水平な台に置かれた状態で撮影されている場合が多い。ピアス、イヤリング及びネックレス等のように体の一部にぶら下げられるように装着されるアイテムは、水平に置かれた状態と人体に装着された状態とでは重力が作用する方向が異なるために、それらのアイテムを構成するパーツの傾き等の態様が異なる。また、電子商取引サイト等に掲載するアイテムの画像は、構図のバランスのために、アイテム全体を傾けて撮影される場合がある。このようなアイテム画像をユーザ等のモデル画像に重畳して表示すると、不自然なものとなり、ユーザに違和感を生じさせる。
そこで本発明は、モデルに装着するアイテムの画像をモデルの画像に重畳して表示する際に、実際にモデルに装着された状態により近くすることを目的とする。
上記課題を解決するために、本発明の一形態に係る画像処理装置は、ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得手段と、アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得手段と、アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する補正手段と、モデル画像にアイテム領域が重畳されるように表示させるためにモデル画像及びアイテム領域を出力する出力手段と、を備える。
本発明の一形態に係る画像処理方法は、コンピュータにより実行される画像処理方法であって、ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得ステップと、アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得ステップと、アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する補正ステップと、モデル画像にアイテム領域が重畳されるように表示させるためにモデル画像及びアイテム領域を出力する出力ステップと、を有する。
本発明の一形態に係る画像処理プログラムは、コンピュータに、ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得機能と、アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得機能と、アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する補正機能と、モデル画像にアイテム領域が重畳されるように表示させるためにモデル画像及びアイテム領域を出力する出力機能と、を実現させる。
本発明の一形態に係るコンピュータ読み取り可能な記録媒体は、画像処理プログラムを記憶するコンピュータ読み取り可能な記録媒体であって、コンピュータに、ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得機能と、アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得機能と、アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する補正機能と、モデル画像にアイテム領域が重畳されるように表示させるためにモデル画像及びアイテム領域を出力する出力機能と、を実現させる。
上記形態によれば、アイテム領域における補正対象領域の傾きが、補正対象領域の支点位置に対する補正対象領域の重心位置の方向がモデル画像における重力方向に沿うように補正され、補正対象領域の傾きが補正されたアイテム領域がモデル画像に重畳されるように出力されるので、実際にアイテムが着用された状態により近い画像を表示させることができる。従って、表示された画像は、不自然なものではなく、ユーザにとって違和感の少ないものとなる。
別の形態に係る画像処理装置では、補正手段は、アイテム領域の全部を補正対象領域として傾きを補正し、支点位置は、アイテム領域のうちのアイテムの装着部が表された位置である。この形態によれば、アイテムが一の剛体からなる場合に、アイテム領域の傾きが適切に補正される。
さらに別の形態に係る画像処理装置では、アイテムが連結部を介して互いに揺動可能に連結された複数のパーツを含む場合において、補正対象領域は、連結部を介して互いに連結された一方及び他方のパーツを含むアイテムが表示されたアイテム領域における少なくとも他方のパーツが表された領域であり、支点位置は、補正対象領域における一方のパーツ側の連結端部である。
この形態によれば、アイテムが連結部を介して互いに揺動可能に連結された複数のパーツを含む場合に、一のパーツが表された領域が補正対象領域として特定され、当該補正対象領域における支点位置が適切に設定される。これにより、アイテムが揺動可能に連結された複数のパーツからなる場合であっても、アイテム領域の傾きが適切に補正されるので、アイテムが実際に着用された状態により近い画像を出力できる。
さらに別の形態に係る画像処理装置では、補正手段は、アイテム画像において所定方向に沿ってアイテムが表された領域が占める長さが、所定範囲の近傍の領域に対して相対的に所定以上の差をもって短い領域を連結部として特定し、近傍の領域をパーツが表された領域として特定する。
この形態によれば、アイテムの画像においてくびれた部分が連結部として特定され、連結部の近傍領域がパーツが表された領域として特定される。これにより、アイテムの画像における連結部が適切に特定される。
さらに別の形態に係る画像処理装置では、モデル画像から取得可能な情報に基づき該モデル画像における重力方向を特定する特定手段を更に備え、補正手段は、特定手段により特定された重力方向に基づき、補正対象領域の傾きを補正する。
この形態によれば、モデル画像における重力方向が、モデル画像から取得される情報に基づき適切に特定されるので、実際に人体に装着された状態により近い自然な合成画像が提供できる。
さらに別の形態に係る画像処理装置では、アイテム画像取得手段により上下方向が特定されたアイテム画像が取得された場合に、補正手段は、アイテム領域における最も上方の部分を装着部として特定する。この形態によれば、アイテム領域における装着部が適切且つ容易に特定される。
さらに別の形態に係る画像処理装置では、補正手段は、モデル画像から取得した該モデル画像におけるアイテムが装着される部分の大きさ、予め設定された人体における該部分の実サイズに関する情報、アイテム画像から取得した該アイテム画像におけるアイテム領域の大きさ、及び予め記憶されたアイテムの実サイズに関する情報に基づき、合成画像におけるアイテムが装着される部分の大きさとアイテム画像の大きさとの比が、アイテムが装着される部分の実サイズとアイテムの実サイズとの比に略等しくなるようにアイテム領域の画像の大きさを調整する。
この形態によれば、重畳されるアイテム領域が、モデル画像に応じた適切な大きさに調整される。これにより、ユーザにとって違和感の少ない自然な合成画像が提供される。
さらに別の形態に係る画像処理装置では、出力手段は、アイテムが装着される部分の特徴を示すテンプレートを用いてモデル画像を探索することにより、モデル画像におけるアイテムが装着される部分を特定し、アイテムの装着部が表された位置がモデル画像におけるアイテムが装着される部分に位置するようにアイテム領域を前記モデル画像に重畳する。
この形態によれば、モデル画像におけるアイテムが装着される部分が精度よく特定されるので、アイテム領域が適切な位置に重畳される。
本発明の一側面によれば、モデルに装着するアイテムの画像をモデルの画像に重畳して表示する際に、実際にモデルに装着された状態により近くすることが可能となる。
画像処理装置の機能構成を示すブロック図である。 画像処理装置のハードウェア構成を示す図である。 画像処理装置が電子商取引サイトに適用された場合等において、表示される画面の例を示す図である。 図4(a)は、アイテム画像の例を示す図である。図4(b)は、補正対象領域の特定の例を示す図である。 アイテム情報記憶部の構成及び記憶されているデータの例を示す図である。 図6(a)は、装着部の特定の例を示す図である。図6(b)は、装着部の特定の他の例を示す図である。 補正対象領域の傾きの補正処理の例を示す図である。 図8(a)〜(d)は、テンプレートを用いたマッチング処理に先立つ前処理を示す図である。図8(e)は、ピアスホールの特徴を示すテンプレートを示す図である。 出力部により出力された合成画像の例を示す図である。 図10(a)は、画像処理装置における画像処理方法の処理内容の例を示すフローチャートである。図10(b)は、図10(a)のフローチャートのステップS4の補正処理を示すフローチャートである。 図11(a)は、複数のパーツにより構成されるピアスの例を示す図である。図11(b)は、縮小膨張処理を実施することにより複数の領域に分断されたアイテムの画像を示す図である。 補正部による連結部の特定処理の他の例を示す図である。 補正対象領域における支点位置の設定の例を示す図である。 アイテムが複数のパーツにより構成される場合における、補正対象領域である各パーツの支点位置及び重心位置の特定、及び各補正対象領域の傾きの補正処理を示す図である。 図15(a)は、アイテムに含まれる複数のパーツの傾きを順次補正する場合のフローチャートである。図15(b)は、アイテムに含まれる複数のパーツの傾きの補正を並列的に行う場合のフローチャートである。 画像処理プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態に係る画像処理装置1の機能的構成を示すブロック図である。画像処理装置1は、アクセサリといったアイテムの画像を、モデルの画像に合成して出力する装置である。アイテムは、例えば、ぶら下げて着用されるアクセサリであって、ピアス、イヤリング、ネックレスのチャーム等を含む。本実施形態の画像処理装置1は、例えばアクセサリ等のアイテムを販売する電子商取引サイトに適用できる。
本実施形態の画像処理装置1は、図1に示すように、機能的には、アイテム画像取得部11(アイテム画像取得手段)、モデル画像取得部12(モデル画像取得手段)、特定部13(特定手段)、補正部14(補正手段)、重畳部15(出力手段)及び出力部16(出力手段)、を含む。また、画像処理装置1の各機能部11〜16は、アイテム画像記憶部21、モデル画像記憶部22及びアイテム情報記憶部23といった記憶手段にアクセス可能である。なお、画像処理装置1は、ユーザ端末とネットワークを介して通信可能なサーバに構成することができる。また、画像処理装置1が、スマートフォン及びパーソナルコンピュータといった装置に構成されることとしてもよい。
図2は、画像処理装置1のハードウェア構成図である。画像処理装置1は、物理的には、図2に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク等で構成される補助記憶装置103、ネットワークカード等で構成される通信制御装置104、入力デバイスであるキーボード、マウス等の入力装置105、ディスプレイ等の出力装置106などを含むコンピュータシステムとして構成されている。なお、画像処理装置1がサーバに構成される場合には、画像処理装置1は、入力装置105,出力装置106を含まなくてもよい。
図1に示した各機能は、図2に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェア(画像処理プログラム)を読み込ませることにより、CPU101の制御のもとで通信制御装置104、入力装置105、出力装置106を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。
まず、画像処理装置1の機能部の説明に先立って、アイテム画像記憶部21、及びモデル画像記憶部22を説明する。アイテム画像記憶部21は、アイテム画像を記憶している記憶手段である。アイテム画像は、例えば、電子商取引サイトにおいて販売されるアクセサリを表す画像である。アイテム画像記憶部21は、予めアイテム画像を記憶していることとしてもよい。
モデル画像記憶部22は、アイテムが装着される部分を含むモデル画像を記憶している記憶手段である。モデル画像は、予め記憶されていることとしてもよいし、ユーザによりアップロードされることとしてもよい。モデル画像は、例えば、アクセサリが着用される人物の一部分を表す。
図3は、例えば、画像処理装置1が電子商取引サイトに適用された場合等において、表示される画面Dの例を示す図である。画像処理装置1がサーバに構成される場合には、図3に示すように、画像処理装置1は、アイテム画像記憶部21から取得した複数のアイテム画像PI及びモデル画像記憶部22から取得したモデル画像PIを、ネットワークを介して通信可能なユーザ端末に出力し、ユーザ端末の画面Dに表示させる。
続いて、画像処理装置1の機能部を説明する。アイテム画像取得部11は、アイテムを表示するアイテム画像を取得する部分である。アイテムは、ぶら下げて着用されるアクセサリ等であって、モデルの部分に装着して使用される。アクセサリ等のアイテムは、モデルに装着される部分である装着部及び本体部(パーツ)を含む。アイテム画像取得部11は、アイテム画像記憶部21からアイテム画像を取得する。
モデル画像取得部12は、アイテムが装着される部分が表されたモデル画像を取得する部分である。モデル画像取得部12は、モデル画像記憶部22からモデル画像を取得する。モデル画像は、予め記憶された画像であってもよいし、ユーザによりアップロードされた、ユーザの顔等が撮影された画像であってもよい。また、モデル画像は、リアルタイムに取得されるユーザの顔等を表した画像であってもよい。
特定部13は、モデル画像取得部12により取得されたモデル画像における重力方向を特定する部分である。特定部13は、例えばモデル画像の上下方向が特定されている場合には、下方向を重力方向として特定できる。また、撮影時に撮影装置の加速度センサ等により取得されたオリエンテーション情報がモデル画像に付されている場合には、特定部13は、モデル画像に付されたオリエンテーション情報に基づき、モデル画像における重力方向を特定できる。
また、特定部13は、モデル画像を解析することによりモデル画像における重力方向を特定することとしてもよい。例えば、周知の方法により、モデル画像における頭部の複数のパーツ(例えば、目、耳、鼻、口)の位置を特定し、それらの相対的な位置関係に基づいて、重力方向を特定する。より具体例を説明すると、まず、目の位置と口の位置を特定し、目の位置に対する口の位置の方向を所定の角度だけ回転させた方向を重力方向とする。所定の角度は、一般的な横顔における目の位置に対する口の位置の方向と頭部の上下方向との間の角度である。また、例えば、モデルの画像において一般的に重力方向に沿う物が表された領域を画像処理により特定し、特定された領域の画像に表された物の延在方向を画像処理により特定し、特定された方向を重力方向として特定してもよい。
なお、特定部13は、本実施形態の画像処理装置1において必須の構成要素ではない。画像処理装置1が特定部13を備えない場合には、補正部14等の機能部は、モデル画像における下方向といった所定の方向を重力方向としてみなすこととしてもよい。
補正部14は、アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する補正対象領域の重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する部分である。具体的には、まず傾きの補正の前処理として、補正部14は、アイテム画像からアイテムが表されたアイテム領域を抽出する。さらに、補正部14は、アイテム領域から補正対象領域を特定する。
まず、補正部14は、アイテム画像取得部11により取得されたアイテム画像におけるアイテム領域を周知の画像処理技術を用いて特定する。図4(a)は、アイテム画像の例を示す図である。補正部14は、アイテム画像PからアイテムIが表されたアイテム領域(前景領域)を特定する。ここで2つの領域が特定された場合には、補正部14は、アイテム画像Pにおいて左右一対のアイテムが特定されたことを認識する。そして、補正部14は、2つのアイテム領域のうちのいずれかのアイテム領域を補正対象領域の特定のための領域として特定する。補正部14は、予め右側または左側の領域を補正対象領域とすることが設定されている場合には、その設定に従って補正対象領域を特定できる。また、アイテムが例えばいわゆるスタッズ型のピアスである場合には、左右の形状の差異がないので、補正部14は、いずれの領域を補正対象領域に特定してもよい。そして、図4(b)のアイテム画像Pに示すように、アイテムが一の剛体(パーツ)により構成されている場合には、補正部14は、アイテム領域Iの全体を補正対象領域として特定する。なお、例えば、縮小膨張処理といった周知の画像処理技術を用いて、アイテムが一のパーツにより構成されているか、または互いに連結された複数のパーツにより構成されているかを判定することが可能である。この判定処理については後述する。
続いて、補正部14は、モデル画像に重畳するためのアイテム領域の大きさを調整する。アイテム画像及びモデル画像の間で実サイズに対する縮尺が相違する場合が多く、このような場合に大きさの調整をすることなくアイテム画像のアイテム領域をモデル画像に重畳すると、出力された画像はユーザに違和感を生じさせるような不自然なものとなる。不自然な画像が出力されないように、補正部14は、モデル画像におけるアイテムが装着される部分の大きさ、予め設定されたモデルにおける当該部分の実サイズに関する情報、アイテム画像におけるアイテム領域の大きさ、及び予め記憶されたアイテムの実サイズに関する情報に基づき、モデル画像におけるアイテムが装着される部分の大きさとアイテム領域の大きさとの比が、アイテムが装着される部分の実サイズとアイテムの実サイズとの比に略等しくなるように、アイテム領域の大きさを調整する。
モデル画像におけるアイテムが装着される部分が耳である場合、モデル画像におけるアイテムが装着される部分の大きさとして、耳が映った領域が内接する矩形の縦のピクセル数が取得される。耳が映った領域は、周知の画像処理により特定することができる。予め設定されたモデルにおける当該部分の実サイズに関する情報として、例えば、(縦:5cm)といった情報が記憶されている。
アイテムの実サイズに関する情報は、アイテム情報記憶部23に予め記憶されている。図5は、アイテム情報記憶部23の構成及び記憶されているデータの例を示す図である。図5に示すように、アイテム情報記憶部23は、商品IDに対応付けて、縦及び横のサイズを記憶している。商品IDは、アイテムの識別子である。補正部14は、縦及び横のいずれかまたは両方のサイズの情報を用いて、アイテム領域の大きさを調整する。
補正部14は、アイテムの画像における装着部を特定する。装着部は、アイテムにおけるモデルに装着される部分である。具体的には、例えば、アイテム画像取得部11により上下方向が特定されたアイテム画像が取得された場合には、補正部14は、アイテム画像のアイテム領域における最も上方の部分を装着部として特定する。
図6(a)は、装着部の特定の例を示す図である。図6(a)に示されるアイテム画像Pは、その属性として上下方向が特定されているものとする。アイテム画像Pには、アイテムIの画像が表されている。補正部14は、アイテムIの画像における最も上方の部分Aを装着部として特定する。アイテム画像Pの上下方向に座標軸(y軸)が設定されている場合には、補正部14は、アイテムIの画像における最大のy座標値を有する画素を装着部として特定する。また、アイテム画像に表されたアイテムがスタッズ型のピアスである場合には、補正部14は、アイテムの画像における最大のy座標値を有する画素を含み、所定の直径(例えば、実サイズにおける1.5mm)の円形状の部分を特定し、その部分の中心部を装着部として特定してもよい。アイテムがスタッズ型のピアスであるか否かの情報は、アイテム画像と関連付けて記憶された、商品についてのテキスト情報から取得されることとしてもよいし、アイテム情報記憶部23から取得されることとしてもよい。
また、図6(b)は、装着部の特定の他の例を示す図である。図6(b)に示されるアイテム画像Pは、アイテムIの画像を表している。アイテムIは、ピアスであって、ピアスホールに通されるフック部F及び複数のパーツB41,B42を有する。補正部14は、アイテムIの画像における最も上方の部分Aを装着部として特定する。
また、図6(b)に示されるようなフック部Fを有するアイテムIの装着部を特定する場合には、補正部14は、例えばパターンマッチングといった周知の画像処理技術によりフック部Fを抽出し、曲線を描くフック部Fの曲率が最大となる部分を装着部として特定することとしてもよい。
そして、補正部14は、特定した装着部をモデルの装着位置にぶら下げられるように装着されたときの支点位置の少なくとも一つとして特定する。
補正部14は、アイテム領域の補正対象領域における重心位置を特定する。具体的には、補正部14は、例えば、アイテム画像の補正対象領域に質量が一様に分布するものと仮定して、補正対象領域の形状に基づき、周知の画像処理技術及び解析技術を用いて、補正対象領域における重心位置を特定する。
そして、補正部14は、アイテム領域の補正対象領域における支点位置に対する重心位置の方向が、モデル画像における重力方向に沿うように補正対象領域の傾きを補正する。図7は、アイテム領域背内が補正対象領域である場合における、補正対象領域の傾きの補正処理の例を示す図である。
図7(a)に示すように、支点位置A及び重心位置Gが特定され、モデル画像における重力方向が矢印DGに示される方向である場合には、補正部14は、図7(b)に示すように、支点位置Aに対する重心位置Gの方向が、モデル画像における重力方向DGに沿うように補正対象領域の傾きを補正する。
重畳部15は、補正部14により補正対象領域が補正されたアイテム領域を、モデル画像に重畳する。重畳部15は、アイテム領域における装着部がモデル画像におけるアイテムが装着される部分に位置するように位置合わせしてモデル画像に重畳することができる。重畳部15は、アイテム領域の重畳のために、重畳処理に先立って、モデル画像におけるアイテムが装着される部分を特定する。
重畳部15は、アイテムが装着される部分の特徴を示すテンプレートを用いてモデル画像を探索(マッチング)することにより、モデル画像におけるアイテムが装着される部分を特定することができる。図8は、アイテムが装着される部分を特定する処理の例を説明するための図である。図8(a)〜(d)は、テンプレートを用いたマッチング処理に先立つ前処理を示す。まず、重畳部15は、モデル画像からアイテムが装着される部位の画像を抽出する。図8(a)の例では、ピアスが装着される耳の部分の画像が抽出されている。続いて、図8(b)に示すように、重畳部15は、周知の画像処理技術により、耳の部分の画像に対してエッジ抽出処理を行う。次に、重畳部15は、図8(c)に示すような周知の画像処理技術である膨張処理、及び図8(d)に示すような収縮処理を行い、ピアスが装着されるピアスホールを顕在化させる。なお、膨張処理及び収縮処理は、画像の特性に応じて、繰り返して実施される。
そして、重畳部15は、図8(e)に示すような、ピアスホールの特徴を示すテンプレートを用いて、ピアスホールが顕在化されたモデル画像に対するマッチング処理を行うことにより、ピアスが装着される部分を特定する。
なお、重畳部15は、例えば図8(a)に示すような、抽出された耳の部分の画像において、予め設定された相対的な位置を、アイテムが装着される位置として特定してもよい。重畳部15は、例えば、抽出された耳画像の下端から耳画像の高さの10%及び左端から耳画像の幅の30%の位置をアイテムが装着される位置として特定できる。
重畳部15は、以上説明したように特定された、モデル画像におけるアイテムが装着される位置に、アイテム領域におけるアイテムの装着部が位置するように、補正対象領域の傾きが補正されたアイテム領域をモデル画像に重畳する。
出力部16は、モデル画像にアイテム領域が重畳されるように表示させるためにモデル画像及びアイテム領域を出力する部分である。具体的には、出力部16は、重畳部15によりアイテム領域が重畳されたモデル画像を出力する。出力部16は、例えば、画像をユーザ端末に出力する。また、出力部16は、画像をディスプレイに出力することとしてもよい。図9は、出力部16により出力された画像の例を示す図である。図9に示すように、アイテム領域における補正対象領域の傾きが、補正対象領域の支点位置に対する補正対象領域の重心位置の方向がモデル画像における重力方向に沿うように補正され、補正されたアイテム領域が装着位置に位置合わせされてモデル画像に重畳されるので、実際にモデルに装着された状態により近い画像が出力される。
次に、図10を参照して、本実施形態の画像処理方法について説明する。図10(a)は、図1に示した画像処理装置1における画像処理方法の処理内容の例を示すフローチャートである。図10(b)は、図10(a)のフローチャートのステップS4の補正処理を示すフローチャートであって、アイテムが一の剛体からなるアクセサリである場合の処理の例を示す。
まず、アイテム画像取得部11は、アイテム画像記憶部21からアイテム画像を取得する。また、モデル画像取得部12は、モデル画像記憶部22からモデル画像を取得する(S1)。ここで、特定部13がモデル画像取得部12により取得されたモデル画像における重力方向を特定することとしてもよい。
次に、補正部14は、アイテム画像からアイテム領域を抽出する(S2)。続いて、補正部14は、前処理として、アイテム領域の大きさの調整処理、アイテムの画像における装着部の特定処理を行う(S3)。補正部14は、特定した装着部を、モデルにぶら下げられるように装着されたときの支点位置として特定する。また、重畳部15は、モデル画像におけるアイテムが装着される部分を特定する(S3)。
次に、補正部14は、補正対象領域の傾きを補正する(S4)。この補正処理では、補正部14は、アイテム領域の全体を傾きの補正の対象となる補正対象領域として抽出する。また、補正部14は、補正対象領域の重心位置を周知の画像処理技術及び解析技術により特定する(S11)。そして、補正部14は、補正対象領域における支点位置に対する重心位置の方向がモデル画像における重力方向に沿うように、補正対象領域の傾きを補正する(S12)。
続いて、重畳部15は、補正対象領域が補正されたアイテム領域を、装着部がモデル画像におけるアイテムが装着される部分に位置するようにモデル画像に重畳する(S5)。そして、出力部16は、重畳部15により重畳された画像を出力する(S6)。
次に、アイテムが、連結部を介して、その連結部を支点として揺動可能に連結された複数のパーツを含む場合における、アイテムの画像の傾きの補正処理の例を説明する。図11(a)は、複数のパーツにより構成されるピアスであるアイテムの例を示す図である。図11(a)に示すように、アイテムは、複数のパーツB11、B12、B13、B14を含む。パーツB11は、装着部Aを含む。パーツB12は、連結部C12を介して、連結部C12を支点として揺動可能にパーツB11に連結されている。パーツB13は、連結部C13を介して、連結部C13を支点として揺動可能にパーツB12に連結されている。パーツB14は、連結部C14を介して、連結部C14を支点として揺動可能にパーツB13に連結されている。なお、図11では、図示の便宜上、連結部を小さい円形で示しているが、実際の連結部の形状はより複雑で、例えば、連結部は、一方のパーツに固定された輪状の部分と他方のパーツに固定された輪状の部分により構成され、2つの輪状の部分が連結している。
補正部14は、例えば、縮小膨張処理といった周知の画像処理技術を用いて、アイテムが一のパーツにより構成されているか、または互いに連結された複数のパーツにより構成されているかを判定することが可能である。図11(b)に示すように、アイテム画像のアイテム領域に対して縮小膨張処理を実施することによりアイテム領域が複数の領域に分断された場合には、補正部14は、当該アイテムが複数のパーツにより構成されているものとして判定できる。
また、補正部14は、図11(b)に示すような縮小膨張処理により消滅した領域を連結部として特定することができる。より具体的には、補正部14は、図11(a)に示す画像と図11(b)に示す画像との差分を連結部として特定する。また、補正部14は、縮小膨張処理により分断された各領域を、パーツが表された領域として特定し、それぞれのパーツが表された領域を補正対象領域として特定する。即ち、アイテムが複数のパーツから構成される場合には、アイテムの画像は、複数の補正対象領域を有する。
図12は、補正部14による連結部の特定処理の他の例を示す図である。補正部14は、アイテム画像において所定方向に沿ってアイテムが表された領域が占める長さが、所定範囲の近傍の領域に対して相対的に所定以上の差をもって短い領域を連結部として特定し、近傍の領域をパーツが表された領域として特定することができる。具体的には、アイテム画像の上下方向が特定されている場合に、補正部14は、上下方向に直交する方向(図12における矢印V)に沿って分布するアイテムの画像の領域のピクセル数を表すヒストグラムを生成し、ヒストグラムにおける極小点に相当し且つピクセル数が所定数以下の部分を、アイテムの連結部C12、C13、C14として特定する。そして、補正部14は、連結部として特定された領域の近傍の領域を、アイテムの画像における各パーツが表された領域B11、B12、B13、B14として特定する。
ここで、図13を参照して、アイテムが連結部を介して互いに揺動可能に連結された複数のパーツを含む場合における補正対象領域及び支点位置の設定について説明する。図13(a)に示すように、アイテムに含まれる一方のパーツB及び他方のパーツBが連結部CABを介して連結されている場合に、補正部14は、少なくとも他方のパーツBが表された領域(図13(a)の斜線部)を、補正対象領域に設定する。ここで、補正対象領域は、図13(a)に示すように連結部CABが表された領域を含むことができる。この場合に、補正部14は、補正対象領域における一方のパーツB側の連結端部を支点位置として特定する。補正部14は、連結部CABの領域内のいずれかの位置を支点位置に設定できる。支点位置は、例えば、連結部CABにおける一方のパーツB側端部Eであってもよいし、連結部CABの領域の中心位置であってもよい。
また、図13(b)に示すように、補正対象領域(図13(b)の斜線部)が連結部CABを含まない場合には、補正部14は、他方のパーツBにおける一方のパーツB側端部Eを、支点位置として特定する。
なお、アイテムが連結部を介して連結された複数のパーツを含む場合、一のパーツが複数の連結端部を有する。かかる場合において、パーツ両端の連結部を結ぶ直線が重心位置を通らない場合に、複数の連結端部のうちのより下方の連結端部に支点位置が設定されて傾きの補正が行われると、アイテムが実際に装着された状態とは異なる状態に補正される。従って、この場合には、当該一のパーツが表された補正対象領域に関する支点位置は、複数の連結端部のうち、より上方に位置する連結端部に設定されることが好ましい。
図14は、アイテムが複数のパーツにより構成される場合における、補正対象領域である各パーツの支点位置及び重心位置の特定、及び各補正対象領域の傾きの補正処理を示す図である。なお、図14に示す例では、連結部の中心位置を支点位置に特定することとしている。また、図14に示す例は、連結部を点として解釈したものとして捉えてもよい。
まず、補正部14は、パーツが装着部を含む場合には、その装着部を当該パーツの支点位置として特定する。図14(a)に示す例では、補正部14は、パーツB11が装着部Aを有するので、装着部AをパーツB11の支点位置として特定する。また、補正部14は、パーツB11の重心位置G11を周知の画像解析技術により特定する。そして、補正部14は、支点位置(装着部A)に対する重心位置の方向が、モデル画像における重力方向に沿うようにパーツB11の傾きを補正する。
また、一のパーツが複数の連結部を有する場合には、補正部14は、アイテムがぶら下げられるように装着部がモデルに装着されたときに、複数の連結部のうち最も上方に位置する連結部を支点位置として特定する。図14(a)に示す例では、補正部14は、複数の連結部C12、C13を有するパーツB12における支点位置を、より上方(装着部側)に位置する連結部C12に特定する。
さらに、補正部14は、パーツB12の重心位置G12を周知の画像解析技術により特定する。なお、周知の技術を用いた重心位置の特定に際して、本実施形態では、パーツが表された領域(補正対象領域)に一様に質量が分布すると仮定されるが、一のパーツが複数の連結部を有する場合に、支点位置として特定されなかった連結部には当該連結部により支持される全てのパーツの質量が分布することと仮定してもよい。図14(a)に示す例において、パーツB12の支点位置として特定されなかった連結部C13には、当該連結部C13により支持される全ての他のパーツB13,B14の質量が分布することと仮定できる。
そして、図14(b)に示すように、補正部14は、支点位置(連結部C12)に対する重心位置G12の方向が、モデル画像おける重力方向に沿うようにパーツB12の傾きを補正する。なお、図14に示す例では、未補正のパーツB13,B14の傾きもパーツB12の傾きの補正に応じて暫定的に補正される。
同様に、図14(b)に示すように、補正部14は、連結部C13をパーツB13の支点位置として特定すると共に、周知の画像解析技術によりパーツB13の重心位置G13を特定する。そして、図14(c)に示すように、補正部14は、支点位置(連結部C13)に対する重心位置G13の方向が、モデル画像における重力方向に沿うようにパーツB13の傾きを補正する。
さらに、図14(c)に示すように、補正部14は、連結部C14をパーツB14の支点位置として特定すると共に、周知の画像解析技術によりパーツB14の重心位置G14を特定する。そして、図14(d)に示すように、補正部14は、支点位置(連結部C14)に対する重心位置G14の方向が、モデル画像おける重力方向に沿うようにパーツB14の傾きを補正する。
次に、図15を参照して、アイテムが、連結部を介して、その連結部を支点として揺動可能に連結された複数のパーツを含む場合における、補正処理の手順を説明する。図15(a)、(b)はそれぞれ、図10(a)のフローチャートのステップS4の補正処理を具体的に示すフローチャートである。
図15(a)は、アイテムに含まれる複数のパーツの傾きを上方のパーツから順次補正する場合のフローチャートである。まず、補正部14は、アイテムの画像において、連結部及び補正対象領域となるパーツが表された領域を特定する(S21)。続いて、補正部14は、複数のパーツのうち、装着部を含むパーツを抽出し、当該パーツが表された領域を補正対象領域に設定し、そのパーツの装着部を当該パーツの支点位置として特定する(S22)。
次に、補正部14は、補正対象領域における重心位置を周知の画像解析技術により特定する(S23)。そして、補正部14は、支点位置に対する重心位置の方向がモデル画像の重力方向に沿うように、補正対象領域の傾きを補正する(S24)。
続いて、補正部14は、アイテム画像に含まれる全てのパーツの傾きの補正処理が済んだか否かを判定する(S25)。全てのパーツの傾きが補正済であると判定された場合には、補正処理の処理手順は終了する。一方、全てのパーツの傾きが補正済であると判定されなかった場合には、処理手順はステップS26に進められる。
ステップS26において、補正部14は、傾きの補正済みのパーツに連結部を介して連結されているパーツが表されている領域を補正対象領域に設定し、当該連結部を支点位置として特定する(S26)。そして、処理手順は、ステップS23に戻り、ステップS25において全てのパーツの傾きが補正済であると判定されるまで、ステップS23〜S26の処理が繰り返される。
なお、図15(a)に示したフローチャートでは、複数のパーツのうち上方のパーツから順次補正対象領域に設定し、傾きの補正処理を行うこととしたが、下方のパーツから順次処理を行うこととしてもよい。
図15(b)は、アイテムに含まれる複数のパーツの傾きの補正を並列的に行う場合のフローチャートである。この場合には、補正部14は、アイテム画像において、複数のパーツ及び各々のパーツの連結部を特定する(S31)。続いて、補正部14は、各パーツが表された領域の各々を補正対象領域に設定し、各パーツの上方に位置する装着部または連結部をそれぞれの補正対象領域の支点位置として特定する(S32)。
次に、補正部14は、各補正対象領域における重心位置を周知の画像解析技術により特定する(S33)。そして、補正部14は、各補正対象領域について、支点位置に対する重心位置の方向が重力方向に沿うように、傾きを補正する(S34)。このように補正処理を行うことにより、複数の補正対象領域を順次補正処理する場合よりも、処理時間が短縮される。
次に、図16を参照して、コンピュータを画像処理装置1として機能させるための画像処理プログラムを説明する。画像処理プログラム1Pは、メインモジュールP10、アイテム画像取得モジュールP11、モデル画像取得モジュールP12、特定モジュールP13、補正モジュールP14、重畳モジュールP15及び出力モジュールP16を備える。
メインモジュールP10は、画像処理を統括的に制御する部分である。アイテム画像取得モジュールP11、モデル画像取得モジュールP12、特定モジュールP13、補正モジュールP14、重畳モジュールP15及び出力モジュールP16を実行することにより実現される機能はそれぞれ、図1に示される画像処理装置1のアイテム画像取得部11、モデル画像取得部12、特定部13、補正部14、重畳部15及び出力部16の機能と同様である。
画像処理プログラム1Pは、例えば、CD−ROMやDVD、ROM等の記憶媒体1Dまたは半導体メモリによって提供される。また、画像処理プログラム1Pは、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。
以上説明した本実施形態の画像処理装置1、画像処理方法、画像処理プログラム1P及びそのプログラムを記憶したコンピュータ読み取り可能な記録媒体によれば、アイテム領域における補正対象領域の傾きが、補正対象領域の支点位置に対する補正対象領域の重心位置の方向がモデル画像における重力方向に沿うように補正され、補正対象領域の傾きが補正されたアイテム領域がモデル画像に重畳されるように出力されるので、実際にアイテムが着用された状態により近い画像を表示させることができる。従って、表示された画像は、不自然なものではなく、ユーザにとって違和感の少ないものとなる。
また、上記実施形態によれば、アイテム画像におけるアイテム領域の傾きが適切に補正されてモデル画像に重畳表示されるので、重畳表示させるためのアイテムの画像を別途記憶しておく必要がない。従って、記憶領域の削減が可能となる。
なお、本実施形態では、アイテムの例として、ピアスといったアクセサリを示して説明した。ピアスは、人の耳たぶに開けられた穴(ピアスホール)に装着するものであるので、実在の店舗等において試着することができない。従って、本実施形態の画像処理装置1において、仮想的に試着することができて、装着された状態をユーザが確認できることは、非常に有用である。
また、ピアスは、全体の大きさに対してパーツの占める割合が大きいため、不自然にパーツが傾いた状態のアイテム画像がモデル画像に合成されると、合成画像は非常に不自然なものになる。従って、本実施形態の画像処理装置1では、自然な状態にアイテム画像の傾きが補正されるので、アイテムがピアスである場合において非常に有用である。
なお、上記のように本実施形態の画像処理装置1は、アイテムがピアスである場合に格別な効果を奏するが、アイテムはピアスに限定されない。アイテムは、例えば、イヤリング、ネックレスのチャーム等、ぶら下げられて着用されるものであることができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
上記実施形態では、アイテムの重心位置に関して、補正対象領域に一様に質量が分布するものと仮定して周知の画像解析技術により特定を行うこととしたが、パーツごとの質量を考慮することとしてもよい。例えば、アクセサリといったアイテムに用いられる材料、単位体積あたりの質量及び当該材料の色を対応付けて記憶したデータベースを予め準備しておき、補正部14が、アイテム画像から取得した各パーツの色に関する情報に基づき、各パーツの材料及び質量を特定して、重心位置を算出することとしてもよい。また、補正部14が、アイテム画像が掲載されたウェブページから材料を示すキーワードを抽出し、当該材料の色を上記データベースに基づき特定し、アイテム画像におけるパーツがその色を有していた場合に、そのパーツが当該材料から成る物として特定すると共に、その材料の質量の情報を用いて重心位置を特定することとしてもよい。
1…画像処理装置、11…アイテム画像取得部、12…モデル画像取得部、13…特定部、14…補正部、15…重畳部、16…出力部、21…アイテム画像記憶部、22…モデル画像記憶部、23…アイテム情報記憶部、1D…記憶媒体、1P…画像処理プログラム、P10…メインモジュール、P11…アイテム画像取得モジュール、P12…モデル画像取得モジュール、P13…特定モジュール、P14…補正モジュール、P15…合成モジュール、P16…出力モジュール。

Claims (11)

  1. ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得手段と、
    前記アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得手段と、
    前記アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、前記モデル画像における重力方向に沿うように前記補正対象領域の傾きを補正する補正手段と、
    前記モデル画像に前記アイテム領域が重畳されるように表示させるために前記モデル画像及び前記アイテム領域を出力する出力手段と、
    を備える画像処理装置。
  2. 前記補正手段は、前記アイテム領域の全部を前記補正対象領域として傾きを補正し、
    前記支点位置は、前記アイテム領域のうちのアイテムの装着部が表された位置である、
    請求項1に記載の画像処理装置。
  3. 前記アイテムが連結部を介して互いに揺動可能に連結された複数のパーツを含む場合において、
    前記補正対象領域は、連結部を介して互いに連結された一方及び他方のパーツを含むアイテムが表示されたアイテム領域における少なくとも前記他方のパーツが表された領域であり、
    前記支点位置は、前記補正対象領域における前記一方のパーツ側の連結端部である、
    請求項1または2に記載の画像処理装置。
  4. 前記補正手段は、前記アイテム画像において所定方向に沿ってアイテムが表された領域が占める長さが、所定範囲の近傍の領域に対して相対的に所定以上の差をもって短い領域を連結部として特定し、前記近傍の領域をパーツが表された領域として特定する、
    請求項3に記載の画像処理装置。
  5. 前記モデル画像から取得可能な情報に基づき該モデル画像における重力方向を特定する特定手段を更に備え、
    前記補正手段は、前記特定手段により特定された重力方向に基づき、前記補正対象領域の傾きを補正する、
    請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記アイテム画像取得手段により上下方向が特定されたアイテム画像が取得された場合に、前記補正手段は、アイテム領域における最も上方の部分を装着部として特定する、
    請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記補正手段は、
    前記モデル画像から取得した該モデル画像における前記アイテムが装着される部分の大きさ、予め設定された該部分の実サイズに関する情報、前記アイテム画像から取得した該アイテム画像におけるアイテム領域の大きさ、及び予め記憶された前記アイテムの実サイズに関する情報に基づき、モデル画像におけるアイテムが装着される部分の大きさとアイテム領域の大きさとの比が、前記アイテムが装着される部分の実サイズと前記アイテムの実サイズとの比に略等しくなるように前記アイテム領域の大きさを調整する、
    請求項1〜6のいずれか1項に記載の画像処理装置。
  8. 前記出力手段は、前記アイテムが装着される部分の特徴を示すテンプレートを用いて前記モデル画像を探索することにより、モデル画像におけるアイテムが装着される部分を特定し、アイテムの装着部が表された位置が前記モデル画像におけるアイテムが装着される部分に位置するように前記アイテム領域を前記モデル画像に重畳する、
    請求項1〜7のいずれか1項に記載の画像処理装置。
  9. コンピュータにより実行される画像処理方法であって、
    ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得ステップと、
    前記アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得ステップと、
    前記アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、前記モデル画像における重力方向に沿うように前記補正対象領域の傾きを補正する補正ステップと、
    前記モデル画像に前記アイテム領域が重畳されるように表示させるために前記モデル画像及び前記アイテム領域を出力する出力ステップと、
    を有する画像処理方法。
  10. コンピュータに、
    ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得機能と、
    前記アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得機能と、
    前記アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、前記モデル画像における重力方向に沿うように前記補正対象領域の傾きを補正する補正機能と、
    前記モデル画像に前記アイテム領域が重畳されるように表示させるために前記モデル画像及び前記アイテム領域を出力する出力機能と、
    を実現させる画像処理プログラム。
  11. 画像処理プログラムを記憶するコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
    ぶら下げられて着用されるアクセサリであるアイテムを表示するアイテム画像を取得するアイテム画像取得機能と、
    前記アイテムが装着される部分が表されたモデル画像を取得するモデル画像取得機能と、
    前記アイテム画像のうちのアイテムが表された領域であるアイテム領域の少なくとも一部である補正対象領域の支点位置に対する該補正対象領域の重心位置の方向が、前記モデル画像における重力方向に沿うように前記補正対象領域の傾きを補正する補正機能と、
    前記モデル画像に前記アイテム領域が重畳されるように表示させるために前記モデル画像及び前記アイテム領域を出力する出力機能と、
    を実現させるコンピュータ読み取り可能な記録媒体。

JP2013509769A 2012-12-28 2012-12-28 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体 Active JP5254507B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/084169 WO2014103045A1 (ja) 2012-12-28 2012-12-28 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP5254507B1 true JP5254507B1 (ja) 2013-08-07
JPWO2014103045A1 JPWO2014103045A1 (ja) 2017-01-12

Family

ID=49052913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013509769A Active JP5254507B1 (ja) 2012-12-28 2012-12-28 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US9396570B2 (ja)
JP (1) JP5254507B1 (ja)
WO (1) WO2014103045A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643440A (zh) * 2016-08-26 2019-04-16 日本电气株式会社 图像处理设备、图像处理方法和计算机可读记录介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3151150C (en) * 2020-06-05 2024-01-16 Maria Tashjian Technologies for virtually trying-on items

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140581A (ja) * 2000-11-02 2002-05-17 Zaza International:Kk 商品販売支援方法、商品販売支援システム及びコンピュータ読み取り可能なプログラム
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2012073961A (ja) * 2010-09-29 2012-04-12 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003182508A (ja) * 2001-12-18 2003-07-03 Denso Corp 車両用乗員保護装置
US9101279B2 (en) * 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
JP4946741B2 (ja) * 2007-09-05 2012-06-06 セイコーエプソン株式会社 画像処理装置、画像処理方法、及び画像処理システム
CA2659698C (en) * 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
US20100169059A1 (en) * 2009-02-13 2010-07-01 Grant Thomas-Lepore Layered Personalization
JP5327381B2 (ja) * 2010-04-22 2013-10-30 コニカミノルタ株式会社 情報処理装置、プログラム、および情報処理システム
US8655053B1 (en) * 2010-05-31 2014-02-18 Andrew S Hansen Body modeling and garment fitting using an electronic device
JP6045139B2 (ja) * 2011-12-01 2016-12-14 キヤノン株式会社 映像生成装置、映像生成方法及びプログラム
US20140002492A1 (en) * 2012-06-29 2014-01-02 Mathew J. Lamb Propagation of real world properties into augmented reality images
US9129404B1 (en) * 2012-09-13 2015-09-08 Amazon Technologies, Inc. Measuring physical objects and presenting virtual articles
US20140368869A1 (en) * 2013-06-12 2014-12-18 Samsung Electronics Co., Ltd. Method of printing web page by using mobile terminal and mobile terminal for performing the method
JP6152365B2 (ja) * 2014-06-11 2017-06-21 京セラドキュメントソリューションズ株式会社 情報処理装置、及び画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140581A (ja) * 2000-11-02 2002-05-17 Zaza International:Kk 商品販売支援方法、商品販売支援システム及びコンピュータ読み取り可能なプログラム
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2012073961A (ja) * 2010-09-29 2012-04-12 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643440A (zh) * 2016-08-26 2019-04-16 日本电气株式会社 图像处理设备、图像处理方法和计算机可读记录介质
CN109643440B (zh) * 2016-08-26 2024-03-22 日本电气株式会社 图像处理设备、图像处理方法和计算机可读记录介质

Also Published As

Publication number Publication date
WO2014103045A1 (ja) 2014-07-03
JPWO2014103045A1 (ja) 2017-01-12
US9396570B2 (en) 2016-07-19
US20150317811A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
JP7136875B2 (ja) 眼の特徴を用いる眼ポーズ識別
CN111696213B (zh) 图像生成装置、图像生成方法以及计算机可读介质
JP5656603B2 (ja) 情報処理装置、情報処理方法、およびそのプログラム
US10911695B2 (en) Information processing apparatus, information processing method, and computer program product
US20150378433A1 (en) Detecting a primary user of a device
US8724853B2 (en) Identifying a target object using optical occlusion
JP5613741B2 (ja) 画像処理装置、方法、及びプログラム
JP2012174116A (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP7278724B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN105387847B (zh) 非接触式测量方法、测量设备及其测量系统
US10277814B2 (en) Display control method and system for executing the display control method
JP2013156829A (ja) 衣服画像処理システム、衣服画像処理システムの制御方法、衣服画像処理装置、衣服画像処理装置の制御方法、プログラム、及び情報記憶媒体
JP6002058B2 (ja) 画像処理装置、方法、及びプログラム
CN107103513A (zh) 一种眼镜虚拟试戴方法
JP2012138892A (ja) 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム
KR20110002610A (ko) 증강현실을 이용한 주얼리 착용 모습 디스플레이 장치 및 방법
JP5254507B1 (ja) 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体
JP2016053900A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
CN110269586A (zh) 用于捕获具有暗点的人的视野的设备和方法
JP7238998B2 (ja) 推定装置、学習装置、制御方法及びプログラム
ES2758716T3 (es) Dispositivo de procesamiento de imágenes, procedimiento de control del dispositivo de procesamiento de imágenes, programa y medio de almacenamiento de información
JP6858007B2 (ja) 画像処理システム、画像処理方法
JP5876121B2 (ja) 画像処理装置、方法、及びプログラム
US11023739B2 (en) Flow line combining device, flow line combining method, and recording medium
KR101321022B1 (ko) 증강 현실 구현 방법 및 증강 현실을 구현하는 컴퓨팅 장치 및 시스템

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5254507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250