JP2013168969A - Image display method, and image display device - Google Patents
Image display method, and image display device Download PDFInfo
- Publication number
- JP2013168969A JP2013168969A JP2013062108A JP2013062108A JP2013168969A JP 2013168969 A JP2013168969 A JP 2013168969A JP 2013062108 A JP2013062108 A JP 2013062108A JP 2013062108 A JP2013062108 A JP 2013062108A JP 2013168969 A JP2013168969 A JP 2013168969A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- person
- clothes
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像表示方法と画像表示装置に関する。 The present invention relates to an image display method and an image display apparatus .
近年、インターネットの普及によって、ユーザが不用品となったものを、ネットオークションを利用して売買することがしばしば行われている。この場合、衣服などの出品物をデジタルカメラで撮影し、このデジタル画像がネット上にアップし、出品物の紹介を行っている。また、若い女性は、ネット上のサービスで、自分の分身であるアバターなどに、気になる服の画像を着せてみて、自分に似合うかどうかといった擬似的な試着を楽しむのが普通に行われるようになっている。 In recent years, due to the spread of the Internet, it is often performed to buy and sell items that have become inconvenient by using a net auction. In this case, an exhibit such as clothes is photographed with a digital camera, and the digital image is uploaded on the net to introduce the exhibit. In addition, it is common for young women to try on pseudo-fitting on whether or not they look good on their own avatars by dressing up images of clothes they care about on the Internet. It is like that.
衣服を試着した場合のシミュレーションは、従来から種々提案されている。例えば、特許文献1には、衣服のシミュレートなどの肖像画像の合成を、熟練オペレータなしでもできるように、自動あるいは簡易な操作でできるようにした画像合成装置が開示されている。また、特許文献2には、簡単な構成で自然に違和感なく画像合成を行うようにした試着シミュレーションシステムが開示されている。この試着シミュレーションシステムでは、画像入力手段により撮影した試着シミュレーションの対象人物の画像から顔部分を切り抜き、所望する衣服を着用したモデルの画像の顔部分と差し替えるようにしている。衣服の着用した画像データは多数蓄積されているので、対象人物の画像を撮影することにより、この対象人物に似合う衣服を探すことが容易となる。
Various simulations in the case of trying on clothes have been proposed. For example,
衣服に関するシミュレーションを行うための装置は種々提案されているが、衣服に対して人物を入れ換えるようにしたシミュレーションは提案されていない。すなわち、特許文献1に開示の画像合成装置は、個々の顔画像や服装画像等を自ら選択し、それらを合成するものである。また、特許文献2に開示の試着シミュレーションシステムでは、対象人物に対して衣服を着せかえるようにしたものである。
Various apparatuses have been proposed for simulating clothes, but no simulation has been proposed in which a person is exchanged for clothes. That is, the image composition device disclosed in
本発明は、このような事情を鑑みてなされたものであり、衣服の画像に対して人物を入れ替えて、その衣装に最適な人物を簡単に探しできるようにした画像表示方法、および画像表示装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an image display method and an image display apparatus that can easily find a person most suitable for a costume by exchanging persons with respect to an image of clothes. The purpose is to provide.
上記目的を達成するため第1の発明に係わる画像表示方法は、対象画像を選択するための服の画像の一覧を表示するステップと、上記対象画像の選択された服の画像の顔部分を判定するステップと、記録された画像から人物画像を画像検索するステップと、上記人物画像の顔部分を、上記対象画像から判定された顔部分に合成する画像合成ステップと、合成した画像を表示するステップと、からなる。 In order to achieve the above object, an image display method according to a first invention includes a step of displaying a list of clothing images for selecting a target image, and determining a face portion of the selected clothing image of the target image. A step of searching for a person image from the recorded image, an image combining step of combining the face portion of the person image with the face portion determined from the target image, and a step of displaying the combined image And consist of
第2の発明に係わる画像表示方法は、上記第1の発明において、上記合成ステップは、上記人物画像の顔部分の大きさを揃えるステップを具備する。 In the image display method according to a second aspect of the present invention, in the first aspect, the composition step includes a step of aligning the size of the face portion of the person image.
第3の発明に係わる画像表示方法は、上記第1の発明において、上記合成ステップは、上記人物画像の顔部分を順次切り替えるステップを具備する。In the image display method according to a third aspect of the present invention, in the first aspect, the composition step includes a step of sequentially switching the face portions of the person image.
第4の発明に係わる画像表示方法は、上記第1の発明において、上記合成ステップは、上記人物画像の顔部分の大きさや角度を切り替えるステップを具備する。In the image display method according to a fourth aspect of the present invention, in the first aspect, the composition step comprises a step of switching the size and angle of the face portion of the person image.
第5の発明に係わる画像表示方法は、上記第1の発明において、上記対象画像は、顔の特徴値と関連づけられている。In the image display method according to a fifth aspect of the present invention, in the first aspect, the target image is associated with a facial feature value.
第6の発明に係わる画像表示装置は、画像を表示する表示部と、上記表示部に表示された服の画像の一覧表示から、対象画像として選択された服の画像の顔部分を判定する判定部と、記録された画像から人物画像を検索する画像検索部と、上記人物画像の顔部分を、上記対象画像から判定された顔部分に合成する画像合成部と、からなる。 An image display device according to a sixth aspect of the present invention is a method for determining a face portion of a clothing image selected as a target image from a display unit for displaying an image and a list display of clothing images displayed on the display unit. And an image search unit for searching for a person image from the recorded image, and an image composition unit for combining the face part of the person image with the face part determined from the target image.
本発明によれば、衣服の画像に対して人物を入れ替えて、その衣装に最適な人物を簡単に探しできるようにした画像表示方法、および画像表示装置を提供することができる。 According to the present invention, it is possible to provide an image display method and an image display apparatus in which a person is exchanged with respect to an image of clothes so that a person most suitable for the costume can be easily found.
以下、図面に従って本発明を適用したカメラを用いて好ましい一実施形態について説明する。図1は、本発明の一実施形態に係わるカメラの電気回路を示すブロック図である。カメラ10は、デジタルカメラであり、画像処理及び制御部1、撮像部2、顔検出部3、記録部4、操作判定部6、GPS(Global Positioning System 全地球測位システム)7、表示部8a、タッチパネル8b、時計部9、通信部12等から構成される。
Hereinafter, a preferred embodiment using a camera to which the present invention is applied will be described with reference to the drawings. FIG. 1 is a block diagram showing an electric circuit of a camera according to an embodiment of the present invention. The
撮像部2は、撮影レンズや、シャッタ等の露出制御部、撮像素子、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって画像データに変換する。顔検出部3は、撮像部2で取得した画像データに基づいて、画像の中に顔の部分が含まれるか否かを判定する。撮像部2は顔検出部3において検出された顔部分にピントが合うようにピント合わせを行うこともできる。
The
画像処理及び制御部1は、記憶されているプログラムに従ってカメラ10の全体のシーケンスを制御する。また、撮像部2から出力される画像信号を取り込み、間引き処理、エッジ強調、色補正、画像圧縮等の種々の画像処理を行い、ライブビュー表示、記録部4への記録、再生表示等の画像処理を行う。画像処理及び制御部1内には、顔特徴抽出部1b、顔位置・大きさ判定部1c、画像検索部1d、部分消去部1e、テンプレート部5a、画像合成部5b、表示制御部8を含む。
The image processing and
顔位置・大きさ判定部1cは、顔検出3によって検出された顔部分の位置と大きさを判定する。顔特徴抽出部1bは、顔検出部3や顔位置・大きさ判定部1cで判定された顔の情報に基づいて、顔の特徴を抽出する。顔特徴抽出部1bには予め家族や友人等の顔の特徴を記憶しておき、記憶された特徴と一致するか否かも判定することができる。後述するように、顔特徴抽出部1bにおいて、顔が向いている方向等の特徴を検出するようにしても良い。テンプレート部5aは、例えば服だけを撮影する場合のように、顔部分のない画像もあることから、このような被写体の際に、合成時の基準を決めるためのテンプレート21(図2参照)を記憶する。このテンプレートについては、図2を用いて後述する。
The face position /
画像検索部1dは、後述するように、画像データは、服、スナップ、風景等に分類され、また顔の特徴等の情報と関連付けて記憶されるので、これらの情報を用いて画像検索を行う。部分消去部1eは、画像データの中から、顔にあたる部分等の所定部分を消去する。画像合成時に画像の重なりを防止するためである。画像合成部5は、顔画像を基準に行い、記録部4に記録されている複数の画像データから、画像検索部1dによって検索され、また部分消去部1eによって部分的消去された画像も用いて、画像の合成を行う。
As will be described later, the
表示制御部8は、画像合成部5bにおいて合成された画像データを表示部8aにおける表示の制御を行う。なお、表示部8aにおける表示としては、合成された画像以外にも、撮影前のライブビュー表示や、記録済みの画像の再生表示等がある。また、表示制御部8は、ライブビュー表示の際に、テンプレート21を表示部8aにスーパーインポーズ表示する。
The
記録部4は、レリーズ釦によって撮影の指示がなされた際に、撮像部2によって取得され、画像処理及び制御部1によって画像処理された画像データを記録する。関連情報記録部4bは、前述したように、画像データは分類情報や顔の特徴等の情報と関連付けられており、この関連情報を記憶する。また、関連情報としては、上述の情報以外にも、後述するGPS7によって取得する撮影位置情報や、時計部9によって取得する撮影日時情報等も含まれる。
The
操作判定部6は、レリーズ釦、再生モード設定釦、テンプレート釦、着せ替えモード釦、やり直し操作スイッチ等、種々の操作部材を含み、これらの操作部材の操作状態を判定し、画像処理及び制御部1に判定結果を送る。画像処理及び制御部1は、操作部材の操作状態に応じて、所定のシーケンスで撮影や再生の制御を行う。GPS7は、カメラ10の位置を測定し、前述したように撮影時に撮影位置の情報を出力する。なお、位置を測定できるものであれば、GPSに限らず、例えば、携帯電話の中継局やホットスポット等の送信位置に基づいて位置を判定するようにしても良い。時計部9は、カレンダー機能や時計機能を有し、前述したように撮影時には撮影日時情報を出力する。これらの撮影位置情報や撮影日情報は、画像整理や画像検索の際に利用できる。
The operation determination unit 6 includes various operation members such as a release button, a playback mode setting button, a template button, a dressing mode button, a redo operation switch, and the like, and determines an operation state of these operation members, and an image processing and control unit The determination result is sent to 1. The image processing and
表示部8aは、カメラ本体の背面等に配置され、液晶や有機EL等からなる表示画面を有する。前述したように、表示部8aでは、合成画像の表示の他、ライブビュー表示や再生画像の表示等を行う。表示部8aの表示面には、密着するように、タッチパネル8bが設けられている。タッチパネル8bは、ユーザのタッチ位置等を検出し、検出結果を画像処理及び制御部1に送信する。画像処理及び制御部1は、タッチ結果に応じて、カメラの制御を行う。また、画像検索の際には、タッチパネル8b上でタッチしながら検索が可能である。
The
通信部12は、有線または無線(赤外線等も含む)によって、外部と通信を行い、カメラ10が取得した画像や合成画像を外部に出力可能である。例えば、外部装置として大型テレビと通信を行うことにより、カメラ10で撮影した画像や合成した画像を大型テレビで観賞することができ、多くの人で楽しむことができる。また、外部装置として携帯電話と通信を行うことにより、友人等に画像を送信することがでる。
The
次に、本実施形態におけるカメラの使用について、図2ないし図4を用いて説明する。図2は服を撮影する際におけるテンプレートを撮影画面内に表示した図であり、図3は服を撮影後に、同一人物の顔と合成した合成画像の例を示し、図4は異なる人物と合成した合成画像の例を示す。 Next, the use of the camera in this embodiment will be described with reference to FIGS. FIG. 2 is a diagram in which a template for photographing clothes is displayed on the photographing screen. FIG. 3 shows an example of a composite image synthesized with the face of the same person after photographing the clothes. FIG. An example of the synthesized image is shown.
図2(a)は、テンプレート部5aに記憶されているテンプレートの例を示す。この図2(a)に示すテンプレート21は、ハンガー型をしており、人物の顔部分21aと肩部21bとから構成されている。このテンプレート21に沿って被写体の構図をとることにより、合成しやすい画像を撮影することができる。図2(b)に、テンプレート21に合わせずに服23を撮影した場合の画像を示す。この場合には、顔の位置や手の位置が服23の画像にあっておらず、人物を重ね合わせて合成することが困難である。
FIG. 2A shows an example of a template stored in the
一方、図2(c)は、テンプレート21に合わせて服23を撮影した場合の画像を示す。この場合には、服23に対して人物の頭や手の位置を容易に決められるので、人物を服23に重ね合わせて合成画像を容易に得ることができる。なお、テンプレート21に合わせて撮影するか否かはユーザが選択することができる。また、テンプレート21に合わせて服23を撮影するには、撮影時に被写体距離や、焦点距離(ズーム)を適宜、調整すれば良い。
On the other hand, FIG. 2C shows an image when
図2に示したように、テンプレート21を用いて、服23を撮影すると、次に、人物をこれに重畳させて、合成画像を得る。テンプレート21を用いて撮影することにより、どこに顔を配置するかが自然に分かる。また、机や壁等、背景が一緒に映っている場合があるが、この場合には、テンプレート21に重なる領域以外は、主要被写体(服)でないとして、画像から除去することができる。具体的には、クロマキー合成などの技術を使用するために、背景の色を特定色にし、特定色の部分は別画像に置き換えるように画像処理すれば良い。
As shown in FIG. 2, when the
このような画像処理を行うと、図3(a)〜(d)に示すように、人物25が服23を着た画像を合成することができる。この画像合成にあたって、画像検索部1dは、記録部4に記録されている画像の中から人物の顔が含まれている画像を検索し、画像合成部5は、検索された画像と、服23が撮影された画像と合成を行う。人物の画像の顔の部分をテンプレート21の顔部分に位置させ、かつ顔の大きさを合わせるように拡大縮小を行う。これによって、図3に示すように、同じ人物25でもいろいろな表情や角度で、服23を着た画像を合成できる。画像を合成すると不自然な画像もあるが、多数合成することにより、自然に見えるものも出てくる。
When such image processing is performed, as shown in FIGS. 3A to 3D, an image in which a
また、合成する人物25は同一人物である必要はない。図4(a)(b)は、表情が異なる同一人物25aに服24を画像合成した例であり、図4(c)(d)は、異なる人物25bに服24を画像合成した例である。このように、同一の服23に対して、表情が異なる同一人物25aや、別の人物25bに、画像合成し、表示部8aに表示させることから、自分が似合う服なのかを、色々な画像で検証することができ、また、他人と比較することもできる。
Further, the
なお、服の撮影にあたって、テンプレートを用いない方法もある。図2(d)は、マネキン22が着ている服24を撮影する例である。この場合には、顔22aや手22bと一緒に服24が撮影されることから、テンプレート21を用いなくても、人物との合成画像を容易に得ることができる。マネキン22の顔部を検出することにより、顔の位置や大きさ等、検出結果に合致させるように、人物の顔画像を拡大や縮小し、また位置を移動させればよい。
There is also a method that does not use a template when photographing clothes. FIG. 2D is an example of photographing the
次に、本実施形態におけるカメラ制御の動作を図5に示すフローチャートを用いて説明する。カメラ制御のフローに入ると、まず、電源がオンか否かの判定を行う(S100)。このステップでは、カメラ10の操作部材としてのパワースイッチがオンか否かを判定し、パワースイッチがオフの場合には、カメラ制御のフローを終了する。なお、カメラ制御のフローを終了しても、パワースイッチの状態を検知しており、パワースイッチがオンとなると、ステップS100から動作を開始する。
Next, the camera control operation in this embodiment will be described with reference to the flowchart shown in FIG. If the camera control flow is entered, it is first determined whether or not the power is on (S100). In this step, it is determined whether or not a power switch as an operation member of the
ステップS100における判定の結果、電源がオンであった場合には、次に、撮影モードか否かの判定を行う(S101)。この判定の結果、撮影モードであった場合には、次に、ライブビュー表示を行う(S102)。ここでは、撮像部2によって取得された画像データに基づいて、表示部8aに毎秒30コマ程度で被写体像をライブビュー表示する。ユーザは、ライブビュー表示に基づいて、構図を決めたり、シャッタチャンスを決定し、レリーズ動作を行うことができる。
If the result of determination in step S100 is that the power supply is on, it is next determined whether or not it is in shooting mode (S101). If the result of this determination is that the camera is in shooting mode, then live view display is performed (S102). Here, based on the image data acquired by the
ライブビュー表示を開始すると、次に、テンプレート表示を行うか否かの判定を行う(S103)。ここでは、ユーザが服等を撮影する場合に、テンプレート21を表示部8aに表示させるために、テンプレート釦等の操作部材を操作したか否かの判定を行う。この判定は、操作判定部6によって行われる。ステップS103における判定の結果、テンプレート表示を行う場合には、テンプレート部5aに記憶されているテンプレート21を読み出し、表示部8aの画面内の所定位置にテンプレート21を表示する(S104)。
When live view display is started, it is next determined whether or not template display is performed (S103). Here, it is determined whether or not an operation member such as a template button has been operated in order to display the
ステップS104におけるテンプレート表示を行うと、またはステップS103における判定の結果、テンプレート表示を行わない場合には、次に、レリーズを行うか否かの判定を行う(S105)。ここでは、レリーズ釦が操作されたか否かを操作判定部6によって判定する。この判定の結果、レリーズでなかった場合には、ステップS100に戻る。一方、ステップS105における判定の結果、レリーズであった場合には、次に、撮影・記録を行う(S106)。 If the template display is performed in step S104 or if the template display is not performed as a result of the determination in step S103, it is next determined whether or not to perform the release (S105). Here, the operation determination unit 6 determines whether or not the release button has been operated. If the result of this determination is not release, processing returns to step S100. On the other hand, if the result of determination in step S105 is release, shooting / recording is next carried out (S106).
ステップS106においては、撮像部2によって取得された画像データを、画像処理及び制御部1によって画像処理し、この画像処理された画像データを、記録部4に記録する。画像データの記録にあたっては、GPS7によって取得した撮影位置や、時計部9によって取得した撮影日時情報を併せて記録する。
In step S <b> 106, the image data acquired by the
撮影・記録を行うと、次に、画像分類を行う(S107)。ここでは、撮影画像をスナップ、風景、服等の撮影主題ごとに分類し、また、撮影画像中の顔の数、位置、大きさ、特徴等を検出し、また、顔より下の部分の色、テンプレートの使用の有無等、種々の情報を得られるよう、画像分類を行う。画像分類を行うと、次に、分類結果の記録を行う(S108)。ステップS106において画像データを記録するが、ステップS108では、記録された画像データに関連付けて、後述する図7(a)に示すような表形式で関連情報記録部4bに記録する。分類結果の記録を行うと、ステップS100に戻る。
Once shooting / recording is performed, image classification is performed (S107). Here, the shot images are classified by shooting subject such as snap, landscape, clothes, etc., the number, position, size, features, etc. of the faces in the shot images are detected, and the color of the part below the face Then, image classification is performed so as to obtain various information such as whether or not a template is used. Once image classification is performed, the classification result is recorded (S108). In step S106, the image data is recorded. In step S108, the image data is recorded in the related
ステップS101における判定の結果、撮影モードでなかった場合には、再生モードか否かの判定を行う(S110)。この判定の結果、再生モードでなかった場合には、ステップS100に戻る。一方、再生モードであった場合には、着せ替えモードか否かの判定を行う(S111)。ユーザが着せ替えモードで画像再生を行いたい場合には、着せ替えモード釦を操作するので、このステップでは、着せ替えモード釦を操作したか否かの判定を行う。着せ替えモードは、図3および図4を用いて説明したように、撮影した服に、人物を重畳させた合成画像を表示するモードである。ステップS111における判定の結果、着せ替えモードでなければ、通常の再生を行う(S112)。通常再生モードを行うと、ステップS100に戻る。 If the result of determination in step S101 is not shooting mode, it is determined whether or not playback mode is in effect (S110). If the result of this determination is not playback mode, processing returns to step S100. On the other hand, if it is the playback mode, it is determined whether or not the mode is the dressing mode (S111). When the user wants to perform image reproduction in the dressing mode, the dressing mode button is operated. In this step, it is determined whether or not the dressing mode button has been operated. As described with reference to FIGS. 3 and 4, the dressing mode is a mode for displaying a composite image in which a person is superimposed on photographed clothes. If the result of determination in step S111 is not dressing mode, normal playback is performed (S112). When the normal playback mode is performed, the process returns to step S100.
ステップS111における判定の結果、着せ替えモードの場合には、次に、対象画像の選択を行う(S113)。ここでは、記録部4に記録されている撮影画像の中から、関連情報記録部4bに記録されている画像分類の中で、服が付与されている画像を、サムネイル画像形式で一覧表示し、ユーザは一覧表示されている服の中から、いずれかの服を選択する。
If the result of determination in step S111 is that it is in the dressing mode, then the target image is selected (S113). Here, among the photographed images recorded in the
対象画像を選択すると、次に、人物画像の検索を行う(S113)。ここでは、記録された撮影画像の中から、関連情報記録部4bでの記録に基づいて、顔が写っている画像を検索する。人物画像検索を行うと、テンプレート撮影画像であるか否かの判定を行う(S115)。ここでは、ステップS113で選択された画像データに関連して関連情報記録部4bの関連情報中のテンプレート情報を参照する。図2(c)に示すようなテンプレート21を使用して撮影した場合には、テンプレート使用情報が記録されているので(図7(a)参照)、この情報に基づいて判定する。
When the target image is selected, a human image is next searched (S113). Here, based on the recording by the related
ステップS115における判定の結果、テンプレート撮影画像であった場合には、対象画像の背景のローコントラスト部の画像を除去する(S116)。ここでは、背景にコントラストがない画像では、背景を除去し、服の部分を分離する。続いて、テンプレート顔部に人物の顔部を配置する(S117)。ここでは、テンプレートの顔部21aがあった位置に、ステップS114において検索された人物の顔部を当てはめる。続いて、人物に対象画像の合成を行い、これを表示部8aに表示する(S118)。ステップS116、S117における処理により、服の部分を分離し、顔の位置を決めたことから、このステップS118において、人物の顔に服の部分を合成し、表示部8aに表示する。
If the result of determination in step S115 is a template photographed image, the low contrast image in the background of the target image is removed (S116). Here, in the case of an image having no background contrast, the background is removed and the clothes portion is separated. Subsequently, a human face is placed on the template face (S117). Here, the face portion of the person searched in step S114 is applied to the position where the
ステップS115における判定の結果、テンプレート撮影画像でなかった場合には、対象画像の顔部の除去を行う(S121)。この場合は、図2(d)に示したような対象画像がマネキン22であることから、顔検出部3および顔位置・大きさ判定部1cによってこのマネキン22の顔と判定された部分を除去、または顔部分を所定の色に塗り替える。続いて、検索された画像の顔部分の判定を行う(S122)。ここでは、ステップS114において検索された人物画像の中から顔の部分を、顔検出部3および顔位置・大きさ判定部1cによって判定する。
If the result of determination in step S115 is not a template photographed image, the face portion of the target image is removed (S121). In this case, since the target image as shown in FIG. 2D is the
次に、画像除去部に貼り付け、表示を行う(S123)。ここでは、ステップS121においてマネキン22の顔の部分に、ステップS122において判定された顔の部分を、大きさを揃えて貼り付け画像を合成し、この合成画像を表示部8aに表示する。なお、ステップS121〜S123は、実際には、顔検出部3、顔位置・大きさ判定部1c、部分消去部1e、画像合成部5b等のハードウエアによって、顔部分を所定色に塗り替え、その所定色部に、検索された人物の顔部を嵌め込み、画像を合成する。また、全てをハードウエアで処理しなくても、顔検出部3によって検出された顔範囲を消去し、この消去部分に所定の顔条件を満たす画像の顔部を貼りつけるようプログラムで実施するようにしても良い。なお、より自然な画像合成を行うには、マネキン22の顔の向いている方向と、顔の部分の向いている方向を一致させるようにしても良い。この点については、図9を用いて後述する。
Next, it is pasted and displayed on the image removing unit (S123). Here, a pasted image of the face portion determined in step S122 is combined with the face portion of the
ステップS118において人物に対象画像を合成すると、またはステップS123において画像除去部に貼り付け・表示を行うと、次に、やり直しか否かの判定を行う(S125)。本実施形態においては、やり直し操作スイッチを操作するたびに、別画像を合成するようにしており、このステップでは、やり直し操作スイッチが操作されたか否かの判定を行う。この判定の結果、やり直しであった場合には、次の候補に設定し(S126)、ステップS114に戻る。ステップS114に戻ると、次の人物画像を検索し、ステップS115以下で、検索された人物画像とステップS113で選択された対象画像との画像合成を行う。一方、ステップS125における判定の結果、やり直しでなければ、ステップS100に戻る。 If the target image is synthesized with a person in step S118, or if pasting / displaying is performed on the image removal unit in step S123, it is next determined whether or not it is possible to redo (S125). In this embodiment, every time the redo operation switch is operated, another image is synthesized. In this step, it is determined whether or not the redo operation switch has been operated. If the result of this determination is redo, it is set as the next candidate (S126) and the process returns to step S114. Returning to step S114, the next person image is searched, and in step S115 and thereafter, image composition of the searched person image and the target image selected in step S113 is performed. On the other hand, if the result of determination in step S125 is not redo, processing returns to step S100.
このように、ステップS111において、着せ替えモードを選択すると、ステップS113で選択した着せ替えを行わせる服が撮影されている対象画像を選択し、着せ替え対象の服に、ステップS114において検索した人物の顔を嵌め込み、画像を合成する。以後、やり直し操作が行われるたびに(S125→Y)、次の人物を検索し(S114)、ステップS115以下で画像合成の処理を行う。 As described above, when the dress-up mode is selected in step S111, the target image in which the clothes to be dressed selected in step S113 are photographed is selected, and the person searched in step S114 as the clothes to be dressed. The face is inserted and the image is synthesized. Thereafter, each time a redo operation is performed (S125 → Y), the next person is searched (S114), and image composition processing is performed in step S115 and subsequent steps.
なお、この嵌め込み合成は、記録されている顔が一巡した後には、大きさを変えて合成したり、角度や位置を少しずつ変えて合成しても良い。また、やり直し操作スイッチが操作されるたびに(S125→Y)、次の人物の画像合成を行っていたが、連続的に人物を検索して、次から次へと合成画像を表示するようにしても良い。 Note that this fitting composition may be performed by changing the size or by changing the angle and position little by little after the recorded face makes a round. Further, every time the redo operation switch is operated (S125 → Y), the next person's image composition is performed. However, the person is continuously searched and the composite image is displayed from the next to the next. May be.
このカメラ制御のフローによれば、気になる服を撮影するだけで、自分が似合うかどうか試着した感じを確かめることができる。また、様々な顔画像を当てはめるので、輪郭判定のような厳密な画像合成を行わなくとも、顔画像の数が多ければ、自然に見えるケースが現れる。 According to this camera control flow, it is possible to confirm the feeling of trying on whether or not he / she suits just by photographing the clothes he cares about. In addition, since various face images are applied, there is a case where the image looks natural if the number of face images is large without performing strict image synthesis such as contour determination.
次に、ステップS107における画像分類のサブルーチンについて、図6を用いて説明する。ステップS113において対象画像の一覧表示を行っており、またステップS114において人物画像の検索を行っている。これらの一覧表示や検索にあたっては、迅速に画像を探し出す必要があることから、本実施形態においては、画像分類部1eを設け、迅速に画像分類を行うようにしている。この画像分類は、主に撮影時に得られた撮影画像情報に基づいて、図7に示すような形式で、各画像と表形式で関連付け、その結果を記録部4中の関連情報記録部4bに記録している。
Next, the image classification subroutine in step S107 will be described with reference to FIG. In step S113, a list of target images is displayed, and in step S114, a human image is searched. Since it is necessary to quickly search for images when displaying and searching for these lists, in this embodiment, an image classification unit 1e is provided to quickly classify images. This image classification is mainly associated with each image in a tabular format in the format shown in FIG. 7 based on the captured image information obtained at the time of shooting, and the result is stored in the related
撮影画像の情報としては、撮影日時情報や撮影位置情報のみならず、図6に示す画像分類のサブルーチンによって、カテゴリー分けしておくことにより、検索の効率化に役立つ。このサブルーチンでは、撮像部2におけるピント合わせの信号等を利用し被写体距離情報で分類分けしている。また、撮影にあたってテンプレート21を利用したか否か、画像の色情報や、顔検出部3による顔検出結果に基づいて画像に顔の部分が含まれるか否か、顔の大きさや数、顔の特徴などの情報に従って、人物が全身で背景も多く含むスナップ写真、顔の表情を中心としたポートレート写真、花の写真、服の写真、ペットの写真、風景写真等に判定している。
The information of the captured image is useful not only for the shooting date / time information and the shooting position information but also for the classification efficiency by the image classification subroutine shown in FIG. In this subroutine, classification is performed based on subject distance information using a focusing signal or the like in the
図6に示す画像分類のサブルーチンに入ると、まず、画像の中に顔があるか否かの判定を行う(S301)。この判定は、顔検出部3によって行う。この判定の結果、顔が存在した場合には、次に、中央の人の顔の下の部分の色や、パターンを判定して記録する(S302)。顔の下の部分の色を見ているのは、服装の色として検出するためであり、また、服装のパターンも検出して、これらの情報を関連情報記録部4bに記録する。なお、マネキン22の場合には、顔有りと判定され、ステップS302以下に進む。すなわち、マネキン22の場合には、ステップS302において、顔の中心から顔の大きさ程度の下にある部分を服装と判定し、この服装のパターンを判定する。
When the image classification subroutine shown in FIG. 6 is entered, it is first determined whether or not there is a face in the image (S301). This determination is performed by the
次に、顔の大きさが大か否かの判定を行う(S303)。この判定の結果、所定の大きさより大きかった場合にはポートレート写真とし(S305)、一方、所定の大きさよりも小さかった場合には、スナップ写真と判定する(S304)。したがって、ステップS303における判定値は、分類分けを行うに相応しい値とする。 Next, it is determined whether or not the face size is large (S303). If the result of this determination is that the image is larger than a predetermined size, the photo is taken as a portrait (S305). On the other hand, if it is smaller than the predetermined size, it is determined as a snap photo (S304). Accordingly, the determination value in step S303 is a value suitable for classification.
ステップS304、S305において分類分けを行うと、次に、顔の数、位置、大きさ、特徴を検出し、判定する(S306)。ここでは、顔位置・大きさ判定部1cによる判定結果に基づいて、顔の数、位置、大きさを検出する。また、顔特徴抽出部1bによって、顔の特徴を抽出する。家族や友人等、撮影の可能性のある人物顔の特徴は、例えば、P−A、P−Bのように、予め顔特徴抽出部1bに登録しておき、この登録された顔の特徴と一致するか否かを判定する。これら検出された結果は、関連情報記録部4bに記録される。
Once classification is performed in steps S304 and S305, the number, position, size, and features of the face are detected and determined (S306). Here, the number, position, and size of faces are detected based on the determination result by the face position /
ステップS301における判定の結果、顔がなかった場合には、次に、主要色の判定を行う(S310)ここでは、画面中央等において、画面の主要な色を判定する。続いて、遠距離か否かの判定を行う(S311)。この判定は、撮像部2でピント合わせを行った際のピント位置に基づいて行う。この判定の結果、遠距離にあった場合には、画像は風景写真と判定する(S317)。
If the result of determination in step S <b> 301 is that there is no face, next, the main color is determined (S <b> 310). Here, the main color of the screen is determined at the center of the screen or the like. Subsequently, it is determined whether or not it is a long distance (S311). This determination is made based on the focus position when the
ステップS311における判定の結果、遠距離でなかった場合には、次に、マクロか否かの判定を行う(S312)。この判定も、撮像部2においてピント合わせを行った際のピント位置に基づいて、近距離側のマクロ領域での撮影か否かを判定する。この判定の結果、マクロ領域での撮影であった場合には、画像を花の写真と判定する(S317)。
If the result of determination in step S311 is not long distance, it is next determined whether or not it is a macro (S312). Also in this determination, it is determined whether or not the photographing is performed in the macro area on the short distance side based on the focus position when the
ステップS312における判定の結果、マクロでなかった場合には、テンプレートを用いての撮影であったか否かの判定を行う(S313)。テンプレートを使用したか否かは、画像に関連付けて関連情報記録部4bに記録されているので、この情報に基づいて判定する。この判定の結果、テンプレートを用いていた場合には、服の写真と判定する(S314)。一方、判定の結果、テンプレートを用いていなかった場合には、人気のテーマの一つであるペットの写真と判定する(S315)。ペットの画像をさがす場合には、このペット分類から検索すれば、速く見つけることができる。
If the result of determination in step S312 is not a macro, it is determined whether or not shooting has been performed using a template (S313). Whether or not a template is used is recorded in the related
ステップS306、S314〜S317における処理が終わると、元のフローに戻る。このように、画像分類のフローでは、画像に顔があるか否かを判定し、顔がある場合には、その人物に関する情報を検出し、スナップ写真か、ポートレート写真のいずれかに分類する。また、画像に顔がなかった場合には、服、ペット、花、風景に分類する。 When the processes in steps S306 and S314 to S317 are completed, the process returns to the original flow. As described above, in the image classification flow, it is determined whether or not there is a face in the image. If there is a face, information about the person is detected and classified into either a snapshot or a portrait. . If there is no face in the image, it is classified into clothes, pets, flowers, and scenery.
図7(a)は、画像分類のフローにおいて分類され、関連情報記録部4bに記録された情報の一例を示す。また、図7(b)は、画面の分割例を示し、本実施形態においては、領域A1〜A9の9分割である。また各領域A1〜A9では、顔の大きさをD1〜D3の3段階に分けている。図中、画像1は、スナップ写真であり、顔の数が2つあり、領域A4に登録済みの人物P−Aが顔の大きさD2で映っており、領域A6には不明の人物PXがかの大きさD3で映っている。また、顔の下の色は青色であり、テンプレートは使用
しておらず、撮影日時は9月15日である。画像2〜画像4にも画像に関連付けて情報が、図7(a)に示すように、記録されている。なお、人物P−A、P−B、P−X等は、顔特徴抽出部1bによって判定される。ここで、P−A、P−Bは家族、友人等、予め登
録されている人物であり、P−Xは登録人物ではない場合に付与される。
FIG. 7A shows an example of information classified in the image classification flow and recorded in the related
このような画像分類しておくと、画像検索を迅速かつ効率的に行うことができる。例えば、顔画像を探す場合には、S314〜S317において分類された画像は、検索対象外とすることができ、検索を迅速かつ効率化することができる。 When such image classification is performed, image search can be performed quickly and efficiently. For example, when searching for a face image, the images classified in S314 to S317 can be excluded from the search target, and the search can be performed quickly and efficiently.
次に、本実施形態における、合成画像の表示の変形例について、図8を用いて説明する。本発明の一実施形態においては、ステップS113において、選択された一つの対象画像に対して、ステップS118またはステップS123において、人物の顔部分を貼り付けた合成画像を表示していた。したがって、表示部8aには、常に一つの合成画像が表示されていた。本変形例は、複数の合成画像をサムネイル形式で表示するようにしている。
Next, a modified example of the composite image display in the present embodiment will be described with reference to FIG. In one embodiment of the present invention, in step S113, a composite image in which a person's face portion is pasted is displayed in step S118 or step S123 for the selected target image. Therefore, one composite image is always displayed on the
図8(a)は、異なる人物の顔をマネキン22が着ていた服24に貼り付けて、あたかもショーウインドに飾られた服24が誰に似合うかを比較できるように、表示部8aに一覧表示した例である。このような表示を行うには、ステップS125(図5参照)において、サムネイル表示する際の画像数まで、自動的にステップS114に戻り、ステップS118またはS123において、合成画像をサムネイル表示するようにすれば良い。
FIG. 8A shows a list displayed on the
図8(b)は服の画像はいずれも異なり、異なる服に対して、同一人物26を貼り付けるようにした例である。同一人物26に対して、どの服が似合うかを判定することが簡単にできる。このような表示を行うには、ステップS113(図5参照)において人物画像を選択し、ステップS114において、対象画像(服)を検索するようにすれば良い。
FIG. 8B shows an example in which images of clothes are different and the
次に、対象画像に人物画像の顔部を合成する際に、より自然なマッチングとなるようにした変形例を図9および図10を用いて説明する。前述の本発明の一実施形態においては、マネキン22や人物25、25a、25bの向いている方向等については、考慮せず画像合成を行っていた。考慮しないと、以外な組み合わせにより楽しむこともできるが、本変形例においては、自然な組み合わせを優先したい場合に利用することができる。
Next, a modification example in which more natural matching is performed when a face portion of a person image is combined with a target image will be described with reference to FIGS. 9 and 10. In the above-described embodiment of the present invention, the image synthesis is performed without considering the direction of the
図9(a)は、図2(d)と同じくマネキン22に服24を着せた状態の画像である。このマネキン22の顔22aの向いている方向等の特徴を、顔特徴抽出部1bによって検出する。まず、顔22aの輪郭線から、図9(b)に示すように、楕円近似で顔輪郭31を抽出する。この楕円の長軸と短軸の交点を求め、この交点を顔輪郭中心32とする。また、マネキン22の顔22aの陰影の交点、例えば、両目を結ぶ線と、鼻を結ぶ線の交点を顔陰影中心34とする。それぞれの交点を通る線のズレから、目や鼻に相当する陰影のズレ量ΔX、ΔYを求める。また、顔陰影中心34を通る長軸方向の長さから顔の高さFを求める。
FIG. 9A is an image of the
また、画面上下ライン35と、顔陰影中心34を上下方向に通る顔陰影上下ライン33(図9(b)では中心34を通るラインと平行なラインで示している)との傾きθを求める。これらのΔX、ΔY、F、θは、マネキン22の顔22aの特徴を表しているので、これらの特徴値を服24の画像に関連付けて記憶し、この特徴値と略一致する人物の顔を検索して、画像合成すれば、自然な合成となる。なお、図2(a)に示したようなテンプレート21を用いて服23を撮影する場合にも、顔部21aについて求めたΔX、ΔY、F、θ等の特徴値を固定値として記憶しておけば良い。
Further, the inclination θ between the screen
次に、人物画像の特徴値について、図10を用いて説明する。人物画像の特徴値もマネキン22の顔22aと同じ考え方で求めることができる。図10(a)に示すような人物を含む画像が取得された場合、この中から人物27を図10(b)に示すように抽出する。続いて、人物27の顔の輪郭線から、図10(b)(c)に示すように、楕円近似で顔輪郭31を抽出する。この楕円の長軸と短軸の交点を求め、この交点を顔輪郭中心32とする。また、人物27の顔の陰影の交点、例えば、両目を結ぶ線と、鼻を結ぶ線の交点を顔陰影中心34とする。それぞれの交点を通る線のズレから、目や鼻に相当する陰影のズレ量ΔX、ΔYを求める。また、顔陰影中心34を通る長軸方向の長さから顔の高さFを求める。
Next, feature values of a person image will be described with reference to FIG. The feature value of the person image can also be obtained in the same way as the
また、画面上下ライン35と、顔陰影中心34を上下方向に通る顔陰影上下ライン33(図10(c)では中心34を通るラインと平行なラインで示している)との傾きθを求める。これらのΔX、ΔY、F、θは、マネキン22の場合と同様、人物27の顔の特徴を表しているので、これらの特徴値を図10(a)の画像に関連付けて記憶し、この特徴値と略一致する服を検索して、画像合成すれば、自然な合成となる。
Further, the inclination θ between the screen
なお、服や人物の顔の画像はデジタル画像であることから、服や顔の画像の拡大・縮小は任意に行うことができる。顔の高さFが異なる場合であっても、高さFでΔX、ΔYを除算した値で比較し、傾きθが略同じであれば、合成可能と判断しても良い。マネキン画像と人物画像が合成可能の場合には、マネキン22の顔の高さFに合わせて人物の顔の大きさを補正してから画像合成を行う。また、テンプレート22で撮影された服の画像と人物画像が合成可能の場合には、テンプレート22の顔の高さFを、人物の顔の高さFと一致するように、服の画像を拡大または縮小を行う。
Since the image of the clothes and the face of the person is a digital image, the image of the clothes and the face can be arbitrarily enlarged or reduced. Even when the face heights F are different, a comparison may be made by dividing ΔX and ΔY by the height F, and if the inclination θ is substantially the same, it may be determined that synthesis is possible. When the mannequin image and the person image can be combined, the image is combined after correcting the size of the person's face according to the height F of the face of the
このように、本発明の変形例では、服の画像に人物の顔を合成した場合に、不自然な画像となることを防止することができる。なお、このような顔の向きを略一致させる着せ替え表示モードと、顔の向きを考慮しない着せ替え表示モードを選択できるようにしても良い。 As described above, in the modified example of the present invention, when a person's face is combined with an image of clothes, an unnatural image can be prevented. It should be noted that such a change display mode that substantially matches the face direction and a change display mode that does not consider the face direction may be selected.
以上説明したように、本発明の実施形態においては、撮影するにあたって、被写体の一部を位置合わせする指定部(テンプレート)を設けたので、衣服の画像に対して人物を入れ替えて、その衣装に最適な人物を簡単に探すことができる。また、本発明の実施形態においては、衣服の映っている画像を選択すると、それに合わせて人物を検索し、衣装の映っている画像に人物を画像合成している。この場合も、衣服の画像に対して人物を入れ替えて、その衣装に最適な人物を簡単に探すことができる。 As described above, in the embodiment of the present invention, when photographing, a designation unit (template) for aligning a part of the subject is provided. You can easily find the best person. In the embodiment of the present invention, when an image showing clothes is selected, a person is searched according to the selected image, and the person is synthesized with the image showing the costume. Also in this case, it is possible to easily search for the most suitable person for the costume by replacing the person with the clothes image.
さらに、本実施形態においては、撮影画像を用いて着せ替えモード表示することにより、様々な楽しみを提供することができ、例えば、どの服装が誰に似合うかなど、会話を促すコミュニケーション機器としてカメラ等を利用することができる。また、マネキン22の代わりに、友人の撮影画像を利用すれば、友人の服を自分が着たらどうなるかを試して楽しむこともできる。
Furthermore, in the present embodiment, various modes of enjoyment can be provided by displaying a dress-up mode using a photographed image. For example, a camera or the like as a communication device that encourages conversation, such as which clothes suits who Can be used. In addition, if a photographed image of a friend is used instead of the
なお、本発明の実施形態においては、カメラにおいて撮影を行うと共に、撮影後に記録画像から着せ替えで再生表示を行うようにしていた。しかし、これに限らず、画像データを再生装置に格納し、この格納された画像データに基づいて着せ替えで再生表示を行うようにしても構わない。また、再生装置としてはパーソナルコンピュータでも良く、また再生専用装置であっても構わない。また、本発明の実施形態においては、撮影時に画像分類を行い、画像分類結果も画像データと一緒に記録していた。しかし、これに限らず、画像分類は、再生時に行うようにしても勿論かまわない。 In the embodiment of the present invention, shooting is performed with a camera, and reproduction display is performed by changing from a recorded image after shooting. However, the present invention is not limited to this, and image data may be stored in a reproduction device, and reproduction display may be performed by changing the dress based on the stored image data. The playback device may be a personal computer or a playback-only device. In the embodiment of the present invention, image classification is performed at the time of photographing, and the image classification result is recorded together with the image data. However, the present invention is not limited to this, and the image classification may of course be performed at the time of reproduction.
また、本発明の実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも構わない。 In the embodiment of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and a video camera, a movie camera, or the like. For example, a camera built in a mobile phone or a personal digital assistant (PDA) may be used.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1・・・画像処理及び制御部、1b・・・顔特徴抽出部、1c・・・顔位置・大きさ判定部、1d・・・画像検索部、1e・・・部分消去部、2・・・撮像部、3・・・顔検出部、4・・・記録部、4b・・・関連情報記録部、5a・・・テンプレート部、5b・・・画像合成部、6・・・操作判定部、7・・・GPS、8・・・表示制御部、8a・・・表示部、8b・・・タッチパネル、9・・・時計部、10・・・カメラ、12・・・通信部、21・・・テンプレート、21a・・・顔部、21b・・・肩部、22・・・マネキン、22a・・・顔、22b・・・手、23・・・服、24・・・服、25・・・人物、26・・・人物、27・・・人物、31・・・顔輪郭、32・・・顔輪郭中心、33・・・顔陰影上下ライン、34・・顔陰影中心、35・・・画面上下ライン
DESCRIPTION OF
Claims (6)
上記対象画像の選択された服の画像の顔部分を判定するステップと、Determining a face portion of the selected clothing image of the target image;
記録された画像から人物画像を画像検索するステップと、Searching for a person image from the recorded images; and
上記人物画像の顔部分を、上記対象画像から判定された顔部分に合成する画像合成ステップと、An image synthesis step of synthesizing the face portion of the person image with the face portion determined from the target image;
合成した画像を表示するステップと、Displaying the synthesized image; and
からなることを特徴とする画像表示方法。An image display method comprising:
上記表示部に表示された服の画像の一覧表示から、対象画像として選択された服の画像の顔部分を判定する判定部と、A determination unit that determines a face part of an image of clothes selected as a target image from a list display of clothes images displayed on the display unit;
記録された画像から人物画像を検索する画像検索部と、An image search unit for searching a person image from recorded images;
上記人物画像の顔部分を、上記対象画像から判定された顔部分に合成する画像合成部と、An image composition unit for compositing the face part of the person image with the face part determined from the target image;
からなることを特徴とする画像表示装置。An image display device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013062108A JP2013168969A (en) | 2013-03-25 | 2013-03-25 | Image display method, and image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013062108A JP2013168969A (en) | 2013-03-25 | 2013-03-25 | Image display method, and image display device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009011618A Division JP5232669B2 (en) | 2009-01-22 | 2009-01-22 | camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013168969A true JP2013168969A (en) | 2013-08-29 |
Family
ID=49178987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013062108A Pending JP2013168969A (en) | 2013-03-25 | 2013-03-25 | Image display method, and image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013168969A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020107053A (en) * | 2018-12-27 | 2020-07-09 | ファミリーイナダ株式会社 | Product fitting system, terminal device, management server, computer program, and product sales method |
JPWO2020059575A1 (en) * | 2018-09-21 | 2021-09-16 | 富士フイルム株式会社 | 3D image generator, 3D image generation method, and program |
CN114059267A (en) * | 2020-07-31 | 2022-02-18 | 青岛海尔洗衣机有限公司 | Operation control method and device of clothes treatment equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09200599A (en) * | 1996-01-22 | 1997-07-31 | Sanyo Electric Co Ltd | Image photographing method |
JPH10240908A (en) * | 1997-02-27 | 1998-09-11 | Hitachi Ltd | Video composing method |
JP2001134745A (en) * | 1999-11-05 | 2001-05-18 | Hitachi Information & Control Systems Inc | Try-on simulation system |
-
2013
- 2013-03-25 JP JP2013062108A patent/JP2013168969A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09200599A (en) * | 1996-01-22 | 1997-07-31 | Sanyo Electric Co Ltd | Image photographing method |
JPH10240908A (en) * | 1997-02-27 | 1998-09-11 | Hitachi Ltd | Video composing method |
JP2001134745A (en) * | 1999-11-05 | 2001-05-18 | Hitachi Information & Control Systems Inc | Try-on simulation system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020059575A1 (en) * | 2018-09-21 | 2021-09-16 | 富士フイルム株式会社 | 3D image generator, 3D image generation method, and program |
JP7170052B2 (en) | 2018-09-21 | 2022-11-11 | 富士フイルム株式会社 | 3D image generation device, 3D image generation method, and program |
JP2020107053A (en) * | 2018-12-27 | 2020-07-09 | ファミリーイナダ株式会社 | Product fitting system, terminal device, management server, computer program, and product sales method |
JP7249015B2 (en) | 2018-12-27 | 2023-03-30 | ファミリーイナダ株式会社 | Product fitting system, terminal device, management server, computer program, and product sales method |
CN114059267A (en) * | 2020-07-31 | 2022-02-18 | 青岛海尔洗衣机有限公司 | Operation control method and device of clothes treatment equipment |
CN114059267B (en) * | 2020-07-31 | 2023-11-07 | 青岛海尔洗衣机有限公司 | Operation control method and device of clothes treatment equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5232669B2 (en) | camera | |
US8698920B2 (en) | Image display apparatus and image display method | |
KR100596910B1 (en) | Image display controlling method, and image display controlling apparatus | |
US8582918B2 (en) | Imaging device, image composition and display device, and image composition method | |
WO2017016069A1 (en) | Photographing method and terminal | |
KR102407190B1 (en) | Image capture apparatus and method for operating the image capture apparatus | |
JP6723512B2 (en) | Image processing apparatus, image processing method and program | |
JP2010021721A (en) | Camera | |
JP2013168969A (en) | Image display method, and image display device | |
JP2003085411A (en) | Image input/output device | |
JP2012032728A (en) | Image display device and its method | |
JP5675922B2 (en) | Shooting display device | |
JP2009205322A (en) | Image display apparatus, image display method and image display program | |
CN104125387A (en) | Photographing guidance method and electronic device | |
JP5368165B2 (en) | Imaging display device and imaging display method | |
JP2010199771A (en) | Image display apparatus, image display method, and program | |
JP2013081136A (en) | Image processing apparatus, and control program | |
JP2010199772A (en) | Image display apparatus, image display method, and program | |
JP2008103850A (en) | Camera, image retrieval system, and image retrieving method | |
JP6412743B2 (en) | Shooting support apparatus, shooting support system, shooting support method, and shooting support program | |
JP2005109555A (en) | Image output apparatus, picture output method, and picture output processing program | |
JP5509287B2 (en) | Reproduction display device, reproduction display program, reproduction display method, and image processing server | |
JP5778314B2 (en) | Server and image handling method | |
JP7428143B2 (en) | Photography equipment, photography method, and program | |
WO2022158201A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140701 |