JP4708397B2 - Information terminal and computer program - Google Patents
Information terminal and computer program Download PDFInfo
- Publication number
- JP4708397B2 JP4708397B2 JP2007160756A JP2007160756A JP4708397B2 JP 4708397 B2 JP4708397 B2 JP 4708397B2 JP 2007160756 A JP2007160756 A JP 2007160756A JP 2007160756 A JP2007160756 A JP 2007160756A JP 4708397 B2 JP4708397 B2 JP 4708397B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- extracted
- face portion
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Description
本発明は、既存の画像データにデジタルカメラ等の撮影装置が出力する撮像画像を取り込んで合成できるようにした情報端末及びコンピュータプログラムに関する。 The present invention relates to an information terminal and a computer program that can capture and synthesize a captured image output from a photographing apparatus such as a digital camera with existing image data.
衣類やアクセサリー等のファッション関係グッズを扱うような店舗では、衣類等の販売に先立ってその試着をすることが一般的である。顧客の側でも、試着無しに衣類等の商品を購入することは稀であろう。 In stores that handle fashion-related goods such as clothing and accessories, it is common to try on clothing before selling it. Even on the customer side, it will be rare to purchase items such as clothes without trying on.
ところが、試着をするにはある程度の時間がかかるため、数多くの商品を一度に試着することはできない。また、異なる場所に複数の店舗を設置しているような場合は、例えば、顧客が求める商品が東京の店舗にはないが神戸の店舗には置いてあるというような事態が生じうる。このような場合、東京の店舗に来店した顧客は、神戸でのみ置いてある商品をその場で試着することはできない。 However, since it takes some time to try on, it is not possible to try on many products at once. Further, when a plurality of stores are installed in different places, for example, a situation may occur in which a product requested by a customer is not in a store in Tokyo but is in a store in Kobe. In such a case, a customer who visits a store in Tokyo cannot try on a product that is only in Kobe.
このようなことから、近年、例えばコンピュータ上の仮想空間で商品の画像と顧客の画像とを重ね合わせ、実際には試着しなくても画像上で試着できるようにした技術が開発され、普及の兆しを見せ始めている。もっとも、このような仮想空間上での試着を可能にするためには、商品の画像にも顧客の画像にも3次元情報を保持させなければならない等、大掛かりな仕組みを必要とするため、現在の時点では、多くの店舗で気軽に採用できるような手軽さがない。 For this reason, in recent years, for example, a technology has been developed in which a product image and a customer image are superimposed in a virtual space on a computer and can be tried on the image without actually trying on. I'm starting to show signs. However, in order to enable such a try-on in a virtual space, a large-scale mechanism is required, such as having to store 3D information in both product images and customer images. At that time, there is no easy way to adopt it easily in many stores.
これに対して、特許文献1には、予め保持している画像データにデジタルカメラで撮影した画像を簡易に重ね合わせられるようにした技術が開示されている。 On the other hand, Patent Document 1 discloses a technique in which an image captured by a digital camera can be easily superimposed on previously stored image data.
前述したように、コンピュータ上の仮想空間で商品の画像と顧客の画像とを重ね合わせ、実際には試着しなくても画像上で試着できるようにした技術を搭載したシステムは、敷居が高く、現在では普及がおぼつかない。しかも、このようなシステムの運用上、3次元情報を保持するために顧客を様々な角度から撮影しなければならないところ、このような運用は顧客に抵抗感を感じさせ易い。 As mentioned above, a system equipped with a technology that superimposes product images and customer images in a virtual space on a computer and allows you to try on the image without actually trying it on, has a high threshold, Currently it is not popular. In addition, in order to maintain the three-dimensional information for operating such a system, the customer must be photographed from various angles. Such an operation tends to make the customer feel resistance.
その一方、特許文献1に記載されているように、予め保持している画像データにデジタルカメラで撮影した画像を簡易に重ね合わせられるようにした技術も開発されている。ところが、このような技術によれば、一画面中で二つの画像を並べて表示した後に両画像を重ね合わせることとも相俟って、リアルで高精度な重ね合わせ画像が得られにくいという問題がある。 On the other hand, as described in Patent Document 1, a technique has been developed in which an image captured by a digital camera can be easily superimposed on image data held in advance. However, according to such a technique, there is a problem that it is difficult to obtain a realistic and high-precision superimposed image in combination with the superimposition of both images after displaying two images side by side in one screen. .
本発明の目的は、モデル画像と撮影画像とを重ね合わせて一画像とするに際して、簡易な手法を採用しながらも、リアルで高精度な重ね合わせ画像が得られるようにすることである。 An object of the present invention is to obtain a realistic and highly accurate superimposed image while adopting a simple method when superimposing a model image and a captured image into one image.
本発明の情報端末は、情報を表示する表示部と、情報を操作入力する操作入力部と、前記表示部の背部に位置させて二次元空間上に複数個のランプを配列し、前記ランプを選択的に点灯制御する注視盤と、を備え、(1)記憶部に記憶されている画像データに含まれているモデル画像中の顔部分を抽出し、(2)前記抽出されたモデル画像中の顔部分の顔の向きを認識し、(3)前記抽出したモデル画像中の顔部分を含む拡大画像で前記画像データの一部を前記表示部に表示し、(4)前記抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施し、(5)撮影装置が出力する撮影中の動画像を取込んで当該動画像中の顔部分を抽出し、(6)前記認識した顔の向きに応じて、当該抽出されたモデル画像中の顔部分の顔の向きと前記抽出された動画像中の顔部分の顔の向きとが相対的に近似する方向に前記撮影装置の前に立つ被写体の顔の向きを向けさせる位置の前記ランプの点灯を指示し、(7)前記表示部に表示されているモデル画像に前記抽出された動画像中の顔部分を重ね合わせて表示し、(8)前記操作入力部での撮影指示操作によって、前記画像データに前記動画像中の顔部分を置き換えた静止画像である合成画像を生成する。 An information terminal according to the present invention includes a display unit for displaying information, an operation input unit for operating and inputting information, and a plurality of lamps arranged in a two-dimensional space on the back of the display unit. A gaze board that selectively controls lighting , and (1) extracts a face portion in a model image included in image data stored in a storage unit, and (2) in the extracted model image (3 ) displaying a part of the image data on the display unit as an enlarged image including the face portion in the extracted model image, and (4) the extracted model image. A first filtering process is performed on the inner face part to make the display of the face part different from the display of the other part, and (5) the moving image being captured output by the photographing device is taken in and the face in the moving image is captured (6) The extracted portion is extracted according to the recognized face orientation. The direction of the face of the subject standing in front of the photographing apparatus is directed in a direction in which the face direction of the face part in the extracted model image and the face direction of the face part in the extracted moving image are relatively approximate (7) The face part in the extracted moving image is superimposed and displayed on the model image displayed on the display unit, and (8) the operation input unit By this shooting instruction operation, a composite image which is a still image in which the face portion in the moving image is replaced with the image data is generated.
本発明のコンピュータプログラムは、情報を表示する表示部と、情報操作入力する操作入力部と、を備えるコンピュータにインストールされ、当該コンピュータに、上記(1)〜(8)の処理を実行させる。 The computer program of the present invention is installed in a computer including a display unit that displays information and an operation input unit that inputs information, and causes the computer to execute the processes (1) to (8) .
本発明によれば、画像データに含まれているモデル画像中の顔部分を抽出して当該顔部分を中心とした拡大画像を表示し、しかも、当該顔部分の表示を他の部分の表示と異ならせ、ここに撮影装置で撮影中の動画像から抽出した顔部分を重ね合わせるようにしたので、モデル画像と撮影画像とを重ね合わせて一画像とするに際して、簡易な手法を採用しながらも、リアルで高精度な重ね合わせ画像を得ることができる。 According to the present invention, the face portion in the model image included in the image data is extracted to display an enlarged image centered on the face portion, and the display of the face portion is changed to the display of other portions. Since the face part extracted from the moving image being photographed by the photographing device is superimposed here, the model image and the photographed image are superimposed to form a single image while adopting a simple technique. Realistic and highly accurate superimposed images can be obtained.
本発明の実施の一形態を図1ないし図11に基づいて説明する。 An embodiment of the present invention will be described with reference to FIGS.
図1は、情報端末を示す外観斜視図である。情報端末101は、各部を収納するトールボディ型の本体部102の上面に表示部としての液晶ディスプレイ103が取り付けられて構成されている。液晶ディスプレイ103には、その表示面104の上に操作入力部としてのタッチパネル105が積層配置されている。液晶ディスプレイ103には、そのフレーム106の上部に撮影装置としての撮影装置としてのカメラ107も取り付けられている。
FIG. 1 is an external perspective view showing an information terminal. The
また、本体部102には、液晶ディスプレイ103の背面側に位置させて、注視盤109が固定されている。注視盤109は、垂直配置されたボード110に複数個のランプ111が配列され、更にランプ111を個々に点灯制御する点灯回路(図示せず)が設けられて構成されている。ランプ111には、一例として、輝度が高いLEDランプが用いられている。
A
図2は、情報端末101の電気的接続のブロック図である。図2に示すように、情報端末101には、マイクロコンピュータ201が備えられており、このマイクロコンピュータ201が各部を駆動制御する。マイクロコンピュータ201は、各部を集中的に制御するCPU202に、バスライン203を介して制御プログラム等の固定的情報を予め記憶するROM204と、各種情報を書き換え自在に記憶してワークエリア等として機能するRAM205とが接続されて構成されている。したがって、マイクロコンピュータ201は、情報処理を実行する情報処理部を構成する。なお、図2では、CPU202、ROM204及びRAM205を単一構成物として表示しているが、これらのCPU202、ROM204及びRAM205は、複数の固体に分割されて構成されていてもよい。特に、RAM205として表示している構成物は、少なくとも、ワークエリアとして用いられるチップと画像メモリを構成するチップとを含んでいる。
FIG. 2 is a block diagram of electrical connection of the
マイクロコンピュータ201には、バスライン203を介してI/OインターフェースIFが接続されている。そして、I/OインターフェースIFには、タッチパネルコントローラ206、ビデオコントローラ207、HDD208、及びシリアルポート209が接続されている。シリアルポート209には、前述したカメラ107及び注視盤109が接続され、更にRFIDリーダライタ210も接続されている。
An I / O interface IF is connected to the
タッチパネルコントローラ206には、タッチパネル105が接続されている。タッチパネルコントローラ206は、タッチパネル105からの入力信号をマイクロコンピュータ201に取り込む。
A
ビデオコントローラ207には、液晶ディスプレイ103が接続されている。ビデオコントローラ207は、画像データに基づいて液晶ディスプレイ103を駆動制御し、画像データに応じた画像を液晶ディスプレイ103に表示させる。
A
HDD208には、プログラムエリア301、商品マスタエリア302(商品データベース)、メタ画像蓄積エリア303(画像データベースの一部)、及び商品IDリンクエリア304(画像データベースの他の一部)が設けられている。プログラムエリア301には、OS及びコンピュータプログラム等がインストールされている。これらのOS及びコンピュータプログラム等は、情報端末101の起動時にその全部又は一部がRAM205にコピーされてCPU202にアクセスされる。CPU202は、こうしてコピーされたOS及びコンピュータプログラムに従った処理を実行する。商品マスタエリア302は、商品データベースを構築する。その詳細については図3に基づいて後述する。メタ画像蓄積エリア303及び商品IDリンクエリア304は、画像データベースを構築する。メタ画像蓄積エリア303の詳細については図4に基づいて、商品IDリンクエリア304の詳細については図5に基づいて、それぞれ後述する。
The HDD 208 is provided with a
シリアルポート209に接続されているカメラ107は、レンズ108から取り込んだ画像を2次元CCDアレイ(図示せず)に結像させ、CCDアレイの出力を増幅、A/D変換、フィルタリング等して出力する撮影装置である。
The
シリアルポート209に接続されているRFIDリーダライタ210は、例えば電磁誘導結合による近距離無線通信をRFIDチップとの間で実行する。本実施の形態においては、商品にRFIDチップが付帯している。つまり、商品には、その商品を特定する商品コードを記憶するRFIDチップを内蔵する無線タグ(図示せず)が付されている。したがって、RFIDリーダライタ210は、商品に付された無線タグからその商品を特定する商品コードを受信して受信した商品コードを出力する。マイクロコンピュータ201は、RFIDリーダライタ210が出力した商品コードをシリアルポート209からI/OインターフェースIFを介して取り込む。
The RFID reader /
別の実施の形態として、商品を特定する商品コードは、別の機器で読み取られたり入力されたりして、マイクロコンピュータ201に取り込まれる構成であっても良い。一例として、液晶ディスプレイ103にテンキーを表示しておき、表示されているテンキーに従ったタッチパネル105での入力によって商品コードを入力するようにしても良い。別の一例として、バーコードや2次元コード等のコードシンボルとして表現された商品コードを用意しておき、このコードシンボルをコードリーダによって光学的に読み取ることで商品コードを入力するようにしても良い。
As another embodiment, a product code that specifies a product may be read or input by another device and loaded into the
図3は、情報端末101のHDD208に記録されている商品マスタエリア302(商品データベース)の記録データを示す模式図である。商品マスタエリア302は、個々の商品を特定する商品ID(商品コード)に商品名称を対応付けて記憶している。
FIG. 3 is a schematic diagram showing record data of the product master area 302 (product database) recorded in the
図4は、情報端末101のHDD208に記録されているメタ画像蓄積エリア303(画像データベースの一部)の記録データを示す模式図である。メタ画像蓄積エリア303は、カメラ107によって撮像されてマイクロコンピュータ201に取り込まれた画像を特定する画像IDに、カメラ107による撮像画像そのもののデータであるバイナリデータ(画像データ)とそのパス名とを対応付けて記憶している。パス名には、バイナリデータのデータ形式が含まれている。なお、別の実施の形態として、バイナリデータそのものはメタ画像蓄積エリア303には蓄積せずにいずれかの記憶領域に記憶させておき、メタ画像蓄積エリア303にはパス名のみを記憶させておくことも可能である。このようなデータ構造を採用した場合、パス名をキーとしてメタ画像を検索することが可能である。
FIG. 4 is a schematic diagram showing recorded data in the meta image storage area 303 (part of the image database) recorded in the
図5は、情報端末101のHDD208に記録されている商品IDリンクエリア304(画像データベースの他の一部)の記録データを示す模式図である。商品IDリンクエリア304は、画像IDに商品IDを対応付けて記憶している。したがって、商品IDリンクエリア304を参照することで、例えば商品IDをキーとして対応する画像IDを検索することができる。検索によって画像IDが判明すれば、メタ画像蓄積エリア303からバイナリデータを取得することができる。
FIG. 5 is a schematic diagram showing recorded data in the product ID link area 304 (another part of the image database) recorded in the
図6は、画像合成処理の流れを示すフローチャートである。HDD208のプログラムエリア301にインストールされているコンピュータプログラムには、モデル画像と撮影画像とを重ね合わせた合成画像を生成するための画像合成処理用のプログラムが含まれている。この画像合成処理用のプログラムは、その起動時にRAM205にコピーされて使用される。図6に示すフローチャートの処理は、こうしてRAM205にコピーされた画像データ登録処理用のプログラムに従いCPU202が実行する処理内容を示している。
FIG. 6 is a flowchart showing the flow of the image composition process. The computer program installed in the
CPU202は、まず、特定画像の選択処理を実行する(ステップS101)。この処理は、一例として、特定の商品からその商品の撮像画像を含む特定画像を導き出す。つまり、CPU202は、タッチパネル105でのタッチ指定によって商品がタッチ指定されると、その商品IDを取得する。そこで、取得した商品IDをキーとして、図5に示す商品IDリンクエリア304から画像IDを検索する。そして、CPU202は、検索した画像IDをキーとして、図4に示すメタ画像蓄積エリア303からバイナリデータを検索する。このバイナリデータが、ステップS101で選択された特定画像の画像データそのものである。
The
図7は、図6中の特定画像の選択処理(ステップS101)の別の一例を示すフローチャートである。この別の一例では、特定の商品からその商品の撮像画像を含む特定画像を導き出すのではなく、図4に示すメタ画像蓄積エリア303に蓄積されている画像データを液晶ディスプレイ103にサムネール表示し、表示されたサムネールからタッチパネル105によるタッチ指定によって所望の画像データを特定画像として選択する処理である。つまり、CPU202は、メタ画像蓄積エリア303中から、画像一枚となる画像データを順番に取得し、モデル画像の顔部分の抽出処理を実行する(ステップS101−1)。モデル画像の顔部分の抽出処理については、後に詳述する。そして、モデル画像の顔部分を抽出できたかどうか、換言すると、モデル画像の顔部分を認識できたかどうかを判定し(ステップS101−2)、できなければ次の画像データについてのステップS101−1の処理にリターンし(ステップS101−2のN)、できればステップS101−3の処理に進む(ステップS101−2のY)。ステップS101−3では、液晶ディスプレイ103に表示する一覧画面に縮小画像を表示するいわゆるサムネール表示処理を実行する。ユーザは、液晶ディスプレイ103に表示されたサムネール画像からタッチパネル105によるタッチ指定によって所望の画像データを特定画像として選択することができる(ステップS101−4)。
FIG. 7 is a flowchart showing another example of the specific image selection process (step S101) in FIG. In another example, instead of deriving a specific image including a captured image of the product from the specific product, the image data stored in the meta
CPU202は、ステップS101での特定画像の選択処理に続く処理として、ステップS101で選択された画像データから顔部分を抽出する処理を実行する(ステップS102)。つまり、画像データに含まれているモデル画像には顔が含まれているので、その顔部分を抽出する。画像データからの顔の抽出は、各種の公知手法を用いて実行することが可能である。一例として、人の顔では、両目と口とがある範囲内で予め決められた配列をとるので、両目であろう部分と口であろう部分とを画像処理技術によって判別し、その配列がある範囲で予め決められた配列をとるのであれば、これを人の顔であると判定する。両目であろう部分と口であろう部分とは、その画像上の各種の特徴量から推定することが可能である。
The
CPU202は、ステップS102の処理として、画像データから顔が向いている方向を取得する処理も実行する。顔が向いている方向の取得も、各種の公知手法を用いて実行することが可能である。一例として、両目であろう部分と口であろう部分との配置関係、そのような配置関係から定まる顔の中心に対する顎であろう部分の左右バランス等から推定することが可能である。
The
CPU202は、ステップS102において、画像データから顔部分を認識できなかった場合には(ステップS103のN)、その後の処理に進まず、ステップS101での特定画像の選択処理にリターンする。画像データから顔部分を認識できなかった場合には、その後に続く合成画像の生成処理自体を実行することができないことになるからである。
If the face portion cannot be recognized from the image data in Step S102 (N in Step S103), the
これに対して、画像データから顔が向いている方向を認識できないとしても、画像データから顔部分を認識できた場合には、その後に続く合成画像の生成処理が可能である。そこで、一例として、画像データから顔部分を認識できた場合には、画像データから顔が向いている方向を認識できないとしても、ステップS103での認識可否判定をパスさせる。もっとも、別の一例として、画像データから顔部分を認識できたとしても顔が向いている方向を認識できない場合に、ステップS103での認識可否判定をパスさせないようにすることも可能である。 On the other hand, even if the face direction can not be recognized from the image data, if the face portion can be recognized from the image data, the subsequent composite image generation process can be performed. Therefore, as an example, when the face portion can be recognized from the image data, the recognition possibility determination in step S103 is passed even if the direction in which the face is facing cannot be recognized from the image data. However, as another example, even if the face portion can be recognized from the image data, it is possible not to pass the recognition possibility determination in step S103 when the direction in which the face is facing cannot be recognized.
CPU202は、ステップS103での認識可否判定をパスした場合(ステップS103のY)、画像データ中から抽出したモデル画像中の顔部分を中心とした拡大画像で、かつ、抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施して、画像データの一部を液晶ディスプレイ103に表示する(ステップS104)。この際の第1のフィルタ処理は、顔部分についての透過処理である。つまり、CPU202は、ステップS101で選択した画像データに拡大表示処理及び透過表示処理を施して画像を変形させ、ビデオコントローラ207に対して、そのように変形させた画像を液晶ディスプレイ103に表示させるための信号を出力する。拡大表示処理及び透過表示処理については、各所の公知手法を用いて実行することが可能である。
When the
図8は、情報端末101の液晶ディスプレイ103に表示される拡大表示されたモデル画像の一例を示す模式図である。図8に示すように、ここでは「0001.jpg」というパス名を持った画像が元画像401としてステップS101で選択されたものとする。CPU202は、選択された元画像401に対して、拡大表示処理及び透過表示処理を施して画像を変形させ、図8に例示するようなモデル画像402として液晶ディスプレイ103に表示する。ここでは、便宜上、図8に例示するモデル画像を含む表示画像を撮影直前画像Aと呼ぶ。この撮影直前画像Aには、モデル画像402に加えて、撮影ボタン403及びキャンセルボタン404が表示されている。そして、モデル画像402では、その顔部分が透過表示となっている。
FIG. 8 is a schematic diagram illustrating an example of an enlarged model image displayed on the
図6に示すフローチャートの説明に戻る。CPU202は、ステップS102で画像データから認識した顔が向いている方向の情報を参照し、注視盤109に一つのランプ111の点灯指令を出力する。つまり、CPU202は、認識した顔の向きに応じて、カメラ107の前に立つがユーザが、その顔の向きが抽出したモデル画像402の顔の向きと略一致する向きを向くことになるような位置に配置されているランプ111を点灯させる。
Returning to the description of the flowchart shown in FIG. The
図9は、注視盤109でのランプ111の発光例を例示する模式図である。図9では、右側に位置するランプ111が点灯している状態を示している。ランプ111が点灯すれば、カメラ107の前に立つユーザはその方向を注視し、その方向に顔を向けることが期待される。そこで、ユーザが顔を向ける方向をランプ111の点灯によってコントロールし、抽出したモデル画像402の顔の向きにユーザが顔を向けることを促すわけである。これにより、後述するステップS109で作成される合成画像がよりリアルで高精度なものとなることが期待される。
FIG. 9 is a schematic view illustrating a light emission example of the
図6に示すフローチャートの説明に戻る。CPU202は、ステップS105の処理に続き、カメラ107を起動し、動画撮影の処理を実行する(ステップS106)。カメラ107は、撮影した動画像をシリアルポート209に出力する。これにより、マイクロコンピュータ201はカメラ107が出力した動画像を取り込む。
Returning to the description of the flowchart shown in FIG. Following the processing in step S105, the
CPU202は、続くステップS107の処理で、取り込んだ動画像中から顔部分を抽出し、顔画像405(図10参照)を得る。この場合の画像抽出も、前述したステップS102での抽出処理と同様又は同種の処理によって実行可能である。そして、CPU202は、撮影直前画像Aにカメラ107から取り込んで抽出した顔部分の顔画像405を重ね合わせて表示する。
In the subsequent step S107, the
図10は、情報端末101の液晶ディスプレイ103に表示される拡大表示されたモデル画像402に動画像中から抽出された顔画像405を重ね合せて表示した一例を示す模式図である。ここでは、便宜上、図10に例示する画像を撮影調整画像Bと呼ぶ。この撮影調整画像Bには、撮影直前画像Aに表示されていたモデル画像402にカメラ107から取り込んで抽出した顔部分の顔画像405が重ね合わされた重畳画像406が表示され、更に、撮影ボタン403及びキャンセルボタン404が表示されている。
FIG. 10 is a schematic diagram showing an example in which a
ここで、撮影調整画像Bにおいては、モデル画像402の顔部分に透過処理が施されており、しかも、カメラ107から取り込まれた動画像は顔部分の顔画像405となっていることから、透過処理が施されているモデル画像402の顔部分にカメラ107から取り込まれた顔画像405を重ね合わせることが容易である。つまり、ユーザは、カメラ107の前で自分の顔を上下左右に動かし、あるいはカメラ107に対する遠近方向に顔を動かすことで、モデル画像402の顔部分に自分の顔画像405が重なるようにすればよい。この際、モデル画像402の顔部分は透過処理が施されているので、この透過部分に自分の顔画像405を重ね合わせることは、きわめて容易である。
Here, in the shooting adjustment image B, the face portion of the
図6に示すフローチャートの説明に戻る。CPU202は、撮影直前画像Aにカメラ107から取り込んで抽出した顔画像405を重ね合わせて表示した後(ステップS107)、撮影ボタン403のタッチ指定によって実行される撮影操作指示の有無判定に待機している(ステップS108)。撮影ボタン403のタッチ指定がなければ(ステップS108のN)、ステップS106でのカメラ107からの動画像の取り込み処理にリターンする。これに対して、CPU202は、撮影ボタン403のタッチ指定を判定すると(ステップS108のY)、タイマを起動して所定時間待った後、カメラ107から取り込んだ動画像を静止画像として保持し、RAM205に一時記憶する(ステップS109)。つまり、CPU202は、撮影ボタン403のタッチ指定による撮影操作指定後に所定のタイマ時間を設定する。この際、シリアルポート209に音声合成回路及びスピーカを有する音声回路(図示せず)を接続しておき、「3、2、1、0」のようなカウントダウン音声を生成してスピーカから発声させ、「0」発声のタイミングでカメラ107から取り込んだ動画像を静止画像として保持するようにしてもよい。
Returning to the description of the flowchart shown in FIG. The
CPU202は、カメラ107から取り込んだ動画像を静止画像として保持した後(ステップS109)、保持した静止画像に対して第2のフィルタ処理を施す(ステップS110)。第2のフィルタ処理は、抽出されたモデル画像中の顔部分と前記抽出された動画像中の顔部分との色(色相、明度、彩度)及び濃淡(コントラスト)を近似補正する処理である。これらの色(色相、明度、彩度)及び濃淡(コントラスト)の補正は、各種の公知手法によって実現可能である。
After holding the moving image captured from the
CPU202は、ステップS109の処理によって保持した静止画像に対して第2のフィルタ処理を施した後(ステップS110)、元画像401(図8参照)の顔部分を第2のフィルタ処理を施した静止画像に置き換え、合成画像407を生成する。そして、生成した合成画像407を液晶ディスプレイ103に表示する(ステップS111)。
The
図11は、生成された合成画像407の一例を示す模式図である。図11に示すように、合成画像407は、元画像401から拡大表示されたモデル画像402にカメラ107から取り込んだユーザの顔画像405を合成したものではなく、元画像401に顔画像405を合成した画像となっている。これにより、ユーザは、元画像401に含まれているモデルが着ている衣類をあたかも自分が着ているかのような印象をもって合成画像407を見ることができる。
FIG. 11 is a schematic diagram illustrating an example of the generated
以上説明したように、本実施の形態によれば、元画像401に基づくモデル画像402の顔の部分にカメラ107から取り込んだ動画像から抽出した顔画像405を重ね合せて表示することができる(図6中のステップS107)。この場合、モデル画像402は元画像401に対して顔部分を中心に拡大された画像として表示されるので(図6中のステップS104参照)、モデル画像402の顔部分にカメラ107から取り込んだ顔画像405を正確に重ね合わせることが容易となる。しかも、モデル画像402には第1のフィルタ処理が施されて顔部分が透過表示となっているので(図6中のステップS104参照)、より一層、モデル画像402の顔部分にカメラ107から取り込んだ顔画像405を正確に重ね合わせることが容易となる。このようなことから、モデル画像402と撮影画像である顔画像405とを重ね合わせて一画像とするに際して、簡易な手法を採用しながらも、リアルで高精度な重ね合わせ画像を得ることができる。そして、モデル画像402に顔画像405を重ね合せて生成した静止画像である合成画像は、元画像401と同じ大きさで液晶ディスプレイ103に表示されるので(図6中のステップS111参照)、ユーザは、元画像401に含まれているモデルが着ている衣類を仮想的に試着することができ、その衣類を着た場合の印象を容易に把握することができる。
As described above, according to the present embodiment, the
103…液晶ディスプレイ(表示部)、105…タッチパネル(操作入力部)、107…カメラ(撮影装置)、110…注視盤、111…ランプ、208…HDD(記憶部)
DESCRIPTION OF
Claims (7)
情報を操作入力する操作入力部と、
前記表示部の背部に位置させて二次元空間上に複数個のランプを配列し、前記ランプを選択的に点灯制御する注視盤と、
記憶部に記憶されている画像データに含まれているモデル画像中の顔部分を抽出する手段と、
前記抽出されたモデル画像中の顔部分の顔の向きを認識する手段と、
前記抽出したモデル画像中の顔部分を含む拡大画像で前記画像データの一部を前記表示部に表示する手段と、
前記抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施す手段と、
撮影装置が出力する撮影中の動画像を取込んで当該動画像中の顔部分を抽出する手段と、
前記認識した顔の向きに応じて、当該抽出されたモデル画像中の顔部分の顔の向きと前記抽出された動画像中の顔部分の顔の向きとが相対的に近似する方向に前記撮影装置の前に立つ被写体の顔の向きを向けさせる位置の前記ランプの点灯を指示する手段と、
前記表示部に表示されているモデル画像に前記抽出された動画像中の顔部分を重ね合わせて表示する手段と、
前記操作入力部での撮影指示操作によって、前記画像データに前記動画像中の顔部分を置き換えた静止画像である合成画像を生成する手段と、
を備える情報端末。 A display for displaying information;
An operation input unit for operating and inputting information;
A gaze board that is positioned on the back of the display unit and arranged with a plurality of lamps on a two-dimensional space, and selectively controls the lamps for lighting
Means for extracting a face portion in the model image included in the image data stored in the storage unit;
Means for recognizing the face orientation of the face portion in the extracted model image;
Means for displaying a part of the image data on the display unit in an enlarged image including a face portion in the extracted model image;
Means for performing a first filtering process on the face part in the extracted model image to make the display of the face part different from the display of other parts;
Means for taking a moving image being shot output from the photographing device and extracting a face portion in the moving image;
According to the recognized face direction, the photographing is performed in a direction in which the face direction of the face part in the extracted model image and the face direction of the face part in the extracted moving image are relatively approximated. Means for instructing lighting of the lamp at a position for directing the face of a subject standing in front of the apparatus;
Means for superimposing and displaying the face portion in the extracted moving image on the model image displayed on the display unit;
Means for generating a composite image that is a still image obtained by replacing a face portion in the moving image with the image data by a shooting instruction operation in the operation input unit;
An information terminal comprising:
前記操作入力部によって前記サムネール表示中から選択指定された前記画像データを合成処理する画像データとして選択する手段と、
を備える、請求項1ないし5のいずれか一記載の情報端末。 Means for extracting from the image database storing a plurality of the image data image data capable of extracting a face portion of the model image and displaying the thumbnail on the display unit;
Means for selecting the image data selected and designated from the thumbnail display by the operation input unit as image data to be combined;
The provided information terminal according to any one of claims 1 to 5.
記憶部に記憶されている画像データに含まれているモデル画像中の顔部分を抽出する機能と、
前記抽出されたモデル画像中の顔部分の顔の向きを認識する機能と、
前記抽出したモデル画像中の顔部分を含む拡大画像で前記画像データの一部を前記表示部に表示する機能と、
前記抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施す機能と、
撮影装置が出力する撮影中の動画像を取り込んで当該動画像中の顔部分を抽出する機能と、
前記表示部の背部に位置させて二次元空間上に複数個のランプを配列し、前記ランプを選択的に点灯制御する注視盤に対し、前記認識した顔の向きに応じて、当該抽出されたモデル画像中の顔部分の顔の向きと前記抽出された動画像中の顔部分の顔の向きとが相対的に近似する方向に前記撮影装置の前に立つ被写体の顔の向きを向けさせる位置の前記ランプの点灯を指示する機能と、
前記表示部に表示されているモデル画像に前記抽出された動画像中の顔部分を重ね合わせて表示する機能と、
前記操作入力部での撮影指示操作によって、前記画像データに前記動画像中の顔部分を置き換えた静止画像である合成画像を生成する機能と、
を実行させる機械読み取り可能なコンピュータプログラム。 Installed in a computer comprising a display unit for displaying information and an operation input unit for operating and inputting information,
A function of extracting a face portion in a model image included in image data stored in a storage unit;
A function of recognizing the face orientation of the face portion in the extracted model image;
A function of displaying a part of the image data on the display unit in an enlarged image including a face portion in the extracted model image;
A function of performing a first filtering process on the face part in the extracted model image to make the display of the face part different from the display of other parts;
A function of taking a moving image being shot output from the photographing device and extracting a face portion in the moving image;
A plurality of lamps are arranged in a two-dimensional space positioned on the back of the display unit, and the extracted information is selected according to the recognized face direction with respect to a gaze board that selectively controls the lamps to be turned on. Position for directing the face of the subject standing in front of the photographing apparatus in a direction in which the face direction of the face part in the model image and the face direction of the face part in the extracted moving image are relatively approximate A function of instructing lighting of the lamp,
A function of superimposing and displaying the face portion in the extracted moving image on the model image displayed on the display unit;
A function of generating a composite image that is a still image obtained by replacing a face portion in the moving image with the image data by a shooting instruction operation in the operation input unit;
A machine-readable computer program that executes the program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007160756A JP4708397B2 (en) | 2007-06-18 | 2007-06-18 | Information terminal and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007160756A JP4708397B2 (en) | 2007-06-18 | 2007-06-18 | Information terminal and computer program |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010287947A Division JP5291698B2 (en) | 2010-12-24 | 2010-12-24 | Information terminal and computer program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008312174A JP2008312174A (en) | 2008-12-25 |
| JP4708397B2 true JP4708397B2 (en) | 2011-06-22 |
Family
ID=40239314
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007160756A Expired - Fee Related JP4708397B2 (en) | 2007-06-18 | 2007-06-18 | Information terminal and computer program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4708397B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104850616B (en) * | 2009-12-24 | 2018-07-10 | 株式会社尼康 | Retrieve auxiliary system, search assisting method and retrieval auxiliary program |
| JP2014153817A (en) * | 2013-02-06 | 2014-08-25 | Toshiba Corp | Passage control apparatus, method and program |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004178163A (en) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Image processing method and apparatus |
| JP2005079662A (en) * | 2003-08-28 | 2005-03-24 | Make Softwear:Kk | Image editing method in photograph vending machine, photograph vending machine, and image editing program |
| JP2006094034A (en) * | 2004-09-22 | 2006-04-06 | Fuji Photo Film Co Ltd | Digital image service method and recording medium |
-
2007
- 2007-06-18 JP JP2007160756A patent/JP4708397B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2008312174A (en) | 2008-12-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105874528B (en) | Information display terminal, information display system, and information display method | |
| US11908052B2 (en) | System and method for digital makeup mirror | |
| CN101184165B (en) | Photo printing device and photo printing method | |
| US8698920B2 (en) | Image display apparatus and image display method | |
| JP5232669B2 (en) | camera | |
| JP2010183317A (en) | Imaging device, image composition and display device, image composition and display method, and program | |
| CN105637565A (en) | Fitting support device and method | |
| KR20170074742A (en) | Image processing device, image processing method amd program | |
| CN105812666A (en) | Shooting method of intelligent terminal and intelligent terminal | |
| JP4708397B2 (en) | Information terminal and computer program | |
| JP2003085411A (en) | Image input/output device | |
| JP5291698B2 (en) | Information terminal and computer program | |
| JP2017188787A (en) | Imaging apparatus, image composition method, and image composition program | |
| JP4720686B2 (en) | Automatic photo studio | |
| JP2015133549A (en) | Image processing system, image processing method and computer program | |
| JP6255790B2 (en) | Image processing apparatus and display control method | |
| JP2012142772A (en) | Image processing system and image processing method | |
| JP7599001B2 (en) | Augmented reality display system | |
| JP6156559B2 (en) | Game shooting device, game shooting method, and program | |
| JP7591121B2 (en) | Augmented reality design and printing system | |
| JP5967275B2 (en) | Photographic game machine, its control method and control computer | |
| JP5617861B2 (en) | Print production equipment | |
| JP2007166383A (en) | Digital camera, image composition method and program | |
| JP2013218206A (en) | Printed matter producing apparatus | |
| JP4454026B2 (en) | Program, information storage medium, photo printing apparatus and photo printing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20091030 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101224 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110131 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110222 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110316 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4708397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |