JP4708397B2 - Information terminal and computer program - Google Patents

Information terminal and computer program Download PDF

Info

Publication number
JP4708397B2
JP4708397B2 JP2007160756A JP2007160756A JP4708397B2 JP 4708397 B2 JP4708397 B2 JP 4708397B2 JP 2007160756 A JP2007160756 A JP 2007160756A JP 2007160756 A JP2007160756 A JP 2007160756A JP 4708397 B2 JP4708397 B2 JP 4708397B2
Authority
JP
Japan
Prior art keywords
image
face
extracted
face portion
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007160756A
Other languages
Japanese (ja)
Other versions
JP2008312174A (en
Inventor
顕也 平松
卓秀 久保田
弘真 鈴木
寿 佐藤
明男 晝間
知隆 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Tec Corp
Original Assignee
Toshiba Tec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Tec Corp filed Critical Toshiba Tec Corp
Priority to JP2007160756A priority Critical patent/JP4708397B2/en
Publication of JP2008312174A publication Critical patent/JP2008312174A/en
Application granted granted Critical
Publication of JP4708397B2 publication Critical patent/JP4708397B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本発明は、既存の画像データにデジタルカメラ等の撮影装置が出力する撮像画像を取り込んで合成できるようにした情報端末及びコンピュータプログラムに関する。   The present invention relates to an information terminal and a computer program that can capture and synthesize a captured image output from a photographing apparatus such as a digital camera with existing image data.

衣類やアクセサリー等のファッション関係グッズを扱うような店舗では、衣類等の販売に先立ってその試着をすることが一般的である。顧客の側でも、試着無しに衣類等の商品を購入することは稀であろう。   In stores that handle fashion-related goods such as clothing and accessories, it is common to try on clothing before selling it. Even on the customer side, it will be rare to purchase items such as clothes without trying on.

ところが、試着をするにはある程度の時間がかかるため、数多くの商品を一度に試着することはできない。また、異なる場所に複数の店舗を設置しているような場合は、例えば、顧客が求める商品が東京の店舗にはないが神戸の店舗には置いてあるというような事態が生じうる。このような場合、東京の店舗に来店した顧客は、神戸でのみ置いてある商品をその場で試着することはできない。   However, since it takes some time to try on, it is not possible to try on many products at once. Further, when a plurality of stores are installed in different places, for example, a situation may occur in which a product requested by a customer is not in a store in Tokyo but is in a store in Kobe. In such a case, a customer who visits a store in Tokyo cannot try on a product that is only in Kobe.

このようなことから、近年、例えばコンピュータ上の仮想空間で商品の画像と顧客の画像とを重ね合わせ、実際には試着しなくても画像上で試着できるようにした技術が開発され、普及の兆しを見せ始めている。もっとも、このような仮想空間上での試着を可能にするためには、商品の画像にも顧客の画像にも3次元情報を保持させなければならない等、大掛かりな仕組みを必要とするため、現在の時点では、多くの店舗で気軽に採用できるような手軽さがない。   For this reason, in recent years, for example, a technology has been developed in which a product image and a customer image are superimposed in a virtual space on a computer and can be tried on the image without actually trying on. I'm starting to show signs. However, in order to enable such a try-on in a virtual space, a large-scale mechanism is required, such as having to store 3D information in both product images and customer images. At that time, there is no easy way to adopt it easily in many stores.

これに対して、特許文献1には、予め保持している画像データにデジタルカメラで撮影した画像を簡易に重ね合わせられるようにした技術が開示されている。   On the other hand, Patent Document 1 discloses a technique in which an image captured by a digital camera can be easily superimposed on previously stored image data.

特開2004−312162号公報JP 2004-312162 A

前述したように、コンピュータ上の仮想空間で商品の画像と顧客の画像とを重ね合わせ、実際には試着しなくても画像上で試着できるようにした技術を搭載したシステムは、敷居が高く、現在では普及がおぼつかない。しかも、このようなシステムの運用上、3次元情報を保持するために顧客を様々な角度から撮影しなければならないところ、このような運用は顧客に抵抗感を感じさせ易い。   As mentioned above, a system equipped with a technology that superimposes product images and customer images in a virtual space on a computer and allows you to try on the image without actually trying it on, has a high threshold, Currently it is not popular. In addition, in order to maintain the three-dimensional information for operating such a system, the customer must be photographed from various angles. Such an operation tends to make the customer feel resistance.

その一方、特許文献1に記載されているように、予め保持している画像データにデジタルカメラで撮影した画像を簡易に重ね合わせられるようにした技術も開発されている。ところが、このような技術によれば、一画面中で二つの画像を並べて表示した後に両画像を重ね合わせることとも相俟って、リアルで高精度な重ね合わせ画像が得られにくいという問題がある。   On the other hand, as described in Patent Document 1, a technique has been developed in which an image captured by a digital camera can be easily superimposed on image data held in advance. However, according to such a technique, there is a problem that it is difficult to obtain a realistic and high-precision superimposed image in combination with the superimposition of both images after displaying two images side by side in one screen. .

本発明の目的は、モデル画像と撮影画像とを重ね合わせて一画像とするに際して、簡易な手法を採用しながらも、リアルで高精度な重ね合わせ画像が得られるようにすることである。   An object of the present invention is to obtain a realistic and highly accurate superimposed image while adopting a simple method when superimposing a model image and a captured image into one image.

本発明の情報端末は、情報を表示する表示部と、情報を操作入力する操作入力部と、前記表示部の背部に位置させて二次元空間上に複数個のランプを配列し、前記ランプを選択的に点灯制御する注視盤と、を備え、(1)記憶部に記憶されている画像データに含まれているモデル画像中の顔部分を抽出し、(2)前記抽出されたモデル画像中の顔部分の顔の向きを認識し、(3)前記抽出したモデル画像中の顔部分を含む拡大画像で前記画像データの一部を前記表示部に表示し、(4)前記抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施し、(5)撮影装置が出力する撮影中の動画像を取込んで当該動画像中の顔部分を抽出し、(6)前記認識した顔の向きに応じて、当該抽出されたモデル画像中の顔部分の顔の向きと前記抽出された動画像中の顔部分の顔の向きとが相対的に近似する方向に前記撮影装置の前に立つ被写体の顔の向きを向けさせる位置の前記ランプの点灯を指示し、(7)前記表示部に表示されているモデル画像に前記抽出された動画像中の顔部分を重ね合わせて表示し、(8)前記操作入力部での撮影指示操作によって、前記画像データに前記動画像中の顔部分を置き換えた静止画像である合成画像を生成する。 An information terminal according to the present invention includes a display unit for displaying information, an operation input unit for operating and inputting information, and a plurality of lamps arranged in a two-dimensional space on the back of the display unit. A gaze board that selectively controls lighting , and (1) extracts a face portion in a model image included in image data stored in a storage unit, and (2) in the extracted model image (3 ) displaying a part of the image data on the display unit as an enlarged image including the face portion in the extracted model image, and (4) the extracted model image. A first filtering process is performed on the inner face part to make the display of the face part different from the display of the other part, and (5) the moving image being captured output by the photographing device is taken in and the face in the moving image is captured (6) The extracted portion is extracted according to the recognized face orientation. The direction of the face of the subject standing in front of the photographing apparatus is directed in a direction in which the face direction of the face part in the extracted model image and the face direction of the face part in the extracted moving image are relatively approximate (7) The face part in the extracted moving image is superimposed and displayed on the model image displayed on the display unit, and (8) the operation input unit By this shooting instruction operation, a composite image which is a still image in which the face portion in the moving image is replaced with the image data is generated.

本発明のコンピュータプログラムは、情報を表示する表示部と、情報操作入力する操作入力部と、を備えるコンピュータにインストールされ、当該コンピュータに、上記(1)〜(8)の処理を実行させる。 The computer program of the present invention is installed in a computer including a display unit that displays information and an operation input unit that inputs information, and causes the computer to execute the processes (1) to (8) .

本発明によれば、画像データに含まれているモデル画像中の顔部分を抽出して当該顔部分を中心とした拡大画像を表示し、しかも、当該顔部分の表示を他の部分の表示と異ならせ、ここに撮影装置で撮影中の動画像から抽出した顔部分を重ね合わせるようにしたので、モデル画像と撮影画像とを重ね合わせて一画像とするに際して、簡易な手法を採用しながらも、リアルで高精度な重ね合わせ画像を得ることができる。   According to the present invention, the face portion in the model image included in the image data is extracted to display an enlarged image centered on the face portion, and the display of the face portion is changed to the display of other portions. Since the face part extracted from the moving image being photographed by the photographing device is superimposed here, the model image and the photographed image are superimposed to form a single image while adopting a simple technique. Realistic and highly accurate superimposed images can be obtained.

本発明の実施の一形態を図1ないし図11に基づいて説明する。   An embodiment of the present invention will be described with reference to FIGS.

図1は、情報端末を示す外観斜視図である。情報端末101は、各部を収納するトールボディ型の本体部102の上面に表示部としての液晶ディスプレイ103が取り付けられて構成されている。液晶ディスプレイ103には、その表示面104の上に操作入力部としてのタッチパネル105が積層配置されている。液晶ディスプレイ103には、そのフレーム106の上部に撮影装置としての撮影装置としてのカメラ107も取り付けられている。   FIG. 1 is an external perspective view showing an information terminal. The information terminal 101 is configured by attaching a liquid crystal display 103 as a display unit to the upper surface of a tall body type main body unit 102 that accommodates each unit. A touch panel 105 as an operation input unit is laminated on the display surface 104 of the liquid crystal display 103. On the liquid crystal display 103, a camera 107 as a photographing device is also attached to the upper part of the frame 106.

また、本体部102には、液晶ディスプレイ103の背面側に位置させて、注視盤109が固定されている。注視盤109は、垂直配置されたボード110に複数個のランプ111が配列され、更にランプ111を個々に点灯制御する点灯回路(図示せず)が設けられて構成されている。ランプ111には、一例として、輝度が高いLEDランプが用いられている。   A gaze board 109 is fixed to the main body 102 so as to be positioned on the back side of the liquid crystal display 103. The gaze board 109 is configured by arranging a plurality of lamps 111 on a vertically arranged board 110 and further providing lighting circuits (not shown) for controlling the lighting of the lamps 111 individually. As an example of the lamp 111, an LED lamp with high luminance is used.

図2は、情報端末101の電気的接続のブロック図である。図2に示すように、情報端末101には、マイクロコンピュータ201が備えられており、このマイクロコンピュータ201が各部を駆動制御する。マイクロコンピュータ201は、各部を集中的に制御するCPU202に、バスライン203を介して制御プログラム等の固定的情報を予め記憶するROM204と、各種情報を書き換え自在に記憶してワークエリア等として機能するRAM205とが接続されて構成されている。したがって、マイクロコンピュータ201は、情報処理を実行する情報処理部を構成する。なお、図2では、CPU202、ROM204及びRAM205を単一構成物として表示しているが、これらのCPU202、ROM204及びRAM205は、複数の固体に分割されて構成されていてもよい。特に、RAM205として表示している構成物は、少なくとも、ワークエリアとして用いられるチップと画像メモリを構成するチップとを含んでいる。   FIG. 2 is a block diagram of electrical connection of the information terminal 101. As shown in FIG. 2, the information terminal 101 includes a microcomputer 201, and the microcomputer 201 drives and controls each unit. The microcomputer 201 functions as a work area or the like by storing a ROM 204 for storing fixed information such as a control program in advance via a bus line 203 and a ROM 204 for storing various information in a rewritable manner in a CPU 202 that controls each unit centrally. A RAM 205 is connected. Therefore, the microcomputer 201 constitutes an information processing unit that executes information processing. In FIG. 2, the CPU 202, the ROM 204, and the RAM 205 are displayed as a single component. However, the CPU 202, the ROM 204, and the RAM 205 may be divided into a plurality of solids. In particular, the component displayed as the RAM 205 includes at least a chip used as a work area and a chip constituting an image memory.

マイクロコンピュータ201には、バスライン203を介してI/OインターフェースIFが接続されている。そして、I/OインターフェースIFには、タッチパネルコントローラ206、ビデオコントローラ207、HDD208、及びシリアルポート209が接続されている。シリアルポート209には、前述したカメラ107及び注視盤109が接続され、更にRFIDリーダライタ210も接続されている。   An I / O interface IF is connected to the microcomputer 201 via the bus line 203. A touch panel controller 206, a video controller 207, an HDD 208, and a serial port 209 are connected to the I / O interface IF. The serial port 209 is connected to the camera 107 and the gaze board 109 described above, and is further connected to an RFID reader / writer 210.

タッチパネルコントローラ206には、タッチパネル105が接続されている。タッチパネルコントローラ206は、タッチパネル105からの入力信号をマイクロコンピュータ201に取り込む。   A touch panel 105 is connected to the touch panel controller 206. The touch panel controller 206 takes an input signal from the touch panel 105 into the microcomputer 201.

ビデオコントローラ207には、液晶ディスプレイ103が接続されている。ビデオコントローラ207は、画像データに基づいて液晶ディスプレイ103を駆動制御し、画像データに応じた画像を液晶ディスプレイ103に表示させる。   A liquid crystal display 103 is connected to the video controller 207. The video controller 207 drives and controls the liquid crystal display 103 based on the image data, and causes the liquid crystal display 103 to display an image corresponding to the image data.

HDD208には、プログラムエリア301、商品マスタエリア302(商品データベース)、メタ画像蓄積エリア303(画像データベースの一部)、及び商品IDリンクエリア304(画像データベースの他の一部)が設けられている。プログラムエリア301には、OS及びコンピュータプログラム等がインストールされている。これらのOS及びコンピュータプログラム等は、情報端末101の起動時にその全部又は一部がRAM205にコピーされてCPU202にアクセスされる。CPU202は、こうしてコピーされたOS及びコンピュータプログラムに従った処理を実行する。商品マスタエリア302は、商品データベースを構築する。その詳細については図3に基づいて後述する。メタ画像蓄積エリア303及び商品IDリンクエリア304は、画像データベースを構築する。メタ画像蓄積エリア303の詳細については図4に基づいて、商品IDリンクエリア304の詳細については図5に基づいて、それぞれ後述する。   The HDD 208 is provided with a program area 301, a product master area 302 (product database), a meta image storage area 303 (part of the image database), and a product ID link area 304 (other part of the image database). . In the program area 301, an OS, a computer program, and the like are installed. These OSs, computer programs, and the like are all or partially copied to the RAM 205 and accessed by the CPU 202 when the information terminal 101 is activated. The CPU 202 executes processing according to the OS and computer program copied in this way. The product master area 302 constructs a product database. Details thereof will be described later with reference to FIG. The meta image storage area 303 and the product ID link area 304 construct an image database. Details of the meta image storage area 303 will be described later with reference to FIG. 4, and details of the product ID link area 304 will be described later with reference to FIG.

シリアルポート209に接続されているカメラ107は、レンズ108から取り込んだ画像を2次元CCDアレイ(図示せず)に結像させ、CCDアレイの出力を増幅、A/D変換、フィルタリング等して出力する撮影装置である。   The camera 107 connected to the serial port 209 forms an image captured from the lens 108 on a two-dimensional CCD array (not shown), and outputs the CCD array output after amplification, A / D conversion, filtering, and the like. It is a photographing device.

シリアルポート209に接続されているRFIDリーダライタ210は、例えば電磁誘導結合による近距離無線通信をRFIDチップとの間で実行する。本実施の形態においては、商品にRFIDチップが付帯している。つまり、商品には、その商品を特定する商品コードを記憶するRFIDチップを内蔵する無線タグ(図示せず)が付されている。したがって、RFIDリーダライタ210は、商品に付された無線タグからその商品を特定する商品コードを受信して受信した商品コードを出力する。マイクロコンピュータ201は、RFIDリーダライタ210が出力した商品コードをシリアルポート209からI/OインターフェースIFを介して取り込む。   The RFID reader / writer 210 connected to the serial port 209 performs short-range wireless communication with the RFID chip by, for example, electromagnetic induction coupling. In the present embodiment, an RFID chip is attached to a product. That is, the product is attached with a wireless tag (not shown) that incorporates an RFID chip that stores a product code that identifies the product. Therefore, the RFID reader / writer 210 receives a product code specifying the product from the wireless tag attached to the product, and outputs the received product code. The microcomputer 201 takes in the product code output from the RFID reader / writer 210 from the serial port 209 via the I / O interface IF.

別の実施の形態として、商品を特定する商品コードは、別の機器で読み取られたり入力されたりして、マイクロコンピュータ201に取り込まれる構成であっても良い。一例として、液晶ディスプレイ103にテンキーを表示しておき、表示されているテンキーに従ったタッチパネル105での入力によって商品コードを入力するようにしても良い。別の一例として、バーコードや2次元コード等のコードシンボルとして表現された商品コードを用意しておき、このコードシンボルをコードリーダによって光学的に読み取ることで商品コードを入力するようにしても良い。   As another embodiment, a product code that specifies a product may be read or input by another device and loaded into the microcomputer 201. As an example, a numeric keypad may be displayed on the liquid crystal display 103, and a product code may be input by inputting on the touch panel 105 in accordance with the displayed numeric keypad. As another example, a product code expressed as a code symbol such as a barcode or a two-dimensional code may be prepared, and the product code may be input by optically reading the code symbol with a code reader. .

図3は、情報端末101のHDD208に記録されている商品マスタエリア302(商品データベース)の記録データを示す模式図である。商品マスタエリア302は、個々の商品を特定する商品ID(商品コード)に商品名称を対応付けて記憶している。   FIG. 3 is a schematic diagram showing record data of the product master area 302 (product database) recorded in the HDD 208 of the information terminal 101. The product master area 302 stores product names in association with product IDs (product codes) that specify individual products.

図4は、情報端末101のHDD208に記録されているメタ画像蓄積エリア303(画像データベースの一部)の記録データを示す模式図である。メタ画像蓄積エリア303は、カメラ107によって撮像されてマイクロコンピュータ201に取り込まれた画像を特定する画像IDに、カメラ107による撮像画像そのもののデータであるバイナリデータ(画像データ)とそのパス名とを対応付けて記憶している。パス名には、バイナリデータのデータ形式が含まれている。なお、別の実施の形態として、バイナリデータそのものはメタ画像蓄積エリア303には蓄積せずにいずれかの記憶領域に記憶させておき、メタ画像蓄積エリア303にはパス名のみを記憶させておくことも可能である。このようなデータ構造を採用した場合、パス名をキーとしてメタ画像を検索することが可能である。   FIG. 4 is a schematic diagram showing recorded data in the meta image storage area 303 (part of the image database) recorded in the HDD 208 of the information terminal 101. In the meta image storage area 303, binary data (image data) that is data of an image captured by the camera 107 and its path name are added to an image ID that identifies an image captured by the camera 107 and captured by the microcomputer 201. It is stored in association. The path name includes the data format of binary data. As another embodiment, the binary data itself is not stored in the meta image storage area 303 but is stored in one of the storage areas, and only the path name is stored in the meta image storage area 303. It is also possible. When such a data structure is adopted, a meta image can be searched using a path name as a key.

図5は、情報端末101のHDD208に記録されている商品IDリンクエリア304(画像データベースの他の一部)の記録データを示す模式図である。商品IDリンクエリア304は、画像IDに商品IDを対応付けて記憶している。したがって、商品IDリンクエリア304を参照することで、例えば商品IDをキーとして対応する画像IDを検索することができる。検索によって画像IDが判明すれば、メタ画像蓄積エリア303からバイナリデータを取得することができる。   FIG. 5 is a schematic diagram showing recorded data in the product ID link area 304 (another part of the image database) recorded in the HDD 208 of the information terminal 101. The product ID link area 304 stores the product ID in association with the image ID. Therefore, by referring to the product ID link area 304, for example, a corresponding image ID can be searched using the product ID as a key. If the image ID is found by the search, binary data can be acquired from the meta image storage area 303.

図6は、画像合成処理の流れを示すフローチャートである。HDD208のプログラムエリア301にインストールされているコンピュータプログラムには、モデル画像と撮影画像とを重ね合わせた合成画像を生成するための画像合成処理用のプログラムが含まれている。この画像合成処理用のプログラムは、その起動時にRAM205にコピーされて使用される。図6に示すフローチャートの処理は、こうしてRAM205にコピーされた画像データ登録処理用のプログラムに従いCPU202が実行する処理内容を示している。   FIG. 6 is a flowchart showing the flow of the image composition process. The computer program installed in the program area 301 of the HDD 208 includes an image composition processing program for generating a composite image in which the model image and the captured image are superimposed. This image composition processing program is copied to the RAM 205 and used at the time of activation. The processing of the flowchart shown in FIG. 6 shows the processing contents executed by the CPU 202 in accordance with the image data registration processing program copied to the RAM 205 in this way.

CPU202は、まず、特定画像の選択処理を実行する(ステップS101)。この処理は、一例として、特定の商品からその商品の撮像画像を含む特定画像を導き出す。つまり、CPU202は、タッチパネル105でのタッチ指定によって商品がタッチ指定されると、その商品IDを取得する。そこで、取得した商品IDをキーとして、図5に示す商品IDリンクエリア304から画像IDを検索する。そして、CPU202は、検索した画像IDをキーとして、図4に示すメタ画像蓄積エリア303からバイナリデータを検索する。このバイナリデータが、ステップS101で選択された特定画像の画像データそのものである。   The CPU 202 first executes a specific image selection process (step S101). As an example, this process derives a specific image including a captured image of the product from the specific product. That is, when a product is touch-designated by touch designation on the touch panel 105, the CPU 202 acquires the product ID. Therefore, the image ID is searched from the product ID link area 304 shown in FIG. 5 using the acquired product ID as a key. Then, the CPU 202 retrieves binary data from the meta image accumulation area 303 shown in FIG. 4 using the retrieved image ID as a key. This binary data is the image data itself of the specific image selected in step S101.

図7は、図6中の特定画像の選択処理(ステップS101)の別の一例を示すフローチャートである。この別の一例では、特定の商品からその商品の撮像画像を含む特定画像を導き出すのではなく、図4に示すメタ画像蓄積エリア303に蓄積されている画像データを液晶ディスプレイ103にサムネール表示し、表示されたサムネールからタッチパネル105によるタッチ指定によって所望の画像データを特定画像として選択する処理である。つまり、CPU202は、メタ画像蓄積エリア303中から、画像一枚となる画像データを順番に取得し、モデル画像の顔部分の抽出処理を実行する(ステップS101−1)。モデル画像の顔部分の抽出処理については、後に詳述する。そして、モデル画像の顔部分を抽出できたかどうか、換言すると、モデル画像の顔部分を認識できたかどうかを判定し(ステップS101−2)、できなければ次の画像データについてのステップS101−1の処理にリターンし(ステップS101−2のN)、できればステップS101−3の処理に進む(ステップS101−2のY)。ステップS101−3では、液晶ディスプレイ103に表示する一覧画面に縮小画像を表示するいわゆるサムネール表示処理を実行する。ユーザは、液晶ディスプレイ103に表示されたサムネール画像からタッチパネル105によるタッチ指定によって所望の画像データを特定画像として選択することができる(ステップS101−4)。   FIG. 7 is a flowchart showing another example of the specific image selection process (step S101) in FIG. In another example, instead of deriving a specific image including a captured image of the product from the specific product, the image data stored in the meta image storage area 303 shown in FIG. This is processing for selecting desired image data as a specific image from the displayed thumbnail by touch designation on the touch panel 105. That is, the CPU 202 sequentially acquires image data that forms one image from the meta image storage area 303, and executes the process of extracting the face portion of the model image (step S101-1). The process of extracting the face portion of the model image will be described in detail later. Then, it is determined whether or not the face part of the model image has been extracted, in other words, whether or not the face part of the model image has been recognized (step S101-2). If not, the process proceeds to step S101-1 for the next image data. The process returns (N in step S101-2), and if possible, the process proceeds to step S101-3 (Y in step S101-2). In step S101-3, so-called thumbnail display processing for displaying a reduced image on the list screen displayed on the liquid crystal display 103 is executed. The user can select desired image data as a specific image from a thumbnail image displayed on the liquid crystal display 103 by touch designation on the touch panel 105 (step S101-4).

CPU202は、ステップS101での特定画像の選択処理に続く処理として、ステップS101で選択された画像データから顔部分を抽出する処理を実行する(ステップS102)。つまり、画像データに含まれているモデル画像には顔が含まれているので、その顔部分を抽出する。画像データからの顔の抽出は、各種の公知手法を用いて実行することが可能である。一例として、人の顔では、両目と口とがある範囲内で予め決められた配列をとるので、両目であろう部分と口であろう部分とを画像処理技術によって判別し、その配列がある範囲で予め決められた配列をとるのであれば、これを人の顔であると判定する。両目であろう部分と口であろう部分とは、その画像上の各種の特徴量から推定することが可能である。   The CPU 202 executes processing for extracting a face portion from the image data selected in step S101 as processing subsequent to the specific image selection processing in step S101 (step S102). That is, since the model image included in the image data includes a face, the face portion is extracted. Extraction of a face from image data can be executed using various known methods. As an example, in a human face, both eyes and mouth take a predetermined arrangement within a certain range. Therefore, a part that is likely to be both eyes and a part that is likely to be mouth are discriminated by image processing technology, and there is such an arrangement. If an arrangement predetermined in the range is taken, it is determined that this is a human face. The part which will be both eyes and the part which will be the mouth can be estimated from various feature values on the image.

CPU202は、ステップS102の処理として、画像データから顔が向いている方向を取得する処理も実行する。顔が向いている方向の取得も、各種の公知手法を用いて実行することが可能である。一例として、両目であろう部分と口であろう部分との配置関係、そのような配置関係から定まる顔の中心に対する顎であろう部分の左右バランス等から推定することが可能である。   The CPU 202 also executes a process of acquiring the direction in which the face is facing from the image data as the process of step S102. Acquisition of the direction in which the face is facing can also be performed using various known methods. As an example, it can be estimated from the positional relationship between the part that will be both eyes and the part that will be the mouth, the left-right balance of the part that will be the chin with respect to the center of the face determined from such positional relationship.

CPU202は、ステップS102において、画像データから顔部分を認識できなかった場合には(ステップS103のN)、その後の処理に進まず、ステップS101での特定画像の選択処理にリターンする。画像データから顔部分を認識できなかった場合には、その後に続く合成画像の生成処理自体を実行することができないことになるからである。   If the face portion cannot be recognized from the image data in Step S102 (N in Step S103), the CPU 202 does not proceed to the subsequent processing, and returns to the specific image selection processing in Step S101. This is because if the face portion cannot be recognized from the image data, the subsequent composite image generation processing itself cannot be executed.

これに対して、画像データから顔が向いている方向を認識できないとしても、画像データから顔部分を認識できた場合には、その後に続く合成画像の生成処理が可能である。そこで、一例として、画像データから顔部分を認識できた場合には、画像データから顔が向いている方向を認識できないとしても、ステップS103での認識可否判定をパスさせる。もっとも、別の一例として、画像データから顔部分を認識できたとしても顔が向いている方向を認識できない場合に、ステップS103での認識可否判定をパスさせないようにすることも可能である。   On the other hand, even if the face direction can not be recognized from the image data, if the face portion can be recognized from the image data, the subsequent composite image generation process can be performed. Therefore, as an example, when the face portion can be recognized from the image data, the recognition possibility determination in step S103 is passed even if the direction in which the face is facing cannot be recognized from the image data. However, as another example, even if the face portion can be recognized from the image data, it is possible not to pass the recognition possibility determination in step S103 when the direction in which the face is facing cannot be recognized.

CPU202は、ステップS103での認識可否判定をパスした場合(ステップS103のY)、画像データ中から抽出したモデル画像中の顔部分を中心とした拡大画像で、かつ、抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施して、画像データの一部を液晶ディスプレイ103に表示する(ステップS104)。この際の第1のフィルタ処理は、顔部分についての透過処理である。つまり、CPU202は、ステップS101で選択した画像データに拡大表示処理及び透過表示処理を施して画像を変形させ、ビデオコントローラ207に対して、そのように変形させた画像を液晶ディスプレイ103に表示させるための信号を出力する。拡大表示処理及び透過表示処理については、各所の公知手法を用いて実行することが可能である。   When the CPU 202 passes the recognition possibility determination in step S103 (Y in step S103), the CPU 202 is an enlarged image centered on the face portion in the model image extracted from the image data, and the face in the extracted model image A first filtering process is performed on the part to make the display of the face part different from the display of the other part, and a part of the image data is displayed on the liquid crystal display 103 (step S104). The first filter process at this time is a transparent process for the face portion. That is, the CPU 202 performs an enlarged display process and a transparent display process on the image data selected in step S101 to deform the image, and causes the video controller 207 to display the deformed image on the liquid crystal display 103. The signal is output. The enlarged display process and the transmissive display process can be executed using known methods in various places.

図8は、情報端末101の液晶ディスプレイ103に表示される拡大表示されたモデル画像の一例を示す模式図である。図8に示すように、ここでは「0001.jpg」というパス名を持った画像が元画像401としてステップS101で選択されたものとする。CPU202は、選択された元画像401に対して、拡大表示処理及び透過表示処理を施して画像を変形させ、図8に例示するようなモデル画像402として液晶ディスプレイ103に表示する。ここでは、便宜上、図8に例示するモデル画像を含む表示画像を撮影直前画像Aと呼ぶ。この撮影直前画像Aには、モデル画像402に加えて、撮影ボタン403及びキャンセルボタン404が表示されている。そして、モデル画像402では、その顔部分が透過表示となっている。   FIG. 8 is a schematic diagram illustrating an example of an enlarged model image displayed on the liquid crystal display 103 of the information terminal 101. As shown in FIG. 8, it is assumed here that an image having a path name of “0001.jpg” is selected as the original image 401 in step S101. The CPU 202 performs an enlarged display process and a transmissive display process on the selected original image 401 to deform the image, and displays the deformed image on the liquid crystal display 103 as a model image 402 illustrated in FIG. Here, for convenience, a display image including the model image illustrated in FIG. In the image A immediately before photographing, a photographing button 403 and a cancel button 404 are displayed in addition to the model image 402. In the model image 402, the face portion is transparently displayed.

図6に示すフローチャートの説明に戻る。CPU202は、ステップS102で画像データから認識した顔が向いている方向の情報を参照し、注視盤109に一つのランプ111の点灯指令を出力する。つまり、CPU202は、認識した顔の向きに応じて、カメラ107の前に立つがユーザが、その顔の向きが抽出したモデル画像402の顔の向きと略一致する向きを向くことになるような位置に配置されているランプ111を点灯させる。   Returning to the description of the flowchart shown in FIG. The CPU 202 refers to information on the direction in which the face recognized from the image data in step S102 is facing, and outputs a lighting command for one lamp 111 to the gaze board 109. That is, the CPU 202 stands in front of the camera 107 according to the recognized face orientation, but the user faces the orientation that substantially matches the face orientation of the extracted model image 402. The lamp 111 arranged at the position is turned on.

図9は、注視盤109でのランプ111の発光例を例示する模式図である。図9では、右側に位置するランプ111が点灯している状態を示している。ランプ111が点灯すれば、カメラ107の前に立つユーザはその方向を注視し、その方向に顔を向けることが期待される。そこで、ユーザが顔を向ける方向をランプ111の点灯によってコントロールし、抽出したモデル画像402の顔の向きにユーザが顔を向けることを促すわけである。これにより、後述するステップS109で作成される合成画像がよりリアルで高精度なものとなることが期待される。   FIG. 9 is a schematic view illustrating a light emission example of the lamp 111 on the gaze board 109. FIG. 9 shows a state where the lamp 111 located on the right side is lit. If the lamp 111 is lit, the user standing in front of the camera 107 is expected to watch the direction and turn his face to the direction. Therefore, the direction in which the user turns the face is controlled by turning on the lamp 111, and the user is directed to face the face of the extracted model image 402. As a result, it is expected that the composite image created in step S109, which will be described later, becomes more realistic and highly accurate.

図6に示すフローチャートの説明に戻る。CPU202は、ステップS105の処理に続き、カメラ107を起動し、動画撮影の処理を実行する(ステップS106)。カメラ107は、撮影した動画像をシリアルポート209に出力する。これにより、マイクロコンピュータ201はカメラ107が出力した動画像を取り込む。   Returning to the description of the flowchart shown in FIG. Following the processing in step S105, the CPU 202 activates the camera 107 and executes moving image shooting processing (step S106). The camera 107 outputs the captured moving image to the serial port 209. As a result, the microcomputer 201 captures the moving image output from the camera 107.

CPU202は、続くステップS107の処理で、取り込んだ動画像中から顔部分を抽出し、顔画像405(図10参照)を得る。この場合の画像抽出も、前述したステップS102での抽出処理と同様又は同種の処理によって実行可能である。そして、CPU202は、撮影直前画像Aにカメラ107から取り込んで抽出した顔部分の顔画像405を重ね合わせて表示する。   In the subsequent step S107, the CPU 202 extracts a face portion from the captured moving image and obtains a face image 405 (see FIG. 10). Image extraction in this case can also be executed by the same or similar process as the extraction process in step S102 described above. Then, the CPU 202 superimposes and displays the face image 405 of the face portion captured and extracted from the camera 107 on the image A immediately before shooting.

図10は、情報端末101の液晶ディスプレイ103に表示される拡大表示されたモデル画像402に動画像中から抽出された顔画像405を重ね合せて表示した一例を示す模式図である。ここでは、便宜上、図10に例示する画像を撮影調整画像Bと呼ぶ。この撮影調整画像Bには、撮影直前画像Aに表示されていたモデル画像402にカメラ107から取り込んで抽出した顔部分の顔画像405が重ね合わされた重畳画像406が表示され、更に、撮影ボタン403及びキャンセルボタン404が表示されている。   FIG. 10 is a schematic diagram showing an example in which a face image 405 extracted from a moving image is superimposed on a model image 402 displayed on the liquid crystal display 103 of the information terminal 101 and displayed. Here, for convenience, the image illustrated in FIG. 10 is referred to as a shooting adjustment image B. In this shooting adjustment image B, a superimposed image 406 is displayed in which the face image 405 of the face portion captured and extracted from the camera 107 is superimposed on the model image 402 displayed in the image A immediately before shooting, and the shooting button 403 is further displayed. A cancel button 404 is displayed.

ここで、撮影調整画像Bにおいては、モデル画像402の顔部分に透過処理が施されており、しかも、カメラ107から取り込まれた動画像は顔部分の顔画像405となっていることから、透過処理が施されているモデル画像402の顔部分にカメラ107から取り込まれた顔画像405を重ね合わせることが容易である。つまり、ユーザは、カメラ107の前で自分の顔を上下左右に動かし、あるいはカメラ107に対する遠近方向に顔を動かすことで、モデル画像402の顔部分に自分の顔画像405が重なるようにすればよい。この際、モデル画像402の顔部分は透過処理が施されているので、この透過部分に自分の顔画像405を重ね合わせることは、きわめて容易である。   Here, in the shooting adjustment image B, the face portion of the model image 402 is subjected to transparency processing, and the moving image captured from the camera 107 is the face image 405 of the face portion. It is easy to superimpose the face image 405 captured from the camera 107 on the face portion of the model image 402 that has been processed. That is, the user moves his / her face up / down / left / right in front of the camera 107 or moves the face in the perspective direction relative to the camera 107 so that the face image 405 overlaps the face portion of the model image 402. Good. At this time, since the face portion of the model image 402 has been subjected to transparency processing, it is very easy to superimpose the own face image 405 on this transparency portion.

図6に示すフローチャートの説明に戻る。CPU202は、撮影直前画像Aにカメラ107から取り込んで抽出した顔画像405を重ね合わせて表示した後(ステップS107)、撮影ボタン403のタッチ指定によって実行される撮影操作指示の有無判定に待機している(ステップS108)。撮影ボタン403のタッチ指定がなければ(ステップS108のN)、ステップS106でのカメラ107からの動画像の取り込み処理にリターンする。これに対して、CPU202は、撮影ボタン403のタッチ指定を判定すると(ステップS108のY)、タイマを起動して所定時間待った後、カメラ107から取り込んだ動画像を静止画像として保持し、RAM205に一時記憶する(ステップS109)。つまり、CPU202は、撮影ボタン403のタッチ指定による撮影操作指定後に所定のタイマ時間を設定する。この際、シリアルポート209に音声合成回路及びスピーカを有する音声回路(図示せず)を接続しておき、「3、2、1、0」のようなカウントダウン音声を生成してスピーカから発声させ、「0」発声のタイミングでカメラ107から取り込んだ動画像を静止画像として保持するようにしてもよい。   Returning to the description of the flowchart shown in FIG. The CPU 202 superimposes and displays the face image 405 captured and extracted from the camera 107 on the image A immediately before shooting (step S107), and then waits for determination of the presence or absence of a shooting operation instruction executed by touch designation of the shooting button 403. (Step S108). If there is no touch designation of the shooting button 403 (N in step S108), the process returns to the moving image capturing process from the camera 107 in step S106. In contrast, when the CPU 202 determines that the shooting button 403 is touched (Y in step S108), after starting the timer and waiting for a predetermined time, the CPU 202 holds the moving image captured from the camera 107 as a still image and stores it in the RAM 205. Temporary storage is performed (step S109). That is, the CPU 202 sets a predetermined timer time after specifying the shooting operation by specifying the touch of the shooting button 403. At this time, a voice synthesis circuit and a voice circuit (not shown) having a speaker are connected to the serial port 209, a countdown voice such as “3, 2, 1, 0” is generated and uttered from the speaker, The moving image captured from the camera 107 at the timing of “0” utterance may be held as a still image.

CPU202は、カメラ107から取り込んだ動画像を静止画像として保持した後(ステップS109)、保持した静止画像に対して第2のフィルタ処理を施す(ステップS110)。第2のフィルタ処理は、抽出されたモデル画像中の顔部分と前記抽出された動画像中の顔部分との色(色相、明度、彩度)及び濃淡(コントラスト)を近似補正する処理である。これらの色(色相、明度、彩度)及び濃淡(コントラスト)の補正は、各種の公知手法によって実現可能である。   After holding the moving image captured from the camera 107 as a still image (step S109), the CPU 202 performs a second filter process on the held still image (step S110). The second filter process is a process for approximately correcting the color (hue, lightness, saturation) and lightness (contrast) of the face part in the extracted model image and the face part in the extracted moving image. . Correction of these colors (hue, lightness, saturation) and shading (contrast) can be realized by various known methods.

CPU202は、ステップS109の処理によって保持した静止画像に対して第2のフィルタ処理を施した後(ステップS110)、元画像401(図8参照)の顔部分を第2のフィルタ処理を施した静止画像に置き換え、合成画像407を生成する。そして、生成した合成画像407を液晶ディスプレイ103に表示する(ステップS111)。   The CPU 202 performs the second filter process on the still image held by the process of step S109 (step S110), and then performs the second filter process on the face portion of the original image 401 (see FIG. 8). A composite image 407 is generated by replacing with an image. Then, the generated composite image 407 is displayed on the liquid crystal display 103 (step S111).

図11は、生成された合成画像407の一例を示す模式図である。図11に示すように、合成画像407は、元画像401から拡大表示されたモデル画像402にカメラ107から取り込んだユーザの顔画像405を合成したものではなく、元画像401に顔画像405を合成した画像となっている。これにより、ユーザは、元画像401に含まれているモデルが着ている衣類をあたかも自分が着ているかのような印象をもって合成画像407を見ることができる。   FIG. 11 is a schematic diagram illustrating an example of the generated composite image 407. As shown in FIG. 11, the composite image 407 is not a composite image of the user's face image 405 captured from the camera 107 with the model image 402 enlarged from the original image 401, but a composite image of the face image 405 with the original image 401. It has become an image. As a result, the user can view the composite image 407 with an impression as if he / she is wearing clothing worn by the model included in the original image 401.

以上説明したように、本実施の形態によれば、元画像401に基づくモデル画像402の顔の部分にカメラ107から取り込んだ動画像から抽出した顔画像405を重ね合せて表示することができる(図6中のステップS107)。この場合、モデル画像402は元画像401に対して顔部分を中心に拡大された画像として表示されるので(図6中のステップS104参照)、モデル画像402の顔部分にカメラ107から取り込んだ顔画像405を正確に重ね合わせることが容易となる。しかも、モデル画像402には第1のフィルタ処理が施されて顔部分が透過表示となっているので(図6中のステップS104参照)、より一層、モデル画像402の顔部分にカメラ107から取り込んだ顔画像405を正確に重ね合わせることが容易となる。このようなことから、モデル画像402と撮影画像である顔画像405とを重ね合わせて一画像とするに際して、簡易な手法を採用しながらも、リアルで高精度な重ね合わせ画像を得ることができる。そして、モデル画像402に顔画像405を重ね合せて生成した静止画像である合成画像は、元画像401と同じ大きさで液晶ディスプレイ103に表示されるので(図6中のステップS111参照)、ユーザは、元画像401に含まれているモデルが着ている衣類を仮想的に試着することができ、その衣類を着た場合の印象を容易に把握することができる。   As described above, according to the present embodiment, the face image 405 extracted from the moving image captured from the camera 107 can be superimposed and displayed on the face portion of the model image 402 based on the original image 401 ( Step S107 in FIG. 6). In this case, the model image 402 is displayed as an image that is enlarged with respect to the original image 401 centering on the face portion (see step S104 in FIG. 6), and thus the face captured from the camera 107 in the face portion of the model image 402. It becomes easy to accurately overlay the images 405. In addition, since the model image 402 is subjected to the first filter processing and the face portion is transparently displayed (see step S104 in FIG. 6), the face portion of the model image 402 is further captured from the camera 107. It is easy to accurately overlay the face image 405. For this reason, when the model image 402 and the face image 405 that is the captured image are superimposed to form a single image, a realistic and highly accurate superimposed image can be obtained while adopting a simple method. . A composite image, which is a still image generated by superimposing the face image 405 on the model image 402, is displayed on the liquid crystal display 103 with the same size as the original image 401 (see step S111 in FIG. 6). Can virtually try on clothing worn by the model included in the original image 401, and can easily grasp the impression of wearing the clothing.

本発明の実施の一形態である情報端末を示す外観斜視図である。It is an external appearance perspective view which shows the information terminal which is one Embodiment of this invention. その電気的接続のブロック図である。It is a block diagram of the electrical connection. 情報端末のHDDに記録されている商品マスタエリアの記録データを示す模式図である。It is a schematic diagram which shows the recording data of the goods master area currently recorded on HDD of an information terminal. 情報端末のHDDに記録されているメタ画像蓄積エリアの記録データを示す模式図である。It is a schematic diagram which shows the recording data of the meta image storage area recorded on HDD of an information terminal. 情報端末のHDDに記録されている商品IDリンクエリアの記録データを示す模式図である。It is a schematic diagram which shows the recording data of the goods ID link area recorded on HDD of an information terminal. 画像合成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an image synthesis process. 図6中の特定画像の選択処理(ステップS101)の別の一例を示すフローチャートである。It is a flowchart which shows another example of the selection process (step S101) of the specific image in FIG. 情報端末の液晶ディスプレイに表示される拡大表示されたモデル画像の一例を示す模式図である。It is a schematic diagram which shows an example of the enlarged model image displayed on the liquid crystal display of an information terminal. 注視盤でのランプの発光例を例示する模式図である。It is a schematic diagram which illustrates the light emission example of the lamp | ramp in a gaze board. 情報端末の液晶ディスプレイに表示される拡大表示されたモデル画像に動画像中から抽出された顔部分を重ね合せて表示した一例を示す模式図である。It is a schematic diagram which shows an example which superimposed and displayed the face part extracted from the moving image on the model image by which the enlarged display displayed on the liquid crystal display of the information terminal was carried out. 生成された合成画像の一例を示す模式図である。It is a schematic diagram which shows an example of the produced | generated synthesized image.

符号の説明Explanation of symbols

103…液晶ディスプレイ(表示部)、105…タッチパネル(操作入力部)、107…カメラ(撮影装置)、110…注視盤、111…ランプ、208…HDD(記憶部)   DESCRIPTION OF SYMBOLS 103 ... Liquid crystal display (display part), 105 ... Touch panel (operation input part), 107 ... Camera (imaging device), 110 ... Gaze board, 111 ... Lamp, 208 ... HDD (memory | storage part)

Claims (7)

情報を表示する表示部と、
情報を操作入力する操作入力部と、
前記表示部の背部に位置させて二次元空間上に複数個のランプを配列し、前記ランプを選択的に点灯制御する注視盤と、
記憶部に記憶されている画像データに含まれているモデル画像中の顔部分を抽出する手段と、
前記抽出されたモデル画像中の顔部分の顔の向きを認識する手段と、
前記抽出したモデル画像中の顔部分を含む拡大画像で前記画像データの一部を前記表示部に表示する手段と、
前記抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施す手段と、
撮影装置が出力する撮影中の動画像を取込んで当該動画像中の顔部分を抽出する手段と、
前記認識した顔の向きに応じて、当該抽出されたモデル画像中の顔部分の顔の向きと前記抽出された動画像中の顔部分の顔の向きとが相対的に近似する方向に前記撮影装置の前に立つ被写体の顔の向きを向けさせる位置の前記ランプの点灯を指示する手段と、
前記表示部に表示されているモデル画像に前記抽出された動画像中の顔部分を重ね合わせて表示する手段と、
前記操作入力部での撮影指示操作によって、前記画像データに前記動画像中の顔部分を置き換えた静止画像である合成画像を生成する手段と、
を備える情報端末。
A display for displaying information;
An operation input unit for operating and inputting information;
A gaze board that is positioned on the back of the display unit and arranged with a plurality of lamps on a two-dimensional space, and selectively controls the lamps for lighting
Means for extracting a face portion in the model image included in the image data stored in the storage unit;
Means for recognizing the face orientation of the face portion in the extracted model image;
Means for displaying a part of the image data on the display unit in an enlarged image including a face portion in the extracted model image;
Means for performing a first filtering process on the face part in the extracted model image to make the display of the face part different from the display of other parts;
Means for taking a moving image being shot output from the photographing device and extracting a face portion in the moving image;
According to the recognized face direction, the photographing is performed in a direction in which the face direction of the face part in the extracted model image and the face direction of the face part in the extracted moving image are relatively approximated. Means for instructing lighting of the lamp at a position for directing the face of a subject standing in front of the apparatus;
Means for superimposing and displaying the face portion in the extracted moving image on the model image displayed on the display unit;
Means for generating a composite image that is a still image obtained by replacing a face portion in the moving image with the image data by a shooting instruction operation in the operation input unit;
An information terminal comprising:
前記第1のフィルタ処理は、前記抽出されたモデル画像中の顔部分を透過させるフィルタ処理である、請求項1記載の情報端末。   The information terminal according to claim 1, wherein the first filter process is a filter process that transmits a face portion in the extracted model image. 前記操作入力部での撮影指示操作後に所定のタイマ時間を設定する手段を備える、請求項1又は2記載の情報端末。   The information terminal according to claim 1, further comprising means for setting a predetermined timer time after a photographing instruction operation at the operation input unit. 前記抽出されたモデル画像中の顔部分と前記抽出された動画像中の顔部分との色を近似補正する第2のフィルタ処理を施す手段を備える、請求項1ないし3のいずれか一記載の情報端末。   4. The apparatus according to claim 1, further comprising means for performing a second filter process for approximately correcting colors of a face part in the extracted model image and a face part in the extracted moving image. Information terminal. 前記抽出されたモデル画像中の顔部分と前記抽出された動画像中の顔部分との濃淡を近似補正する第2のフィルタ処理を施す手段を備える、請求項1ないし4のいずれか一記載の情報端末。   5. The apparatus according to claim 1, further comprising means for performing a second filter process for approximately correcting light and shade of a face portion in the extracted model image and a face portion in the extracted moving image. Information terminal. 複数の前記画像データを記憶している画像データベース中から、前記モデル画像の顔部分の抽出が可能である画像データを抽出して前記表示部にサムネール表示する手段と、
前記操作入力部によって前記サムネール表示中から選択指定された前記画像データを合成処理する画像データとして選択する手段と、
を備える、請求項1ないしのいずれか一記載の情報端末。
Means for extracting from the image database storing a plurality of the image data image data capable of extracting a face portion of the model image and displaying the thumbnail on the display unit;
Means for selecting the image data selected and designated from the thumbnail display by the operation input unit as image data to be combined;
The provided information terminal according to any one of claims 1 to 5.
情報を表示する表示部と、情報を操作入力する操作入力部と、を備えるコンピュータにインストールされ、当該コンピュータに、
記憶部に記憶されている画像データに含まれているモデル画像中の顔部分を抽出する機能と、
前記抽出されたモデル画像中の顔部分の顔の向きを認識する機能と、
前記抽出したモデル画像中の顔部分を含む拡大画像で前記画像データの一部を前記表示部に表示する機能と、
前記抽出したモデル画像中の顔部分に当該顔部分の表示を他の部分の表示と異ならせる第1のフィルタ処理を施す機能と、
撮影装置が出力する撮影中の動画像を取り込んで当該動画像中の顔部分を抽出する機能と、
前記表示部の背部に位置させて二次元空間上に複数個のランプを配列し、前記ランプを選択的に点灯制御する注視盤に対し、前記認識した顔の向きに応じて、当該抽出されたモデル画像中の顔部分の顔の向きと前記抽出された動画像中の顔部分の顔の向きとが相対的に近似する方向に前記撮影装置の前に立つ被写体の顔の向きを向けさせる位置の前記ランプの点灯を指示する機能と、
前記表示部に表示されているモデル画像に前記抽出された動画像中の顔部分を重ね合わせて表示する機能と、
前記操作入力部での撮影指示操作によって、前記画像データに前記動画像中の顔部分を置き換えた静止画像である合成画像を生成する機能と、
を実行させる機械読み取り可能なコンピュータプログラム。
Installed in a computer comprising a display unit for displaying information and an operation input unit for operating and inputting information,
A function of extracting a face portion in a model image included in image data stored in a storage unit;
A function of recognizing the face orientation of the face portion in the extracted model image;
A function of displaying a part of the image data on the display unit in an enlarged image including a face portion in the extracted model image;
A function of performing a first filtering process on the face part in the extracted model image to make the display of the face part different from the display of other parts;
A function of taking a moving image being shot output from the photographing device and extracting a face portion in the moving image;
A plurality of lamps are arranged in a two-dimensional space positioned on the back of the display unit, and the extracted information is selected according to the recognized face direction with respect to a gaze board that selectively controls the lamps to be turned on. Position for directing the face of the subject standing in front of the photographing apparatus in a direction in which the face direction of the face part in the model image and the face direction of the face part in the extracted moving image are relatively approximate A function of instructing lighting of the lamp,
A function of superimposing and displaying the face portion in the extracted moving image on the model image displayed on the display unit;
A function of generating a composite image that is a still image obtained by replacing a face portion in the moving image with the image data by a shooting instruction operation in the operation input unit;
A machine-readable computer program that executes the program.
JP2007160756A 2007-06-18 2007-06-18 Information terminal and computer program Expired - Fee Related JP4708397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007160756A JP4708397B2 (en) 2007-06-18 2007-06-18 Information terminal and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007160756A JP4708397B2 (en) 2007-06-18 2007-06-18 Information terminal and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010287947A Division JP5291698B2 (en) 2010-12-24 2010-12-24 Information terminal and computer program

Publications (2)

Publication Number Publication Date
JP2008312174A JP2008312174A (en) 2008-12-25
JP4708397B2 true JP4708397B2 (en) 2011-06-22

Family

ID=40239314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007160756A Expired - Fee Related JP4708397B2 (en) 2007-06-18 2007-06-18 Information terminal and computer program

Country Status (1)

Country Link
JP (1) JP4708397B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850616B (en) * 2009-12-24 2018-07-10 株式会社尼康 Retrieve auxiliary system, search assisting method and retrieval auxiliary program
JP2014153817A (en) * 2013-02-06 2014-08-25 Toshiba Corp Passage control apparatus, method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178163A (en) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd Image processing method and apparatus
JP2005079662A (en) * 2003-08-28 2005-03-24 Make Softwear:Kk Image editing method in photograph vending machine, photograph vending machine, and image editing program
JP2006094034A (en) * 2004-09-22 2006-04-06 Fuji Photo Film Co Ltd Digital image service method and recording medium

Also Published As

Publication number Publication date
JP2008312174A (en) 2008-12-25

Similar Documents

Publication Publication Date Title
CN105874528B (en) Information display terminal, information display system, and information display method
US11908052B2 (en) System and method for digital makeup mirror
CN101184165B (en) Photo printing device and photo printing method
US8698920B2 (en) Image display apparatus and image display method
JP5232669B2 (en) camera
JP2010183317A (en) Imaging device, image composition and display device, image composition and display method, and program
CN105637565A (en) Fitting support device and method
KR20170074742A (en) Image processing device, image processing method amd program
CN105812666A (en) Shooting method of intelligent terminal and intelligent terminal
JP4708397B2 (en) Information terminal and computer program
JP2003085411A (en) Image input/output device
JP5291698B2 (en) Information terminal and computer program
JP2017188787A (en) Imaging apparatus, image composition method, and image composition program
JP4720686B2 (en) Automatic photo studio
JP2015133549A (en) Image processing system, image processing method and computer program
JP6255790B2 (en) Image processing apparatus and display control method
JP2012142772A (en) Image processing system and image processing method
JP7599001B2 (en) Augmented reality display system
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP7591121B2 (en) Augmented reality design and printing system
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP5617861B2 (en) Print production equipment
JP2007166383A (en) Digital camera, image composition method and program
JP2013218206A (en) Printed matter producing apparatus
JP4454026B2 (en) Program, information storage medium, photo printing apparatus and photo printing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20091030

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110316

R150 Certificate of patent or registration of utility model

Ref document number: 4708397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees