JP4995935B2 - Image generating apparatus, image processing method, and program - Google Patents

Image generating apparatus, image processing method, and program Download PDF

Info

Publication number
JP4995935B2
JP4995935B2 JP2010073388A JP2010073388A JP4995935B2 JP 4995935 B2 JP4995935 B2 JP 4995935B2 JP 2010073388 A JP2010073388 A JP 2010073388A JP 2010073388 A JP2010073388 A JP 2010073388A JP 4995935 B2 JP4995935 B2 JP 4995935B2
Authority
JP
Japan
Prior art keywords
image
eye
face
unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010073388A
Other languages
Japanese (ja)
Other versions
JP2011204182A (en
Inventor
祐一 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010073388A priority Critical patent/JP4995935B2/en
Publication of JP2011204182A publication Critical patent/JP2011204182A/en
Application granted granted Critical
Publication of JP4995935B2 publication Critical patent/JP4995935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、ユーザの視線方向を適切に修正した画像を生成できる画像生成装置、画像加工方法、および、プログラムに関する。   The present invention relates to an image generation apparatus, an image processing method, and a program that can generate an image in which a user's line-of-sight direction is appropriately corrected.

近年、ノート型のパソコン(パーソナルコンピュータ)等において、カメラ(CCD等の撮像ユニット)を備えた製品が販売されている。このカメラは、例えば、表示部(液晶等のディスプレイ)を支える周縁枠(上部枠や、下部枠等)に組み込まれており、ユーザ(顔等)を撮影可能となっている。
このようなカメラは、例えば、ビデオチャットを行う際に利用される。つまり、通信可能に接続された各パソコンにおいて、カメラで撮影された画像が相互に送られるため、各ユーザは相手の顔等を見ながら、チャットを行うことができるようになっている。
In recent years, products including a camera (an imaging unit such as a CCD) are sold in notebook personal computers (personal computers) and the like. For example, this camera is incorporated in a peripheral frame (an upper frame, a lower frame, or the like) that supports a display unit (display such as a liquid crystal), and can photograph a user (a face or the like).
Such a camera is used, for example, when video chatting is performed. That is, since images captured by the camera are sent to each other in each communicably connected personal computer, each user can chat while looking at the other party's face.

最近では、携帯型のゲーム装置等にも、このようなカメラが組み込まれた製品が販売されている。また、最初からカメラが組み込まれていなくとも、周辺機器のカメラをプレイヤが取り付けて使用できるゲーム装置が知られている。   Recently, products in which such a camera is incorporated are also sold in portable game devices and the like. In addition, a game device is known in which a player can attach and use a camera of a peripheral device even if the camera is not incorporated from the beginning.

このようなビデオチャットが行えるゲーム装置等において、一方のユーザ端末で映像に同期して発声した音声等を、他方のユーザ端末で映像に同期させて出力する技術も開示されている(例えば、特許文献1参照)。   In a game device or the like capable of such video chatting, there is also disclosed a technique for outputting a voice or the like uttered in synchronization with video at one user terminal in synchronization with the video at the other user terminal (for example, a patent) Reference 1).

特開2007−222411号公報 (第9−19頁、第3図)JP 2007-222411 A (pages 9-19, FIG. 3)

上述したビデオチャットが行えるゲーム装置等において、ユーザは、表示部に表示されている相手ユーザの画像を見ながら会話を進めることになる。なお、上述したように、カメラは、表示部を支える周縁枠に組み込まれているため、カメラの光軸方向とユーザの視線方向とが揃わずに、ずれが生じてしまう。つまり、視線を逸らした(視線が外れた)ユーザの画像が撮影されてしまうことになる。
例えば、カメラが表示部の上部枠に組み込まれている場合では、上方からユーザを撮影することになり、視線を下方に向けたユーザの画像が撮影される。そして、撮影されたその画像が相手側の装置に送られると、相手ユーザは、ユーザ(送信元のユーザ)が、絶えずうつむいているように見えてしまい、会話を楽しめない場合も多かった。
In the above-described game device capable of video chatting, the user proceeds with the conversation while viewing the image of the other user displayed on the display unit. As described above, since the camera is incorporated in the peripheral frame that supports the display unit, the optical axis direction of the camera is not aligned with the line-of-sight direction of the user, and a shift occurs. That is, an image of a user who has diverted his / her line of sight (out of line of sight) is taken.
For example, when the camera is incorporated in the upper frame of the display unit, the user is photographed from above, and an image of the user with the line of sight directed downward is photographed. When the photographed image is sent to the device on the other side, the other user often appears to be depressed (the user who is the transmission source) and often cannot enjoy the conversation.

なお、相手側の装置でも同様に、視線を逸らしたユーザ(相手ユーザ)の画像が撮影されて送られて来ることになる。そのため、従来のビデオチャットでは、ユーザ同士が、互いに視線を逸らして会話している状況となり、極めて不自然であった。   In the same way, the image of the user (another user) who has diverted his / her line of sight is also captured and sent to the other device. For this reason, in the conventional video chat, the users are talking with each other with their eyes on each other, which is extremely unnatural.

そのため、このような不自然な状況を生じさせずに、ビデオチャットが行えるゲーム装置(画像生成装置)等の開発が求められていた。   Therefore, there has been a demand for development of a game device (image generation device) that can perform video chat without causing such an unnatural situation.

本発明は、上記実状に鑑みてなされたもので、ユーザの視線方向を適切に修正した画像を生成できる画像生成装置、画像加工方法、および、プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image generation apparatus, an image processing method, and a program that can generate an image in which a user's line-of-sight direction is appropriately corrected.

本発明の第1の観点に係る画像生成装置は、顔検出部、画像特定部、及び、画像加工部を備えて構成される。   An image generation apparatus according to a first aspect of the present invention includes a face detection unit, an image specification unit, and an image processing unit.

まず、顔検出部は、例えば、カメラ等により撮影された撮影画像から人物の顔画像を検出する。また、画像特定部は、検出された当該顔画像から眼部画像(例えば、皮膚に隠れた部分も含めた略円形の眼部画像)を特定する。そして、画像加工部は、特定された当該眼部画像における瞳の位置を、例えば、眼部画像の中央となるように加工する。   First, the face detection unit detects a human face image from a photographed image photographed by a camera or the like, for example. Further, the image specifying unit specifies an eye part image (for example, a substantially circular eye part image including a part hidden behind the skin) from the detected face image. Then, the image processing unit processes the position of the pupil in the specified eye image so as to be at the center of the eye image, for example.

すなわち、本願発明では、撮影画像から人物の顔画像(ユーザの顔画像)を検出し、その顔画像から眼部画像を特定する。そして、特定した眼部画像の瞳の位置を、例えば、眼部画像の中央となるように加工する。つまり、ユーザがこちら(カメラ)に視線を向けているように、眼部画像を加工する。
この結果、ユーザの視線方向を適切に修正した画像を生成できる。
That is, in the present invention, a human face image (user face image) is detected from the photographed image, and an eye part image is specified from the face image. And the position of the pupil of the specified eye part image is processed so as to be the center of the eye part image, for example. That is, the eye image is processed so that the user looks at the camera (camera).
As a result, an image in which the user's line-of-sight direction is appropriately corrected can be generated.

本発明の第2の観点に係る画像生成装置は、撮影部、顔検出部、画像特定部、画像加工部、及び、画像送信部を備えて構成される。   An image generation apparatus according to a second aspect of the present invention includes an imaging unit, a face detection unit, an image specification unit, an image processing unit, and an image transmission unit.

まず、撮影部は、人物を含む撮影画像を撮影する。また、顔検出部は、撮影された撮影画像から、顔認識により当該人物の顔画像を検出する。また、画像特定部は、検出された当該顔画像から眼部画像(例えば、皮膚に隠れた部分も含めた略円形の眼部画像)を特定する。また、画像加工部は、特定された当該眼部画像における瞳の位置を、当該眼部画像の中央となるように加工する。そして、画像送信部は、当該眼部画像が加工された顔画像を含む撮影画像を、他の装置に送信する。   First, the imaging unit captures a captured image including a person. The face detection unit detects a face image of the person by face recognition from the photographed photographed image. Further, the image specifying unit specifies an eye part image (for example, a substantially circular eye part image including a part hidden behind the skin) from the detected face image. Further, the image processing unit processes the pupil position in the identified eye part image so as to be in the center of the eye part image. Then, the image transmission unit transmits a captured image including a face image obtained by processing the eye image to another device.

すなわち、本願発明では、撮影画像から検出した人物(ユーザ)の顔画像から眼部画像を特定する。そして、特定した眼部画像の瞳の位置を、眼部画像の中央となるように加工し、眼部を加工した顔画像を含む撮影画像を他の装置に送信する。つまり、ユーザがこちら(カメラ)に視線を向けているように、眼部画像を加工した撮影画像を他の装置に送信する。このため、相手側(他の装置)では、自分(相手ユーザ)に視線を向けているユーザの画像が得られるため、ビデオチャット等を違和感なく自然に行うことができる。
この結果、ユーザの視線方向を適切に修正した画像を生成できる。
That is, in the present invention, the eye part image is specified from the face image of the person (user) detected from the captured image. Then, the position of the pupil of the identified eye part image is processed so as to be the center of the eye part image, and a captured image including a face image obtained by processing the eye part is transmitted to another device. That is, the captured image obtained by processing the eye image is transmitted to another device so that the user looks at the camera (camera). For this reason, the other party (another apparatus) can obtain an image of a user who is looking at the user (the other party user), so that the video chat can be naturally performed without a sense of incongruity.
As a result, an image in which the user's line-of-sight direction is appropriately corrected can be generated.

画像加工部は、加工した当該眼部画像の瞳の一部に、更に輝点を合成してもよい。つまり、キャッチライト加工を更に行うことにより、ユーザの瞳を輝かせる。
この場合、キャッチライト加工により、ユーザの表情をより豊かに見せることができる。
The image processing unit may further combine a bright spot with a part of the pupil of the processed eye image. That is, the user's pupil is shined by further performing catch light processing.
In this case, the user's facial expression can be made richer by catch light processing.

上記画像生成装置は、検出された当該顔画像から、当該人物の視線方向を算定する算定部を更に備え、
画像加工部は、算定された当該視線方向が所定範囲内である場合に、当該眼部画像における瞳の位置を加工してもよい。
つまり、ユーザの視線が大きく外れている場合では、眼部画像の瞳の位置を中央とする加工を行っても、不自然な顔画像となってしまう。そのため、視線が大きく外れている場な場合ではあえて加工を行わず、無理のない視線範囲に限り、眼部画像の瞳の位置を加工する。
この場合、不自然とならない範囲で、ユーザの視線方向を修正した画像を生成できる。
The image generation apparatus further includes a calculation unit that calculates the gaze direction of the person from the detected face image,
The image processing unit may process the position of the pupil in the eye image when the calculated line-of-sight direction is within a predetermined range.
That is, when the user's line of sight is greatly deviated, an unnatural face image is obtained even if processing is performed with the pupil position in the eye image centered. Therefore, in the case where the line of sight is greatly deviated, the processing is not performed, and the position of the pupil of the eye image is processed only within a reasonable line of sight range.
In this case, an image in which the user's line-of-sight direction is corrected can be generated within a range that is not unnatural.

本発明の第3の観点に係る画像加工方法は、顔検出部と、画像特定部と、画像加工部とを有する画像生成装置における画像加工方法であって、顔検出ステップ、画像特定ステップ、及び、画像加工ステップを備えて構成される。   An image processing method according to a third aspect of the present invention is an image processing method in an image generation apparatus having a face detection unit, an image specifying unit, and an image processing unit, the face detecting step, the image specifying step, and The image processing step is configured.

まず、顔検出ステップでは、例えば、カメラ等により撮影された撮影画像から人物の顔画像を検出する。また、画像特定ステップでは、検出された当該顔画像から眼部画像(例えば、皮膚に隠れた部分も含めた略円形の眼部画像)を特定する。そして、画像加工ステップでは、特定された当該眼部画像における瞳の位置を、例えば、眼部画像の中央となるように加工する。   First, in the face detection step, for example, a human face image is detected from a photographed image photographed by a camera or the like. In the image specifying step, an eye image (for example, a substantially circular eye image including a portion hidden by the skin) is specified from the detected face image. In the image processing step, the position of the pupil in the specified eye image is processed so as to be at the center of the eye image, for example.

すなわち、本願発明では、撮影画像から人物の顔画像(ユーザの顔画像)を検出し、その顔画像から眼部画像を特定する。そして、特定した眼部画像の瞳の位置を、例えば、眼部画像の中央となるように加工する。つまり、ユーザがこちら(カメラ)に視線を向けているように、眼部画像を加工する。
この結果、ユーザの視線方向を適切に修正した画像を生成できる。
That is, in the present invention, a human face image (user face image) is detected from the photographed image, and an eye part image is specified from the face image. And the position of the pupil of the specified eye part image is processed so as to be the center of the eye part image, for example. That is, the eye image is processed so that the user looks at the camera (camera).
As a result, an image in which the user's line-of-sight direction is appropriately corrected can be generated.

本発明の第4の観点に係るプログラムは、コンピュータ(電子機器を含む。)を、上記の画像生成装置として機能させるように構成する。   A program according to a fourth aspect of the present invention is configured to cause a computer (including an electronic device) to function as the above-described image generation device.

このプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。   This program can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。   The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、ユーザの視線方向を適切に修正した画像を生成できる。   ADVANTAGE OF THE INVENTION According to this invention, the image which corrected the user's gaze direction appropriately can be produced | generated.

本実施形態に係るゲーム装置の外観を示す模式図である。It is a mimetic diagram showing appearance of a game device concerning this embodiment. 本実施形態に係るゲーム装置の概要構成を示すブロック図である。It is a block diagram which shows the schematic structure of the game device which concerns on this embodiment. 本実施形態に係る画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image generation apparatus which concerns on this embodiment. (a),(b)共に、人物(ユーザ)を検出する様子を説明するための模式図である。(A), (b) is a schematic diagram for demonstrating a mode that a person (user) is detected. (a)〜(e)全て、上目遣い気味の眼部画像を特定する様子を説明するための模式図である。(A)-(e) It is a schematic diagram for demonstrating a mode that all specify the eye part image which looks like an upper eye. (a)〜(d)全て、伏し目がちの眼部画像を特定する様子を説明するための模式図である。(A)-(d) is a schematic diagram for demonstrating a mode that all specify the eye part image which has a tendency to bind down. (a)〜(f)全て、眼部画像における瞳の位置を加工する様子を説明するための模式図である。(A)-(f) is a schematic diagram for demonstrating a mode that the position of the pupil in an eye part image is processed. (a),(b)が、キャッチライト加工の一例を示す模式図であり、(c)が、加工後の顔画像(眼部画像)の一例を示す模式図である。(A), (b) is a schematic diagram which shows an example of catchlight processing, (c) is a schematic diagram which shows an example of the face image (eye part image) after a process. (a),(b)共に、表示部に表示されるビデオチャット画面の一例を示す模式図である。(A), (b) is a schematic diagram which shows an example of the video chat screen displayed on a display part. 本実施形態に係る画像加工処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image processing process which concerns on this embodiment. 他の実施形態に係る画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image generation apparatus which concerns on other embodiment. (a)〜(e)全て、ユーザの視線方向を算定する様子を説明するための模式図である。(A)-(e) is a schematic diagram for demonstrating a mode that all calculate a user's gaze direction.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、携帯型ゲーム機(ゲーム装置)に本発明が適用される実施形態を説明するが、各種のコンピュータ、PDA、携帯電話などの情報処理装置においても同様に本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is applied to a portable game machine (game device) will be described. However, the present invention is similarly applied to information processing devices such as various computers, PDAs, and mobile phones. The invention can be applied. In other words, the embodiments described below are for illustrative purposes and do not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

(実施形態1)
図1は、本発明の実施の形態に係る画像生成装置が実現される典型的なゲーム装置の外観を示す模式図である。このゲーム装置1は、一例として、携帯型のゲーム機器であって、第1の表示部18と、第2の表示部19とを有しており、それらの間に、カメラ21が配置されている。また、第2の表示部19の前面にはタッチパネル20が配置されている。
(Embodiment 1)
FIG. 1 is a schematic diagram showing an appearance of a typical game device in which the image generation device according to the embodiment of the present invention is realized. As an example, the game apparatus 1 is a portable game device, and includes a first display unit 18 and a second display unit 19, and a camera 21 is disposed between them. Yes. A touch panel 20 is disposed on the front surface of the second display unit 19.

図2は、このゲーム装置1の概要構成を示す模式図である。以下、本図を参照してゲーム装置1について説明する。   FIG. 2 is a schematic diagram showing a schematic configuration of the game apparatus 1. Hereinafter, the game apparatus 1 will be described with reference to FIG.

ゲーム装置1は、処理制御部10と、コネクタ11と、カートリッジ12と、無線通信部13と、通信コントローラ14と、サウンドアンプ15と、スピーカ16と、操作キー17と、第1の表示部18と、第2の表示部19と、タッチパネル20と、カメラ21とを備える。   The game apparatus 1 includes a processing control unit 10, a connector 11, a cartridge 12, a wireless communication unit 13, a communication controller 14, a sound amplifier 15, a speaker 16, an operation key 17, and a first display unit 18. A second display unit 19, a touch panel 20, and a camera 21.

処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、DMA(Direct Memory Access)コントローラ10cと、VRAM(Video Random Access Memory)10dと、WRAM(Work RAM)10eと、LCD(Liquid Crystal Display)コントローラ10fと、タッチパネルコントローラ10gとを備える。   The processing control unit 10 includes a CPU (Central Processing Unit) core 10a, an image processing unit 10b, a DMA (Direct Memory Access) controller 10c, a VRAM (Video Random Access Memory) 10d, a WRAM (Work RAM) 10e, An LCD (Liquid Crystal Display) controller 10f and a touch panel controller 10g are provided.

CPUコア10aは、ゲーム装置1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory)12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。   The CPU core 10a controls the overall operation of the game apparatus 1 and is connected to each component to exchange control signals and data. Specifically, a program and data stored in a ROM (Read Only Memory) 12a in the cartridge 12 are read out with the cartridge 12 mounted in the connector 11, and predetermined processing is executed.

画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10dに格納する。例えば、WRAM 10eに記憶された画像を加工して、VRAM 10dに格納する。   The image processing unit 10b processes the data read from the ROM 12a in the cartridge 12 and the data processed by the CPU core 10a, and stores the processed data in the VRAM 10d. For example, the image stored in the WRAM 10e is processed and stored in the VRAM 10d.

DMAコントローラ10cは、カメラ21によって撮影された撮影画像をWRAM 10e等に転送する。   The DMA controller 10c transfers the captured image captured by the camera 21 to the WRAM 10e or the like.

VRAM 10dは、表示用の情報を記憶するメモリであり、画像処理部10b等により加工された画像情報を記憶する。
WRAM 10eは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。
また、WRAM 10eは、DMAコントローラ10cから転送された画像を一時的に記憶する。
The VRAM 10d is a memory for storing information for display, and stores image information processed by the image processing unit 10b and the like.
The WRAM 10e stores work data and the like necessary when the CPU core 10a executes various processes according to the program.
The WRAM 10e temporarily stores the image transferred from the DMA controller 10c.

LCDコントローラ10fは、第1の表示部18および、第2の表示部19を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10fは、VRAM 10dに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、第1の表示部18に出力する。また、LCDコントローラ10fは、同様に、第2の表示部19に所定の表示用画像を表示する。   The LCD controller 10f controls the first display unit 18 and the second display unit 19 to display a predetermined display image. For example, the LCD controller 10 f converts the image information stored in the VRAM 10 d into a display signal at a predetermined synchronization timing, and outputs it to the first display unit 18. Similarly, the LCD controller 10 f displays a predetermined display image on the second display unit 19.

タッチパネルコントローラ10gは、タッチペンやプレイヤの指によって、タッチパネル20が押下されると、その座標(入力座標)を取得する。   When the touch panel 20 is pressed with a touch pen or a player's finger, the touch panel controller 10g acquires the coordinates (input coordinates).

コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。   The connector 11 is a terminal that can be detachably connected to the cartridge 12, and transmits / receives predetermined data to / from the cartridge 12 when the cartridge 12 is connected.

カートリッジ12は、ROM 12aと、RAM(Random Access Memory)12bとを備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The cartridge 12 includes a ROM 12a and a RAM (Random Access Memory) 12b.
The ROM 12a stores a program for realizing the game and image data, sound data, and the like accompanying the game.
The RAM 12b stores various data indicating the progress of the game.

無線通信部13は、他のゲーム装置1の無線通信部13との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。
なお、無線通信部13は、所定の無線アクセスポイントとの間で、無線通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
The wireless communication unit 13 is a unit that performs wireless communication with the wireless communication unit 13 of another game apparatus 1 and transmits / receives predetermined data via an antenna (not shown) (built-in antenna or the like).
The wireless communication unit 13 can also perform wireless communication with a predetermined wireless access point. The wireless communication unit 13 is assigned a unique MAC (Media Access Control) address.

通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他のゲーム装置1の処理制御部10との間で行われる無線通信の仲立ちをする。
また、ゲーム装置1が、近傍の無線アクセスポイント等を介してインターネットに接続する際には、無線LANに準拠したプロトコルに沿って、処理制御部10と無線アクセスポイント等との間で行われる無線通信の仲立ちをする。
The communication controller 14 controls the wireless communication unit 13 and mediates wireless communication performed between the process control unit 10 and the process control unit 10 of another game device 1 in accordance with a predetermined protocol.
Further, when the game apparatus 1 connects to the Internet via a nearby wireless access point or the like, wireless communication performed between the processing control unit 10 and the wireless access point or the like is performed according to a protocol compliant with the wireless LAN. Intermediary communication.

サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。
スピーカ16は、例えば、ステレオスピーカ等からなり、サウンドアンプ15にて増幅された音声信号に従って、所定の楽曲音や効果音等を出力する。
The sound amplifier 15 amplifies the audio signal generated by the processing control unit 10 and supplies it to the speaker 16.
The speaker 16 is composed of, for example, a stereo speaker, and outputs predetermined music sound, sound effect, and the like according to the audio signal amplified by the sound amplifier 15.

操作キー17は、ゲーム装置1に適宜配置された複数のキースイッチ等からなり、ユーザの操作に従って、所定の指示入力を受け付ける。   The operation key 17 includes a plurality of key switches and the like appropriately arranged on the game apparatus 1 and receives a predetermined instruction input according to a user operation.

第1の表示部18および、第2の表示部19は、LCD等からなり、LCDコントローラ10fに制御され、ゲーム画像等を適宜表示する。   The 1st display part 18 and the 2nd display part 19 consist of LCD etc., are controlled by LCD controller 10f, and display a game image etc. suitably.

タッチパネル20は、第2の表示部19の前面に重畳して配置され、タッチペンやプレイヤの指による入力を検出する。
例えば、タッチパネル20は、抵抗膜方式のタッチセンサパネル等からなり、タッチペン等による押圧(押下)を検知し、その座標に応じた情報(信号等)を出力する。
The touch panel 20 is arranged so as to be superimposed on the front surface of the second display unit 19 and detects an input by a touch pen or a player's finger.
For example, the touch panel 20 includes a resistive film type touch sensor panel and the like, detects a press (pressing) with a touch pen or the like, and outputs information (signal or the like) according to the coordinates.

カメラ21は、一例として、単焦点のレンズ及び、所定画素数の撮像素子(CMOSやCCD等)を含んで構成される。そして、カメラ21は、第1の表示部18の正面方向を光軸として所定の撮影範囲の画像を撮影する。例えば、ビデオチャットを行うユーザ等の被写体を撮影する。   As an example, the camera 21 includes a single-focus lens and an image sensor (CMOS, CCD, etc.) having a predetermined number of pixels. Then, the camera 21 captures an image in a predetermined imaging range with the front direction of the first display unit 18 as an optical axis. For example, a subject such as a user who performs a video chat is photographed.

このような構成において、ROM 12aにビデオチャット用のプログラムおよびデータが記録されたカートリッジ12が装着され、ゲーム装置1の電源が投入されると、当該プログラムが実行され、本実施形態に係る画像生成装置が実現される。
以下、このようなゲーム装置1によって実現される画像生成装置について説明する。
In such a configuration, when the cartridge 12 in which the program and data for video chat are recorded in the ROM 12a is mounted and the game apparatus 1 is turned on, the program is executed, and the image generation according to the present embodiment is performed. A device is realized.
Hereinafter, an image generation apparatus realized by such a game apparatus 1 will be described.

(画像生成装置の概要)
図3は、本実施の形態に係る画像生成装置100の概要構成を示すブロック図である。この画像生成装置100は、一例として、所定のネットワークを介して接続された他の画像生成装置100との間で、ビデオチャットを行うために用いられる装置であり、上述した第1の表示部18等に、相手側のユーザ等の画像を表示しつつ、カメラ21で撮影した自分(ユーザ自身)の画像を送信可能な装置である。以下、このようなビデオチャットが行われる場合を一例として、本図を参照して画像生成装置100について説明する。
(Outline of image generation device)
FIG. 3 is a block diagram showing a schematic configuration of the image generation apparatus 100 according to the present embodiment. As an example, the image generation apparatus 100 is an apparatus used for video chatting with another image generation apparatus 100 connected via a predetermined network, and the first display unit 18 described above. For example, an image of the user (user himself) captured by the camera 21 can be transmitted while displaying an image of the other user or the like. Hereinafter, the image generation apparatus 100 will be described with reference to the drawing, taking as an example the case where such a video chat is performed.

図3に示すように、画像生成装置100は、撮影部110と、顔検出部120と、画像特定部130と、画像加工部140と、通信部150と、表示制御部160と、表示部170とを備える。   As illustrated in FIG. 3, the image generation apparatus 100 includes an imaging unit 110, a face detection unit 120, an image specifying unit 130, an image processing unit 140, a communication unit 150, a display control unit 160, and a display unit 170. With.

まず、撮影部110は、所定の被写体を撮影した撮影画像を撮影する。例えば、ビデオチャットを行うユーザ(人物)を含む撮影画像を撮影する。
具体的に撮影部110は、ビデオチャットを行う際に、ユーザを含む画像を順次撮影し、撮影した撮影画像(一例として、動画)を、顔検出部120等に供給する。
なお、上述したカメラ21が、このような撮影部110として機能しうる。
First, the photographing unit 110 photographs a photographed image obtained by photographing a predetermined subject. For example, a captured image including a user (person) who performs video chat is captured.
Specifically, when performing video chat, the photographing unit 110 sequentially captures images including the user, and supplies the captured images (for example, moving images) to the face detection unit 120 and the like.
Note that the above-described camera 21 can function as such a photographing unit 110.

顔検出部120は、撮影部110によって撮影された撮影画像からユーザの顔画像を検出する。
例えば、顔検出部120は、顔認識によって、撮影画像に写っているユーザの顔画像を検出する。具体的に顔検出部120は、図4(a)に示すような撮影画像SGから、肌色の領域A1〜A4をサーチし、それらの領域内から人間の顔の特徴部位が抽出できるかどうかを判断する。この場合、図4(b)に示すように、領域A1内から、少なくとも、両眼、口を含む特徴部位が抽出でき、人間の顔面として認識できるため、顔検出部120は、ユーザの顔画像K1を検出する。
なお、このようなユーザ(人物)の顔画像を検出する手法は、一例であり、他の手法を用いてもよい。例えば、肌色領域をエッジ処理により輪郭を抽出し、所定形状(略楕円形状等)であるかどうかを判別して、ユーザの画像画像を検出してもよい。
そして、上述した処理制御部10のCPUコア10aや画像処理部10b等が、このような顔検出部120として機能しうる。
The face detection unit 120 detects a user's face image from the photographed image photographed by the photographing unit 110.
For example, the face detection unit 120 detects the face image of the user shown in the captured image by face recognition. Specifically, the face detection unit 120 searches the skin image areas A1 to A4 from the photographed image SG as shown in FIG. 4A, and determines whether or not a human facial feature part can be extracted from these areas. to decide. In this case, as shown in FIG. 4B, at least a feature part including both eyes and mouth can be extracted from the area A1, and can be recognized as a human face. K1 is detected.
Note that such a method of detecting the face image of the user (person) is an example, and other methods may be used. For example, the contour of the skin color region may be extracted by edge processing to determine whether or not the skin color region has a predetermined shape (such as a substantially elliptical shape), and the user's image image may be detected.
The CPU core 10a and the image processing unit 10b of the processing control unit 10 described above can function as such a face detection unit 120.

図3に戻って、画像特定部130は、顔検出部120により検出されたユーザの顔画像から眼部画像を特定する。
例えば、画像特定部130は、検出された顔画像中の特徴点の位置関係等から、顔画像における眼部画像を特定する。
具体的に画像特定部130は、図5(a)に示すような顔画像KGから、両眼の眼部画像G1,G2を特定する。なお、この図5(a)の画像は、ユーザが第1の表示部18に注目している(視線を向けている)場合の一例である。つまり、図5(b)に示すように、ユーザYが第1の表示部18に視線L1を向けており、第1の表示部18の下枠に埋設されたカメラ21から光軸L2にて撮影した場合の一例である。
この場合、ユーザの眼部を円(より詳細には球)と仮定すると、図5(c)に示すように、視線L1と光軸L2とがずれており、眼部の中心CPよりも上部に瞳Hが位置するように撮影される。そのため、画像特定部130は、図5(a)等に示すような、少し上目遣い気味の眼部画像G1,G2を特定する。なお、より詳細に画像特定部130は、皮膚に隠れた部分も含めた略円形の眼部画像を特定する。一例として、図5(d)に示すような眼部画像G1,G2において、皮膚に隠れている点線部CRまでを、眼部を略円形であると仮定して特定する。つまり、画像特定部130は、両眼について、図5(e)に示すような、白目SRと瞳(つまり、黒目:虹彩と瞳孔)Hとが含まれる略円形の眼部画像GBを特定する。なお、瞳Hの一部が皮膚(まぶた等)に隠れていた場合には、瞳Hを略円形と仮定し、隠れていた部分を補完した眼部画像GBを特定する。
一方、図6(a)に示すように、ユーザYが第2の表示部19に視線L3を向けており、第2の表示部19の上枠(第1の表示部18の下枠)に埋設されたカメラ21から光軸L2にて撮影した場合では、図6(b)に示すように、視線L3と光軸L2とがずれており、眼部の中心CPよりも下部にに瞳Hが位置するように撮影される。そのため、画像特定部130は、図6(c)に示すような、少し伏し目がちの眼部画像G1,G2を特定する。この場合も、皮膚に隠れている点線部CRまでを、眼部を略円形であると仮定して特定するため、画像特定部130は、両眼について、図6(d)に示すような、白目SRと瞳H(一部が皮膚に隠れていた場合には、補完した瞳H)とが含まれる略円形の眼部画像GBを特定する。
なお、ユーザが表示部170(第1の表示部18若しくは、第2の表示部19)を見ている限り、顔の向きに拘わらず、瞳(瞳孔)が撮影されている。つまり、ユーザが顔を上げて(あごを突き出して)いたり、顔を俯いて(あごを引いて)いるような場合では、瞳の一部が皮膚(上下のまぶた等)に隠れることがあるものの、視線と光軸との関係は、図5(c)や図6(b)のような関係となる。そのため、画像特定部130は、図5(e)や図6(d)のような眼部画像GBを特定する。
そして、上述した処理制御部10のCPUコア10aや画像処理部10b等が、このような画像特定部130として機能しうる。
Returning to FIG. 3, the image specifying unit 130 specifies an eye part image from the face image of the user detected by the face detecting unit 120.
For example, the image specifying unit 130 specifies the eye part image in the face image from the positional relationship of the feature points in the detected face image.
Specifically, the image specifying unit 130 specifies the eye image G1, G2 of both eyes from the face image KG as shown in FIG. Note that the image in FIG. 5A is an example of the case where the user is paying attention to the first display unit 18 (looking at his / her line of sight). That is, as shown in FIG. 5B, the user Y has the line of sight L <b> 1 facing the first display unit 18, and the optical axis L <b> 2 from the camera 21 embedded in the lower frame of the first display unit 18. This is an example of shooting.
In this case, assuming that the user's eye is a circle (more specifically, a sphere), as shown in FIG. 5C, the line of sight L1 and the optical axis L2 are deviated and above the center CP of the eye. An image is taken so that the pupil H is positioned at Therefore, the image specifying unit 130 specifies eye images G1 and G2 that are slightly overlooked as shown in FIG. In more detail, the image specifying unit 130 specifies a substantially circular eye image including a portion hidden behind the skin. As an example, in the eye part images G1 and G2 as shown in FIG. 5D, up to the dotted line part CR hidden behind the skin is specified on the assumption that the eye part is substantially circular. That is, the image specifying unit 130 specifies a substantially circular eye image GB including the white eye SR and the pupil (that is, the black eye: iris and pupil) H as shown in FIG. . When a part of the pupil H is hidden behind the skin (eg, eyelid), the pupil H is assumed to be substantially circular, and an eye image GB that complements the hidden portion is specified.
On the other hand, as shown in FIG. 6 (a), the user Y is looking at the line of sight L3 toward the second display unit 19, and the upper frame of the second display unit 19 (the lower frame of the first display unit 18). When the image is taken from the embedded camera 21 with the optical axis L2, as shown in FIG. 6B, the line of sight L3 and the optical axis L2 are shifted, and the pupil H is located below the center CP of the eye part. Is taken so that is located. For this reason, the image specifying unit 130 specifies eye part images G1 and G2 that tend to be slightly bound as shown in FIG. Also in this case, up to the dotted line CR hidden behind the skin is specified assuming that the eye is substantially circular, the image specifying unit 130 for both eyes, as shown in FIG. A substantially circular eye image GB including the white eye SR and the pupil H (a complemented pupil H when part of the pupil is hidden by the skin) is specified.
As long as the user looks at the display unit 170 (the first display unit 18 or the second display unit 19), the pupil (pupil) is photographed regardless of the face orientation. In other words, if the user raises his face (sticks out his chin) or crawls his face (pulls his chin), some of his eyes may be hidden on the skin (upper and lower eyelids, etc.) The relationship between the line of sight and the optical axis is as shown in FIG. 5C and FIG. 6B. Therefore, the image specifying unit 130 specifies an eye part image GB as shown in FIGS. 5 (e) and 6 (d).
The CPU core 10a and the image processing unit 10b of the processing control unit 10 described above can function as such an image specifying unit 130.

図3に戻って、画像加工部140は、画像特定部130により特定された眼部画像における瞳の位置を加工する。
例えば、画像加工部140は、特定された各眼部画像における瞳の位置を、眼部画像の中央となるように加工する。具体的にユーザが第1の表示部18に注目している場合に、画像加工部140は、両眼について、図7(a)に示すような少し上目遣い気味の眼部画像GBの瞳Hを、図7(b)に示すように、眼部画像GBの中央、つまり、略円形の中央に移動させる加工を行う。また、ユーザが第2の表示部19に注目している場合に、画像加工部140は、両眼について、図7(c)に示すような少し伏し目がちの眼部画像GBの瞳Hを、図7(d)に示すように、眼部画像GBの中央に移動させる加工を行う。
なお、瞳の位置を眼部画像の中央に移動させる際に、画像加工部140は、瞳(虹彩)における瞳孔の位置も適宜移動させてもよい。つまり、図7(e)に示すように、瞳Hだけでなく、瞳孔Dも、眼部画像GBの中央に移動させる。そして、画像加工部140は、皮膚に隠れている部分を切り取り(取り除き)、図7(f)に示すような眼部画像G1,G2に戻す。
また、画像加工部140は、加工した瞳の一部に輝点(光輝点:ハイライト)を合成する。つまり、キャッチライト加工を行う。具体的には、図8(a)に示すように、所定の仮想光源からの光を反射した輝点KT1を生成し、眼部画像G1,G2における瞳H内の所定箇所(一例として、瞳孔の周縁等)に合成する。なお、合成する輝点の形状や大きさ、そして、合成位置等は任意である。例えば、図8(b)に示すような略三日月形状の輝点KT2を瞳H内に合成してもよい。
このような加工を、両眼について行うことにより、画像加工部140は、最終的に、図8(c)に示すようなユーザが撮影部110(カメラ21)に視線を向けている(カメラ目線の)顔画像KGを生成する。
なお、上述した処理制御部10のCPUコア10aや画像処理部10b等が、このような画像加工部140として機能しうる。
Returning to FIG. 3, the image processing unit 140 processes the position of the pupil in the eye image specified by the image specifying unit 130.
For example, the image processing unit 140 processes the position of the pupil in each specified eye part image so as to be the center of the eye part image. Specifically, when the user is paying attention to the first display unit 18, the image processing unit 140 displays the pupil H of the eye part image GB that looks slightly upward as shown in FIG. As shown in FIG. 7B, a process of moving to the center of the eye image GB, that is, the center of a substantially circular shape is performed. In addition, when the user is paying attention to the second display unit 19, the image processing unit 140, for both eyes, displays the pupil H of the eye part image GB that tends to be slightly bowed as shown in FIG. As shown in FIG. 7D, a process of moving to the center of the eye image GB is performed.
Note that when moving the position of the pupil to the center of the eye image, the image processing unit 140 may appropriately move the position of the pupil in the pupil (iris). That is, as shown in FIG. 7E, not only the pupil H but also the pupil D is moved to the center of the eye image GB. Then, the image processing unit 140 cuts out (removes) the portion hidden in the skin, and returns the eye image G1 and G2 as shown in FIG.
The image processing unit 140 synthesizes a bright spot (bright spot: highlight) with a part of the processed pupil. That is, catch light processing is performed. Specifically, as shown in FIG. 8A, a bright spot KT1 reflecting light from a predetermined virtual light source is generated, and a predetermined location in the pupil H in the eye images G1 and G2 (as an example, the pupil ) And the like. Note that the shape and size of the bright spot to be combined, the combining position, and the like are arbitrary. For example, a substantially crescent-shaped bright spot KT2 as shown in FIG.
By performing such processing for both eyes, the image processing unit 140 finally has a user as shown in FIG. 8C turning his or her line of sight toward the photographing unit 110 (camera 21) (camera line of sight). A) face image KG.
Note that the CPU core 10a, the image processing unit 10b, and the like of the processing control unit 10 described above can function as such an image processing unit 140.

図3に戻って、通信部150は、所定のネットワークを介して接続された他の画像生成装置100との間の通信を制御する。
具体的に、通信部150は、画像送信部151と画像受信部152とを含んで構成される。
画像送信部151は、画像加工部140により加工された顔画像(眼部画像)を含む撮影画像を、他の画像生成装置100に送信する。つまり、ユーザの顔画像における眼部画像を加工した撮影画像を、ビデオチャット相手の画像生成装置100に送信する。
一方、画像受信部152は、他の画像生成装置100から送信された画像を受信する。つまり、ビデオチャット相手の画像生成装置100でも、同様にこのような加工された顔画像(眼部画像)を含む撮影画像を受信する。
なお、上述した無線通信部13や通信コントローラ14等が、このような通信部150として機能しうる。
Returning to FIG. 3, the communication unit 150 controls communication with another image generation apparatus 100 connected via a predetermined network.
Specifically, the communication unit 150 includes an image transmission unit 151 and an image reception unit 152.
The image transmission unit 151 transmits a captured image including the face image (eye image) processed by the image processing unit 140 to another image generation apparatus 100. That is, a captured image obtained by processing the eye image in the user's face image is transmitted to the video chat partner image generation apparatus 100.
On the other hand, the image reception unit 152 receives an image transmitted from another image generation apparatus 100. That is, the image generation apparatus 100 of the video chat partner also receives a captured image including such a processed face image (eye part image).
Note that the above-described wireless communication unit 13, communication controller 14, and the like can function as such a communication unit 150.

表示制御部160は、画像受信部152によって受信された画像と、画像加工部140によってユーザ(自身)の顔画像(眼部画像)が加工された撮影画像とを合成したビデオチャット画面を表示部170に表示する。
例えば、表示制御部160は、画像受信部152が受信した画像をメインとし、その一部に、画像加工部140が顔画像を加工した撮影画像を適宜縮小して合成する。具体的に表示制御部160は、図9(a)に示すように、ビデオチャットの相手からの画像ATG1の右上に、縮小した撮影画像KSG1を合成したビデオチャット画面を生成する。
なお、表示制御部160の合成手法は、一例であり、他の手法により両画像を合成してもよい。例えば、図9(b)に示すように、ビデオチャットの相手からの画像ATG2と、中央をトリミングした加工撮影画像KSG2とを並べて合成してもよい。
そして、上述した処理制御部10のCPUコア10aや画像処理部10b等が、このような表示制御部160として機能しうる。
The display control unit 160 displays a video chat screen in which the image received by the image receiving unit 152 and the captured image obtained by processing the face image (eye image) of the user (self) by the image processing unit 140 are displayed. 170.
For example, the display control unit 160 uses the image received by the image receiving unit 152 as a main, and synthesizes the captured image obtained by processing the face image by the image processing unit 140 as appropriate. Specifically, as shown in FIG. 9A, the display control unit 160 generates a video chat screen in which the reduced captured image KSG1 is combined with the upper right of the image ATG1 from the video chat partner.
The combining method of the display control unit 160 is an example, and both images may be combined by another method. For example, as shown in FIG. 9B, an image ATG2 from a video chatting partner and a processed photographed image KSG2 trimmed at the center may be combined and combined.
The CPU core 10a, the image processing unit 10b, and the like of the processing control unit 10 described above can function as such a display control unit 160.

表示部170は、表示制御部160により合成されたビデオチャット画面を表示する。つまり、上述した図9(a),(b)等に示すようなビデオチャット画面を表示する。
なお、上述した第1の表示部18や第2の表示部19が、このような表示部170として機能しうる。
The display unit 170 displays the video chat screen synthesized by the display control unit 160. That is, a video chat screen as shown in FIGS. 9A and 9B is displayed.
The first display unit 18 and the second display unit 19 described above can function as such a display unit 170.

(画像生成装置の動作の概要)
以下、このような構成の画像生成装置100の動作について図面を参照して説明する。一例として、ビデオチャット時における処理動作を、図10を参照して説明する。図10は、画像生成装置100にて実行される画像加工処理の流れを示すフローチャートである。
(Outline of operation of image generation device)
Hereinafter, the operation of the image generating apparatus 100 having such a configuration will be described with reference to the drawings. As an example, the processing operation during video chat will be described with reference to FIG. FIG. 10 is a flowchart showing a flow of image processing performed by the image generation apparatus 100.

まず、画像生成装置100は、ユーザを含む撮影画像を撮影する(ステップS201)。
すなわち、撮影部110は、ビデオチャットを行うユーザを含む画像を順次撮影し、撮影した撮影画像(一例として、動画)を顔検出部120に供給する。
First, the image generation apparatus 100 captures a captured image including the user (step S201).
That is, the imaging unit 110 sequentially captures images including a user who performs a video chat, and supplies the captured images (for example, moving images) to the face detection unit 120.

画像生成装置100は、撮影された撮影画像からユーザ(人物)の顔画像を検出する(ステップS202)。
すなわち、顔検出部120は、顔認識によって、撮影画像に写っているユーザの顔画像を検出する。つまり、上述した図4(a),(b)に示すように、ユーザの顔画像を検出する。
The image generating apparatus 100 detects the face image of the user (person) from the captured image (step S202).
That is, the face detection unit 120 detects the face image of the user shown in the captured image by face recognition. That is, as shown in FIGS. 4A and 4B, the user's face image is detected.

画像生成装置100は、検出されたユーザの顔画像から眼部画像を特定する(ステップS203)。
すなわち、画像特定部130は、検出された顔画像中の特徴点の位置関係等から、顔画像における眼部画像を特定する。すなわち、上述した図5(d),(e)や図6(c),(d)に示すように、検出された顔画像から眼部画像を特定する。
The image generation device 100 identifies an eye image from the detected face image of the user (step S203).
That is, the image specifying unit 130 specifies the eye part image in the face image from the positional relationship of the feature points in the detected face image. That is, as shown in FIGS. 5D and 5E and FIGS. 6C and 6D, an eye image is specified from the detected face image.

画像生成装置100は、特定された眼部画像における瞳の位置等を加工する(ステップS204)。
例えば、画像加工部140は、上述した図7(a),(c)に示すような眼部画像GBの中心から外れいている瞳H(瞳孔D)の位置を、図7(e)に示すように、中心に移動させる加工を行う。また、画像加工部140は、上述した図8(a),(b)に示すように、加工した瞳の一部に輝点を合成する。
すなわち、画像加工部140は、このような加工を、両眼について行うことにより、最終的に、上述した図8(c)に示すようなユーザが撮影部110に視線を向けている顔画像KGを生成する。
The image generating apparatus 100 processes the position of the pupil in the identified eye image (step S204).
For example, the image processing unit 140 shows the position of the pupil H (pupil D) deviating from the center of the eye image GB as shown in FIGS. 7A and 7C described above, as shown in FIG. As shown in FIG. Further, as shown in FIGS. 8A and 8B described above, the image processing unit 140 synthesizes a bright spot with a part of the processed pupil.
That is, the image processing unit 140 performs such processing on both eyes, and finally the face image KG in which the user as shown in FIG. Is generated.

画像生成装置100は、顔画像(眼部画像)を加工した撮影画像を、他の画像生成装置100に送信し、また、他の画像生成装置100から送られる画像を受信する(ステップS205)。
すなわち、画像送信部151は、画像加工部140により加工された顔画像(眼部画像)を含む撮影画像を、ビデオチャット相手の画像生成装置100に送信する。一方、画像受信部152は、ビデオチャット相手の画像生成装置100から送信された画像を受信する。
The image generation apparatus 100 transmits the captured image obtained by processing the face image (eye part image) to the other image generation apparatus 100, and receives an image sent from the other image generation apparatus 100 (step S205).
That is, the image transmission unit 151 transmits a captured image including the face image (eye image) processed by the image processing unit 140 to the image generation apparatus 100 of the video chat partner. On the other hand, the image receiving unit 152 receives an image transmitted from the image generation apparatus 100 of the video chat partner.

画像生成装置100は、受信した画像と、ユーザ(自身)の顔画像(眼部画像)が加工された撮影画像とを適宜合成して表示する(ステップS206)。
すなわち、表示制御部160は、画像受信部152によって受信された画像と、画像加工部140によって加工された自身の顔画像を含む撮影画像とを合成し、上述した図9(a),(b)に示すようなビデオチャット画面を表示部170に表示する。
The image generating apparatus 100 appropriately synthesizes and displays the received image and a captured image obtained by processing the user's (self) face image (eye part image) (step S206).
That is, the display control unit 160 synthesizes the image received by the image receiving unit 152 and the captured image including its own face image processed by the image processing unit 140, and described above with reference to FIGS. The video chat screen as shown in FIG.

画像生成装置100は、ビデオチャットが終了したか否かを判別する(ステップS207)。
画像生成装置100は、ビデオチャットが終了していないと判別すると(ステップS207;No)、ステップS201に処理を戻し、上述したステップS201〜S207の処理を繰り返し実行する。
一方、ビデオチャットが終了したと判別した場合に(ステップS207;Yes)、画像生成装置100は、画像加工処理を終える。
The image generating apparatus 100 determines whether the video chat has ended (step S207).
If it is determined that the video chat has not ended (step S207; No), the image generating apparatus 100 returns the process to step S201 and repeatedly executes the processes of steps S201 to S207 described above.
On the other hand, when it is determined that the video chat has ended (step S207; Yes), the image generation apparatus 100 ends the image processing.

このような画像加工処理において、撮影画像から検出した人物(ユーザ)の顔画像から眼部画像が特定される。つまり、上述した図7(a)や図7(c)のように、視線のずれた(カメラ目線でない)眼部画像GBが特定される。
そして、画像生成装置100は、特定した眼部画像の瞳の位置等を、眼部画像の中央となるように加工し、更にキャッチライト加工を行う。つまり、上述した図7(e)に示すように瞳H等を眼部画像GBの中心に移動させ、また、図8(a)等に示すように、瞳Hの所定位置に輝点KT1等を合成する。
このように、略円形の眼部画像を特定し、その中の瞳を眼部画像の中心に移動させることで、ユーザの顔の向きや視線方向に拘わらず、ユーザの視線をカメラ目線とすることができる。
そして、画像生成装置100は、このように加工した眼部画像(顔画像)を含む撮影画像を他の装置に送信する。つまり、ユーザが撮影部110に視線を向けている(カメラ目線の)顔画像に加工した顔画像を含む撮影画像を他の装置に送信する。このため、相手側(他の装置)では、自分(相手ユーザ)に視線を向けているユーザの画像が得られるため、ビデオチャット等を違和感なく自然に行うことができる。
この結果、ユーザの視線方向を適切に修正した画像を生成できる。
In such an image processing process, an eye part image is specified from a face image of a person (user) detected from a captured image. That is, as shown in FIG. 7A and FIG. 7C described above, an eye image GB whose line of sight is shifted (not the camera line of sight) is specified.
Then, the image generation apparatus 100 processes the pupil position and the like of the identified eye image so as to be the center of the eye image, and further performs catch light processing. That is, the pupil H or the like is moved to the center of the eye image GB as shown in FIG. 7E, and the bright spot KT1 or the like is placed at a predetermined position of the pupil H as shown in FIG. Is synthesized.
In this way, by identifying a substantially circular eye image and moving the pupil in the eye image to the center of the eye image, the user's line of sight is taken as the camera line of sight regardless of the user's face orientation and line of sight. be able to.
Then, the image generation apparatus 100 transmits a captured image including the eye part image (face image) processed in this way to another apparatus. That is, a captured image including a face image processed into a face image in which the user turns his / her line of sight toward the photographing unit 110 (at the camera's line of sight) is transmitted to another device. For this reason, the other party (another apparatus) can obtain an image of a user who is looking at the user (the other party user), so that the video chat can be naturally performed without a sense of incongruity.
As a result, an image in which the user's line-of-sight direction is appropriately corrected can be generated.

(他の実施形態)
上記の実施形態では、ユーザの顔画像(眼部画像)における瞳の位置を、無条件で眼部画像の中央となるように加工したが、ユーザの視線方向によっては、不都合が生じる場合がある。例えば、ユーザの視線が表示部170から大きく外れている場合(よそ見をしている場合等)では、眼部画像の瞳の位置を中央とする加工をおこなうと、不自然な顔画像となってしまう。そのため、ユーザの視線方向を算定し、無理のない視線範囲内に限り、眼部画像の瞳の位置を加工するようにしてもよい。
以下、このように、ユーザの視線方向を確認した上で、眼部画像の瞳の位置を加工することを特徴とする他の実施形態について、図面を参照して説明する。
(Other embodiments)
In the above embodiment, the position of the pupil in the user's face image (eye image) is unconditionally processed so as to be the center of the eye image, but inconvenience may occur depending on the user's line-of-sight direction. . For example, when the user's line of sight is greatly deviated from the display unit 170 (when looking away), an unnatural face image is obtained by performing processing with the pupil position of the eye image centered. End up. Therefore, the user's line-of-sight direction may be calculated, and the position of the pupil of the eye image may be processed only within a reasonable line-of-sight range.
Hereinafter, another embodiment, in which the position of the pupil of the eye image is processed after the user's line-of-sight direction is confirmed, will be described with reference to the drawings.

図11は、本発明の他の実施形態に係る画像生成装置300の概要構成を示すブロック図である。この表示生成装置300は、上述した図3の画像生成装置100に、算定部310を加えた構成となっている。
つまり、撮影部110〜表示部170の構成は、図3の画像生成装置100と同様である。
FIG. 11 is a block diagram showing a schematic configuration of an image generation apparatus 300 according to another embodiment of the present invention. The display generation apparatus 300 has a configuration in which a calculation unit 310 is added to the image generation apparatus 100 of FIG. 3 described above.
That is, the configuration of the photographing unit 110 to the display unit 170 is the same as that of the image generation device 100 of FIG.

算定部310は、顔検出部120により検出された顔画像から、ユーザの視線方向を算定する。例えば、算定部310は、以下の算定手法により、ユーザの視線方向を算定する。
算定部310は、人間が正面を向いた場合における特徴部位の位置関係を示す形状を予め記憶しておく。具体的に算定部310は、図12(a)に示すように、一例として、標準的な人物の顔を、一定距離を離れて正面から撮影した画像における、両眼と口とを直線で結んだ平面(具体的には三角形)の基準形状SFを予め記憶しておく。なお、この基準形状SFは、実際のユーザを正面から一定距離を隔てて撮影した画像から得たものであってもよい。
この基準形状SFを予め記憶した状態で、図12(b)に示すように、検出されたユーザの顔画像KGにおける両眼と口とを直線で結んだ平面の形状Fを得ると、この形状Fと基準形状SFとを比較することにより、算定部310は、観察者の視線方向を算定する。
例えば、図12(c)のように、得られた形状F1が基準形状SFと相似形である場合に、算定部310は、真正面となる視線方向GL1を算定する。一方、図12(d)のように、得られた形状F2が、基準形状SFと相似形でない場合に、算定部310は、形状F2における各点の位置関係や各辺の長さから、形状F2の歪み(基準形状SFを基準とした歪み)を求める。そして、その歪みに基づいて、斜め方向となる視線方向GL2を算定する。つまり、図12(e)に示すような大きく視線を外しているユーザの視線方向も算定できる。
なお、このようなユーザの視線方向を算定する手法は、一例であり、他の手法を用いてもよい。例えば、算定部310は、よりシンプルに、両眼の位置関係に基づいて、ユーザの視線方向を簡易に算定してもよい。
算定部310は、このようにして算定したユーザの視線方向を、画像加工部140に供給する。
そして、上述した処理制御部10のCPUコア10aや画像処理部10b等が、このような算定部310として機能しうる。
The calculation unit 310 calculates the user's line-of-sight direction from the face image detected by the face detection unit 120. For example, the calculation unit 310 calculates the user's line-of-sight direction by the following calculation method.
The calculation unit 310 stores in advance a shape that indicates the positional relationship of the characteristic parts when a person faces the front. Specifically, as shown in FIG. 12A, for example, the calculation unit 310 connects a binocular and a mouth with a straight line in an image of a standard human face taken from the front at a certain distance. A reference plane SF of an elliptical plane (specifically, a triangle) is stored in advance. The reference shape SF may be obtained from an image obtained by photographing an actual user at a certain distance from the front.
In a state where the reference shape SF is stored in advance, as shown in FIG. 12B, when a shape F of a plane connecting the eyes and the mouth with a straight line in the detected face image KG of the user is obtained, this shape is obtained. By comparing F with the reference shape SF, the calculation unit 310 calculates the viewing direction of the observer.
For example, as shown in FIG. 12C, when the obtained shape F1 is similar to the reference shape SF, the calculation unit 310 calculates the line-of-sight direction GL1 that is directly in front. On the other hand, as shown in FIG. 12D, when the obtained shape F2 is not similar to the reference shape SF, the calculation unit 310 calculates the shape from the positional relationship of each point and the length of each side in the shape F2. A distortion of F2 (a distortion based on the reference shape SF) is obtained. Then, based on the distortion, a visual line direction GL2 that is an oblique direction is calculated. That is, it is possible to calculate the line-of-sight direction of the user who has largely missed the line of sight as shown in FIG.
Note that such a method of calculating the user's line-of-sight direction is an example, and other methods may be used. For example, the calculation unit 310 may more simply calculate the user's line-of-sight direction based on the positional relationship between both eyes.
The calculation unit 310 supplies the user's line-of-sight direction calculated in this way to the image processing unit 140.
The CPU core 10a and the image processing unit 10b of the processing control unit 10 described above can function as such a calculation unit 310.

図11に戻って、このような算定部310により、ユーザの視線方向が算定されると、画像加工部140は、算定された視線方向が所定範囲内(一例として、撮影部110の光軸とのずれが比較的少ないとされる範囲内)である場合に限り、眼部画像の瞳の位置を加工する。
つまり、算定された視線方向が所定範囲を超えており、ユーザの視線が大きく外れている場合では、画像加工部140は、あえて眼部画像の瞳の位置を中央とする加工を行わずに、瞳の一部に輝点を合成する加工にとどめる。
すなわち、画像加工部140は、ユーザの視線方向を確認した上で、無理のない視線範囲に限り、眼部画像の瞳の位置を加工する。
Returning to FIG. 11, when the gaze direction of the user is calculated by such a calculation unit 310, the image processing unit 140 determines that the calculated gaze direction is within a predetermined range (for example, the optical axis of the imaging unit 110. The pupil position of the eye image is processed only when the deviation is within a relatively small range).
That is, when the calculated line-of-sight direction exceeds a predetermined range and the user's line-of-sight is greatly deviated, the image processing unit 140 does not perform processing centering on the position of the pupil of the eye image. Only the process of combining the bright spot with a part of the pupil.
That is, after confirming the user's line-of-sight direction, the image processing unit 140 processes the position of the pupil of the eye part image only within a reasonable line-of-sight range.

このため、図11に示す画像生成装置300では、不自然とならない範囲で、ユーザの視線方向を修正した画像を生成できる。   For this reason, the image generation apparatus 300 illustrated in FIG. 11 can generate an image in which the user's line-of-sight direction is corrected within a range that does not become unnatural.

上記の実施形態では、携帯型のゲーム装置1に、本願の画像生成装置100,300が適用される場合について説明したが、このような携帯型のゲーム装置1に限られず、例えば、ノート型のパソコン等であってもよい。   In the above embodiment, the case where the image generation devices 100 and 300 of the present application are applied to the portable game device 1 has been described. However, the present invention is not limited to such a portable game device 1, and for example, a notebook type A personal computer etc. may be sufficient.

以上説明したように、本発明によれば、ユーザの視線方向を適切に修正した画像を生成できる画像生成装置、画像加工方法、および、プログラムを提供することができる。   As described above, according to the present invention, it is possible to provide an image generation apparatus, an image processing method, and a program that can generate an image in which a user's line-of-sight direction is appropriately corrected.

1 ゲーム装置
10 処理制御部
11 コネクタ
12 カートリッジ
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 操作キー
18 第1の表示部
19 第2の表示部
20 タッチパネル
21 カメラ
100,300 画像生成装置
110 撮影部
120 顔検出部
130 画像特定部
140 画像加工部
150 通信部
160 表示制御部
170 表示部
310 算定部
DESCRIPTION OF SYMBOLS 1 Game device 10 Processing control part 11 Connector 12 Cartridge 13 Wireless communication part 14 Communication controller 15 Sound amplifier 16 Speaker 17 Operation key 18 1st display part 19 2nd display part 20 Touch panel 21 Camera 100,300 Image generation apparatus 110 Photographing Unit 120 face detection unit 130 image specifying unit 140 image processing unit 150 communication unit 160 display control unit 170 display unit 310 calculation unit

Claims (6)

撮影画像から人物の顔画像を検出する顔検出部と、
検出された当該顔画像から眼部画像を特定する画像特定部と、
予め記憶した当該人物の顔から得た基準形状と、検出された当該顔画像から得た形状とを比較することにより、当該人物の視線方向を算定する算定部と、
算定された当該視線方向が所定範囲内である場合にのみ、特定された当該眼部画像における瞳の位置を加工する画像加工部と、を備え、
前記算定部は、当該人物が正面を向いた際における両眼と口とを直線で結んだ逆三角形の基準形状を記憶しており、当該基準形状を基準として、検出された当該顔画像における両眼と口とを直線で結んだ逆三角形の歪みに基づいて、当該人物の視線方向を算定し、
前記画像特定部は、検出された当該顔画像から、皮膚に隠れた箇所を補完した眼部画像を特定し、
前記画像加工部は、特定された当該眼部画像における瞳の位置を移動させた後、皮膚に隠れる部分を取り除く加工を行う、
ことを特徴とする画像生成装置。
A face detection unit for detecting a human face image from a captured image;
An image specifying unit for specifying an eye part image from the detected face image;
A reference shape obtained from the pre-stored face of the person by comparing the obtained from the detected the face image shape, and a calculation unit for calculating the gaze direction of the person,
Calculation has been the viewing direction only if it is within a predetermined range, e Bei and an image processing unit for processing the position of the pupil in the identified the eye image,
The calculation unit stores a reference shape of an inverted triangle in which both eyes and a mouth are connected with a straight line when the person faces the front, and both the detected face images in the detected face image with the reference shape as a reference. Based on the distortion of the inverted triangle that connects the eyes and mouth with a straight line, the gaze direction of the person is calculated,
The image specifying unit specifies an eye image that complements a portion hidden in the skin from the detected face image,
The image processing unit performs processing to remove a portion hidden in the skin after moving the position of the pupil in the identified eye image.
An image generation apparatus characterized by that.
人物を含む撮影画像を撮影する撮影部と、
撮影された当該撮影画像から、顔認識により当該人物の顔画像を検出する顔検出部と、
検出された当該顔画像から眼部画像を特定する画像特定部と、
予め記憶した当該人物の顔から得た基準形状と、検出された当該顔画像から得た形状とを比較することにより、当該人物の視線方向を算定する算定部と、
算定された当該視線方向が所定範囲内である場合にのみ、特定された当該眼部画像における瞳の位置を、当該眼部画像の中央となるように加工する画像加工部と、
当該眼部画像が加工された顔画像を含む撮影画像を、他の装置に送信する画像送信部と、を備え、
前記算定部は、当該人物が正面を向いた際における両眼と口とを直線で結んだ逆三角形の基準形状を記憶しており、当該基準形状を基準として、検出された当該顔画像における両眼と口とを直線で結んだ逆三角形の歪みに基づいて、当該人物の視線方向を算定し、
前記画像特定部は、検出された当該顔画像から、眼部を略円形と仮定して、皮膚に隠れた箇所を補完した眼部画像を特定し、
前記画像加工部は、特定された当該眼部画像における瞳の位置を中央に移動させた後、皮膚に隠れる部分を取り除く加工を行う、
ことを特徴とする画像生成装置。
A shooting section for shooting a shot image including a person;
A face detection unit that detects a face image of the person by face recognition from the captured image;
An image specifying unit for specifying an eye part image from the detected face image;
A reference shape obtained from the pre-stored face of the person by comparing the obtained from the detected the face image shape, and a calculation unit for calculating the gaze direction of the person,
An image processing unit that processes the position of the pupil in the specified eye image only in the center of the eye image only when the calculated line-of-sight direction is within a predetermined range;
E Bei captured image containing a face image which the eye image is processed, an image transmitting unit that transmits to the other device, and
The calculation unit stores a reference shape of an inverted triangle in which both eyes and a mouth are connected with a straight line when the person faces the front, and both the detected face images in the detected face image with the reference shape as a reference. Based on the distortion of the inverted triangle that connects the eyes and mouth with a straight line, the gaze direction of the person is calculated,
The image specifying unit specifies an eye image complemented with a portion hidden in the skin, assuming that the eye portion is substantially circular, from the detected face image,
The image processing unit performs processing for removing a portion hidden in the skin after moving the pupil position in the identified eye image to the center.
An image generation apparatus characterized by that.
請求項1又は2に記載の画像生成装置であって、
前記画像加工部は、加工した当該眼部画像の瞳の一部に、更に輝点を合成する、
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1 or 2,
The image processing unit further synthesizes bright spots on a part of the pupil of the processed eye image.
An image generation apparatus characterized by that.
請求項1乃至3の何れか1項に記載の画像生成装置であって、
前記画像特定部は、検出された当該顔画像から、白目及び瞳を含む眼部及び瞳が略円形と仮定して、皮膚に隠れた当該白目及び瞳を補完した眼部画像を特定する、
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 3,
The image specifying unit specifies, from the detected face image, an eye part image including a white eye and a pupil, and an eye part image that complements the white eye and pupil hidden in the skin, assuming that the pupil is substantially circular.
An image generation apparatus characterized by that.
顔検出部と、画像特定部と、算定部と、画像加工部とを有する画像生成装置における画像加工方法であって、
前記顔検出部が、撮影画像から人物の顔画像を検出する顔検出ステップと、
前記画像特定部が、検出された当該顔画像から眼部画像を特定する画像特定ステップと、
前記算定部が、予め記憶した当該人物の顔から得た基準形状と、検出された当該顔画像から得た形状とを比較することにより、当該人物の視線方向を算定する算定ステップと、
前記画像加工部が、算定された当該視線方向が所定範囲内である場合にのみ、特定された当該眼部画像における瞳の位置を加工する画像加工ステップと、を備え、
前記算定ステップでは、当該人物が正面を向いた際における両眼と口とを直線で結んだ逆三角形の基準形状を記憶しており、当該基準形状を基準として、検出された当該顔画像における両眼と口とを直線で結んだ逆三角形の歪みに基づいて、当該人物の視線方向を算定し、
前記画像特定ステップでは、検出された当該顔画像から、皮膚に隠れた箇所を補完した眼部画像を特定し、
前記画像加工ステップでは、特定された当該眼部画像における瞳の位置を移動させた後、皮膚に隠れる部分を取り除く加工を行う、
ことを特徴とする画像加工方法。
An image processing method in an image generation apparatus having a face detection unit, an image specifying unit, a calculation unit, and an image processing unit,
A face detection step in which the face detection unit detects a face image of a person from a captured image;
An image specifying step in which the image specifying unit specifies an eye image from the detected face image;
The calculation unit, by comparing the reference shape obtained from the pre-stored face of the person, and were obtained from the detected the face image shape, a calculation step to calculate the gaze direction of the person,
Wherein the image processing unit, calculated by the said viewing direction only if it is within a predetermined range, e Bei and an image processing step for processing the position of the pupil in the identified the eye image,
In the calculation step, a reference shape of an inverted triangle obtained by connecting the eyes and the mouth with a straight line when the person is facing the front is stored, and both the detected face images in the detected face image are based on the reference shape. Based on the distortion of the inverted triangle that connects the eyes and mouth with a straight line, the gaze direction of the person is calculated,
In the image specifying step, from the detected face image, an eye image that complements a portion hidden in the skin is specified,
In the image processing step, after moving the position of the pupil in the specified eye image, processing to remove the portion hidden in the skin,
An image processing method characterized by the above.
コンピュータを、
撮影画像から人物の顔画像を検出する顔検出部、
検出された当該顔画像から眼部画像を特定する画像特定部、
予め記憶した当該人物の顔から得た基準形状と、検出された当該顔画像から得た形状とを比較することにより、当該人物の視線方向を算定する算定部、
算定された当該視線方向が所定範囲内である場合にのみ、特定された当該眼部画像における瞳の位置を加工する画像加工部、として機能させ、
前記算定部は、当該人物が正面を向いた際における両眼と口とを直線で結んだ逆三角形の基準形状を記憶しており、当該基準形状を基準として、検出された当該顔画像における両眼と口とを直線で結んだ逆三角形の歪みに基づいて、当該人物の視線方向を算定し、
前記画像特定部は、検出された当該顔画像から、皮膚に隠れた箇所を補完した眼部画像を特定し、
前記画像加工部は、特定された当該眼部画像における瞳の位置を移動させた後、皮膚に隠れる部分を取り除く加工を行う、ように機能させる、
とを特徴とするプログラム。
Computer
A face detection unit for detecting a human face image from a photographed image;
An image specifying unit for specifying an eye part image from the detected face image;
Previously stored and the reference shape obtained from the face of the person was, by comparing the obtained from the detected the face image shape, calculation unit for calculating the gaze direction of the person,
Only when the calculated gaze direction is within a predetermined range, function as an image processing unit that processes the position of the pupil in the specified eye image ,
The calculation unit stores a reference shape of an inverted triangle in which both eyes and a mouth are connected with a straight line when the person faces the front, and both the detected face images in the detected face image with the reference shape as a reference. Based on the distortion of the inverted triangle that connects the eyes and mouth with a straight line, the gaze direction of the person is calculated,
The image specifying unit specifies an eye image that complements a portion hidden in the skin from the detected face image,
The image processing unit functions to perform processing to remove a portion hidden in the skin after moving the position of the pupil in the identified eye image.
Program which is characterized a call.
JP2010073388A 2010-03-26 2010-03-26 Image generating apparatus, image processing method, and program Active JP4995935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010073388A JP4995935B2 (en) 2010-03-26 2010-03-26 Image generating apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010073388A JP4995935B2 (en) 2010-03-26 2010-03-26 Image generating apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011204182A JP2011204182A (en) 2011-10-13
JP4995935B2 true JP4995935B2 (en) 2012-08-08

Family

ID=44880731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010073388A Active JP4995935B2 (en) 2010-03-26 2010-03-26 Image generating apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4995935B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5601179B2 (en) * 2010-12-01 2014-10-08 富士通株式会社 Gaze detection apparatus and gaze detection method
KR101977638B1 (en) * 2012-02-29 2019-05-14 삼성전자주식회사 Method for correcting user’s gaze direction in image, machine-readable storage medium and communication terminal
JP6700840B2 (en) * 2016-02-18 2020-05-27 キヤノン株式会社 Image processing device, imaging device, control method, and program
JP2017188766A (en) * 2016-04-05 2017-10-12 レノボ・シンガポール・プライベート・リミテッド Electronic apparatus with camera, correction method for picked-up video image, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690445A (en) * 1992-09-09 1994-03-29 Hitachi Ltd Video input/output device
JP4118773B2 (en) * 2003-09-11 2008-07-16 日産ディーゼル工業株式会社 Gaze direction detection device and gaze direction detection method
JP4823970B2 (en) * 2007-05-24 2011-11-24 オリンパスイメージング株式会社 Image editing device
JP2009246408A (en) * 2008-03-28 2009-10-22 Toshiba Corp Interaction device, image processing module, image processing method, and program

Also Published As

Publication number Publication date
JP2011204182A (en) 2011-10-13

Similar Documents

Publication Publication Date Title
KR102184272B1 (en) Glass type terminal and control method thereof
JP6094190B2 (en) Information processing apparatus and recording medium
US11616867B2 (en) Foldable mobile phone
JP6229314B2 (en) Information processing apparatus, display control method, and program
KR20180112599A (en) Mobile terminal and method for controlling the same
CN108495045B (en) Image capturing method, image capturing apparatus, electronic apparatus, and storage medium
KR102240639B1 (en) Glass type terminal and control method thereof
WO2019234877A1 (en) Portable information terminal
CN110830811A (en) Live broadcast interaction method, device, system, terminal and storage medium
JP2007052780A (en) User input method and apparatus for mobile communication terminal
TW201122909A (en) Method for switching to display three-dimensional images and digital display system
JP2014021707A (en) Information input/output device and information input/output method
CN106406509A (en) Head-mounted eye control virtual reality device
JP2022505283A (en) Audio playback and collection methods, equipment, equipment and computer programs
EP3086216A1 (en) Mobile terminal and controlling method thereof
JP2016201090A (en) Mobile terminal and method for controlling the same
JP4995935B2 (en) Image generating apparatus, image processing method, and program
JP2017028390A (en) Virtual reality space voice communication method, program, recording medium having recorded program, and device
CN109978996B (en) Method, device, terminal and storage medium for generating expression three-dimensional model
CN110275613A (en) Screen display processing method, device, electronic equipment and storage medium
JP2012070081A (en) Image display device, image display program, and image display system
CN113509720A (en) Playback method, device, terminal, server and storage medium for virtual battle
JP4892071B2 (en) Image generating apparatus, image processing method, and program
JP5017382B2 (en) Image display device, image processing method, and program
KR102154528B1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4995935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250