JP5102708B2 - Composite image photographing system and composite image photographing method - Google Patents

Composite image photographing system and composite image photographing method Download PDF

Info

Publication number
JP5102708B2
JP5102708B2 JP2008164908A JP2008164908A JP5102708B2 JP 5102708 B2 JP5102708 B2 JP 5102708B2 JP 2008164908 A JP2008164908 A JP 2008164908A JP 2008164908 A JP2008164908 A JP 2008164908A JP 5102708 B2 JP5102708 B2 JP 5102708B2
Authority
JP
Japan
Prior art keywords
image
information
unit
position information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008164908A
Other languages
Japanese (ja)
Other versions
JP2010010816A (en
Inventor
宏之 高橋
秀五 高橋
秀二 清水
健太郎 酒匂
規角 大沢
祐輔 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Camelot Co Ltd
Original Assignee
Camelot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Camelot Co Ltd filed Critical Camelot Co Ltd
Priority to JP2008164908A priority Critical patent/JP5102708B2/en
Publication of JP2010010816A publication Critical patent/JP2010010816A/en
Application granted granted Critical
Publication of JP5102708B2 publication Critical patent/JP5102708B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、カメラ付き携帯電話機やデジタルカメラなど、デジタル画像を撮影する合成画像撮影システム及び合成画像撮影方法に関する。   The present invention relates to a composite image capturing system and a composite image capturing method for capturing a digital image, such as a mobile phone with a camera and a digital camera.

近年、デジタル技術の発達により、カメラ付き携帯電話機やデジタルカメラなど、デジタル画像を撮影する装置が発達し、小型化により携帯性が高められるとともに、機能の多様化も進んでいる。   In recent years, with the development of digital technology, devices for taking digital images, such as camera-equipped mobile phones and digital cameras, have been developed, and the miniaturization has improved portability and the diversification of functions.

このような機能の一つとして、撮影した画像中に、文字や絵などを書き込めたり、フレーム等の枠画像を追加したりする機能があり、撮影された人物の顔部分を認識することによって、その顔部分にフレームやテンプレートを一致させて合成する技術も開発されている(例えば、特許文献1)。
特開2006−113741号公報
As one of such functions, there are functions such as writing characters and pictures in the shot image, adding a frame image such as a frame, etc., by recognizing the face part of the shot person, A technique has also been developed in which a frame and a template are matched with the face portion (for example, Patent Document 1).
JP 2006-113741 A

しかしながら、デジタルカメラなどの利用者としては、携帯性が増し、いろいろな場所で簡単に撮影が可能となったことから、その撮影場所にちなんだフレームやテンプレートなどを合成したいという要望がある一方で、各地域の名所や名物、キャラクターなどの各地域独自のコンテンツをその地域限定で配信することによって、各地における地域興しのきっかけとなることが期待される。   However, users of digital cameras have increased portability and can easily shoot at various locations, so there is a desire to synthesize frames and templates associated with the shooting location. It is expected that it will be a trigger for regional revitalization in each region by distributing local unique content such as famous sights, specialties and characters in each region.

そこで、本発明は、上記のような問題を解決するものであり、カメラ付き携帯電話機やデジタルカメラなど、デジタル画像を撮影する装置において、撮影場所にちなんだ付加的なコンテンツを入手可能とし、各地域で提供されるサービスの多様化を図ることのできる合成画像撮影システム及び合成画像撮影方法を提供することを目的とする。   Therefore, the present invention solves the above problems, and in a device for taking a digital image, such as a mobile phone with a camera or a digital camera, additional contents associated with the shooting location can be obtained. It is an object of the present invention to provide a composite image capturing system and a composite image capturing method capable of diversifying services provided in a region.

上記課題を解決するために、本発明は、画像を撮影する撮像部と、撮影時における自機の位置を示す位置情報を取得し、記録する位置情報取得部と、位置情報に地域画像データを関連付けて蓄積する地域画像蓄積部と、位置情報取得部が記録した撮影時の位置情報に基づいて、地域画像蓄積部から、位置情報に関連付けられた地域画像データを選択する画像選択部と、撮影部が撮像した画像を基本画像とし、この基本画像に対して、画像選択部が選択した地域画像データを合成する画像合成部と、人物の顔部分を検出するとともに、検出した該顔部分の、基本画像中における座標位置を算出する顔検出部と、顔検出部が検出した顔部分を構成する各パーツをベクトルデータとして抽出し、そのベクトルデータで特定される当該顔の特徴を管理情報として生成する管理情報生成部とを備え、地域画像蓄積部は、位置情報と、管理情報とに関連付けられた顔パーツを集積したパーツライブラリーを、地域画像データの一部として蓄積し、画像選択部は、位置情報と管理情報とに基づいて、パーツライブラリー中からパーツを抽出し、画像合成部は、顔検出部が検出した顔部分の座標位置を基準として、基本画像に対して地域画像データを合成するとともに、抽出されたパーツを合成してキャラクター生成することを特徴とする合成画像撮影システムである。 In order to solve the above problems, the present invention acquires an image capturing unit that captures an image, position information indicating the position of the own device at the time of image capturing, and a position information acquiring unit that records the position information. An image selection unit that selects region image data associated with the position information from the region image storage unit based on the position information at the time of shooting recorded by the position information acquisition unit; The image captured by the image capturing unit is used as a basic image, and an image compositing unit that synthesizes the regional image data selected by the image selecting unit with the basic image, and detects the face portion of the person. The face detection unit that calculates the coordinate position in the basic image and each part constituting the face part detected by the face detection unit are extracted as vector data, and the features of the face specified by the vector data are managed And a management information generation unit for generating a broadcast, local image storage unit, and the position information, the part library integrated facial parts associated with the management information, stored as part of the regional image data, the image The selection unit extracts parts from the parts library based on the position information and the management information, and the image synthesis unit uses the coordinate position of the face part detected by the face detection unit as a reference for the region for the basic image. A composite image photographing system characterized by combining image data and generating a character by combining extracted parts .

また、他の発明は、撮像部により画像を撮影する撮像ステップと、撮影時における自機の位置を示す位置情報を取得し、記録する位置情報取得ステップと、予め位置情報に地域画像データを関連付けて蓄積した地域画像蓄積部から、位置情報取得部が記録した撮影時の位置情報に基づいて、該位置情報に関連付けられた地域画像データを選択する画像選択ステップと、人物の顔部分を検出するとともに、検出した該顔部分の、基本画像中における座標位置を算出する顔検出ステップと、撮影部が撮像した画像を基本画像とし、この基本画像に対して、画像選択部が選択した地域画像データを合成する画像合成ステップと、顔検出ステップで検出した顔部分を構成する各パーツを、ベクトルデータとして抽出し、そのベクトルデータで特定される当該顔の特徴を管理情報として生成するとともに、位置情報と管理情報とに関連付けられたパーツを、地域画像データの一部としてパーツライブラリーに集積する管理情報生成ステップとを備え、画像合成ステップでは、顔検出ステップで検出された顔部分の座標位置を基準として、基本画像に対して地域画像データを合成するとともに、パーツライブラリーの中から、位置情報と管理情報とに基づいて、パーツを抽出し、抽出されたパーツを合成してキャラクター生成することを特徴とする合成画像撮影方法。 In another aspect of the invention, an image capturing step for capturing an image by the image capturing unit, position information indicating the position of the own device at the time of capturing, a position information acquiring step for recording, and area image data are associated with the position information in advance. Based on the position information at the time of shooting recorded by the position information acquisition unit, the image selection step for selecting the region image data associated with the position information and the face portion of the person are detected In addition, a face detection step for calculating a coordinate position in the basic image of the detected face portion and an image captured by the photographing unit as a basic image, and the regional image data selected by the image selection unit with respect to the basic image an image combining step of combining, and the respective parts constituting the face portion detected by the face detection step is extracted as vector data, it is specified by the vector data To generate a feature of the face as the management information, the part associated with the positional information and the management information, and a management information generation step of integrated parts library as part of the regional image data, the image synthesis step Based on the coordinate position of the face part detected in the face detection step, the regional image data is synthesized with the basic image, and the parts are extracted from the parts library based on the position information and management information. Then, a composite image photographing method characterized by combining the extracted parts to generate a character .

このような発明によれば、撮影した現在位置に関連付けられた地域画像データ、例えば、その撮影場所にちなんだフレームやテンプレートなどを、撮影した画像に合成することができることから、各地域の名所や名物、キャラクターなどにちなんだ各地域独自のコンテンツをその地域限定で配信することによって、各地における地域興しのきっかけとすることができる。また、画像合成に先行させて、人物の顔部分を検出するとともに、検出した顔部分の、基本画像中における座標位置を算出し、画像合成に際し、検出された顔部分の座標位置を基準として、基本画像に対して地域画像データを合成するので、その土地々々のキャラクターを描いた所謂「顔出し看板」のようなフレームやテンプレートを、被写体の顔部分に合致させることができる。 According to such an invention, it is possible to synthesize regional image data associated with the current location where the image was taken, for example, a frame or template associated with the location where the image was taken. Each region's unique content related to specialties and characters can be distributed only in that region, which can be a trigger for regional development in each region. Further, prior to image composition, the face portion of a person is detected, the coordinate position of the detected face portion in the basic image is calculated, and the image position is determined based on the coordinate position of the detected face portion. Since the regional image data is synthesized with the basic image, it is possible to match a frame or template such as a so-called “face-up signboard” depicting characters in each region with the face portion of the subject.

上記発明において、管理情報は、複数の機器間で送受信することにより、これらの機器間で共有及び同期が可能となっているとともに、キャラクターの生成に際して、当該管理情報と、他のサンプリングによる管理情報とのマッチングを行い、その合致度を表示することが好ましい。  In the above invention, the management information can be shared and synchronized between the plurality of devices by transmitting and receiving between the plurality of devices, and at the time of character generation, the management information and the management information by other sampling It is preferable to perform matching with and display the degree of match.

上記発明において、撮像に先行させて、撮影対象となる人物の所定の表情を認識する表情認識を行い、表情を認識した瞬間に、自動的に撮影処理を実行することが好ましい。この場合には、例えば、デジタルカメラのファインダーの視野内にいる被写体が笑うなどの特定の表情をした瞬間に自動的にシャッターを切ることができ、カメラを構えての撮影とは異なる自然な表情を捉えることができる。   In the above invention, it is preferable to perform facial expression recognition for recognizing a predetermined facial expression of a person to be photographed prior to imaging, and to automatically perform the photographing process at the moment when the facial expression is recognized. In this case, for example, you can automatically release the shutter at the moment when the subject in the field of view of the digital camera's viewfinder laughs, and the natural expression is different from shooting with a camera. Can be captured.

上記発明において、撮像部により撮影された画像を、位置情報取得部が取得した位置情報と関連付けてデータ蓄積部に蓄積しておき、蓄積された画像の位置情報を表示インターフェースにインデックスとして表示するとともに、表示されたインデックスを選択することにより、該当する画像をデータ蓄積部から検索して読み出すことが好ましい。このとき、表示インターフェースは、地図情報を記憶保持する地図情報記憶部から、蓄積された各画像の位置情報に応じた地図情報を読み出し、この読み出した地図情報上における、各位置情報に対応した位置に、各画像のインデックスを表示する。この場合には、撮影した画像データの検索を、撮影時に取得した位置情報を利用して容易なものとすることができる。なお、撮影時の日時などの付加情報を前記位置情報とともにインデックスとすることによって、より多様な検索を可能とすることができる。   In the above invention, the image taken by the image pickup unit is stored in the data storage unit in association with the position information acquired by the position information acquisition unit, and the position information of the stored image is displayed as an index on the display interface. It is preferable to retrieve the corresponding image from the data storage unit by selecting the displayed index. At this time, the display interface reads the map information corresponding to the accumulated position information of each image from the map information storage unit that stores and holds the map information, and the position corresponding to each position information on the read map information. The index of each image is displayed. In this case, retrieval of captured image data can be facilitated by using position information acquired at the time of capturing. By using additional information such as the date and time at the time of shooting as an index together with the position information, more various searches can be made possible.

上記発明において、表示インターフェースでは、地図情報をタッチパネル上に表示された惑星のグラフィックとして表現するとともに、インデックスは、惑星の緯度及び経度に対応した位置に重畳させて表示され、タッチ操作により惑星を公転又は自転させることによって選択可能となっていることが好ましい。  In the above invention, the display interface expresses the map information as a graphic of the planet displayed on the touch panel, and the index is displayed superimposed on the position corresponding to the latitude and longitude of the planet, and the planet is revolved by a touch operation. Or it is preferable that it can be selected by rotating.

また、上記発明において、前記パーツライブラリーでは、パーツライブラリー内に集積されたパーツ毎に文章情報が付加されており、画像合成部によるキャラクター生成において、合成されたパーツの組み合わせに応じて、文章情報により文章が構築されることを特徴とする請求項11に記載の合成画像撮影方法。   Further, in the above invention, in the parts library, sentence information is added for each part accumulated in the parts library, and in the character generation by the image composition unit, the sentence is determined according to the combination of the synthesized parts. The synthetic image photographing method according to claim 11, wherein a sentence is constructed by information.

以上述べたように、この発明によれば、カメラ付き携帯電話機やデジタルカメラなど、デジタル画像を撮影する装置において、撮影場所にちなんだ付加的なコンテンツを入手して、撮影画像に合成可能とすることにより、各地域で提供されるサービスの多様化を図ることができる。   As described above, according to the present invention, in a device for taking a digital image, such as a mobile phone with a camera or a digital camera, it is possible to acquire additional content associated with the shooting location and to synthesize it with the taken image. This makes it possible to diversify the services provided in each region.

[第1実施形態]
(合成画像撮影システムの構造)
以下に添付図面を参照して、本発明に係る合成画像撮影システムの実施形態を詳細に説明する。図1は、本実施形態に係る合成画像撮影システムの全体構成を示す概念図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
[First Embodiment]
(Structure of composite image shooting system)
Exemplary embodiments of a composite image photographing system according to the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a conceptual diagram showing an overall configuration of a composite image photographing system according to the present embodiment. The “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation. .

本実施形態において合成画像撮影システムは、図1に示すように、ユーザーが使用するデジタルカメラ1a又はカメラ付き携帯電話機1bと、インターネット2上に設置された地域画像配信サーバー3とから概略構成される。   In this embodiment, as shown in FIG. 1, the composite image photographing system is roughly composed of a digital camera 1a or camera-equipped mobile phone 1b used by a user, and a regional image distribution server 3 installed on the Internet 2. .

地域画像配信サーバー3は、地域画像として、各地域の名所や名物の背景データや壁紙データ、その土地々々のキャラクターを描いた「顔出し看板」のようなフレームやテンプレートなど、各地域独自の地域画像データを含むコンテンツをその地域限定で配信するサーバーであり、本実施形態では、位置情報に地域画像データ等のコンテンツデータを関連付けて蓄積する地域画像蓄積部としての機能を果たし、例えば、Webサーバー等のコンテンツサーバーで構成される。このコンテンツサーバーとしては、WWW(World Wide Web)等のドキュメントシステムにおいて、HTML(HyperText Markup Language)ファイルや画像ファイル、音楽ファイルなどの情報送信を行うサーバーコンピュータ或いはその機能を持ったソフトウェアであり、HTML文書や画像などの情報を蓄積しておき、デジタルカメラ1a若しくは携帯電話機1bからの要求に応じて、インターネット2を通じて、これらの情報を送信する。   The regional image distribution server 3 provides local images such as background data and wallpaper data of local attractions and specialties, as well as frames and templates such as “signboards” depicting the characters of each region. A server that distributes content including image data in a limited region. In this embodiment, the server serves as a regional image storage unit that stores content data such as regional image data in association with location information. For example, a Web server The content server. The content server is a server computer that transmits information such as an HTML (HyperText Markup Language) file, an image file, or a music file in a document system such as the WWW (World Wide Web) or software having the function. Information such as documents and images is stored, and the information is transmitted through the Internet 2 in response to a request from the digital camera 1a or the mobile phone 1b.

デジタルカメラ1a及びカメラ付き携帯電話機1bは、いずれも光学的にデジタル画像を撮影する撮像機能を有するとともに、撮影時における自機の位置を示す位置情報を取得し、記録する位置情報取得機能を備えている。この位置情報取得機能としては、図1に示すように、例えば、GPS(Global Positioning System)のように、衛星21からの信号によって自機の位置を検出する方法や、携帯電話の無線基地局22からの電波強度などによって位置を検出する方法が考えられる。   Each of the digital camera 1a and the camera-equipped mobile phone 1b has an imaging function for optically capturing a digital image, and also includes a position information acquisition function for acquiring and recording position information indicating the position of the own device at the time of shooting. ing. As this position information acquisition function, as shown in FIG. 1, for example, a method of detecting the position of the own device by a signal from the satellite 21 such as GPS (Global Positioning System), or a radio base station 22 of a mobile phone A method of detecting the position based on the intensity of the radio wave from, etc. is considered.

図2は、デジタルカメラ1a若しくは携帯電話機1bの合成画像撮影機能に係る合成画像撮影ユニット10の内部構成を示すブロック図である。   FIG. 2 is a block diagram illustrating an internal configuration of the composite image capturing unit 10 relating to the composite image capturing function of the digital camera 1a or the mobile phone 1b.

先ず、この合成画像撮影ユニット10において、画像撮影系のモジュールとして、撮像部102と、シャッター制御部106と、顔検出部107と、データ蓄積装置108とを備えている。   First, the composite image capturing unit 10 includes an image capturing unit 102, a shutter control unit 106, a face detection unit 107, and a data storage device 108 as image capturing system modules.

撮像部102は、学的にデジタル画像を撮影するモジュールであり、シャッター制御部106からの制御に応じて撮像処理を実行し、撮像された画像データは顔検出部107へ送出される。シャッター制御部106は、顔検出部107内の表情認識部107aが、被写体の笑顔など、特定の表情を認識した瞬間に、自動的に撮影処理を実行する自動撮影モードも備えている。   The imaging unit 102 is a module for taking a digital image scientifically. The imaging unit 102 executes an imaging process according to control from the shutter control unit 106, and the captured image data is sent to the face detection unit 107. The shutter control unit 106 also includes an automatic shooting mode in which a shooting process is automatically executed at a moment when the facial expression recognition unit 107a in the face detection unit 107 recognizes a specific facial expression such as a smiling face of a subject.

顔検出部107は、目、鼻、口などにより形成される一定の幾何学的形状を抽出して、人物の顔部分を検出するとともに、検出した顔部分の、基本画像中における座標位置を算出するモジュールである。この顔検出処理は、撮影操作の前段階から実行され、図4(a)に示すように、検出された顔がファインダー画面上にマーキング107bとして強調され、その被写体までの距離を測定し、その距離に応じたフォーカシングを行うオートフォーカス機能とも連動するようになっている。また、この顔検出部107は、撮影対象となる人物の笑顔など、所定の表情を認識する表情認識部107aを有しており、撮影時のモニター映像の中から顔部分及びその表情を認識し、その認識結果をシャッター制御部106に入力する。シャッター制御部106は、入力された認識結果に応じて撮像部102に、シャッター動作を実行させる制御信号を入力する。   The face detection unit 107 extracts a certain geometric shape formed by eyes, nose, mouth, etc., detects a human face part, and calculates a coordinate position of the detected face part in the basic image It is a module to do. This face detection process is executed from the previous stage of the photographing operation. As shown in FIG. 4A, the detected face is highlighted as a marking 107b on the finder screen, and the distance to the subject is measured. It also works with an autofocus function that performs focusing according to distance. Further, the face detection unit 107 has a facial expression recognition unit 107a that recognizes a predetermined facial expression such as a smile of a person to be photographed, and recognizes the face part and the facial expression from the monitor image at the time of photographing. The recognition result is input to the shutter control unit 106. The shutter control unit 106 inputs a control signal for causing the imaging unit 102 to execute a shutter operation in accordance with the input recognition result.

データ蓄積装置108は、各種データを蓄積する記憶装置であり、撮影された基本画像データや、ネット上から取得された地域画像データ、これらが合成された合成画像データ、及び各画像データに加工を施した編集データなどが蓄積されている。   The data storage device 108 is a storage device that stores various types of data. The captured basic image data, regional image data acquired from the network, composite image data obtained by combining these, and processing of each image data. Edited data is stored.

また、合成画像撮影ユニット10において、通信系のモジュールとしては、位置情報取得部103と、画像取得部104と、地図情報取得部105とを備えている。   Further, the composite image photographing unit 10 includes a position information acquisition unit 103, an image acquisition unit 104, and a map information acquisition unit 105 as communication modules.

位置情報取得部103は、撮影時における自機の位置を示す位置情報を取得し、記録するモジュールであり、上述したように、例えば、GPS(Global Positioning System)のように、衛星21からの信号によって自機の位置を検出したり、携帯電話の無線基地局22からの電波強度などによって位置を検出する。取得された位置情報は、基本画像データのメタデータとして、基本画像に関連付けられてデータ蓄積装置108に記憶保持される。   The position information acquisition unit 103 is a module that acquires and records position information indicating the position of the own device at the time of photographing. As described above, for example, a signal from the satellite 21 such as GPS (Global Positioning System). Is used to detect the position of the device itself, or the position is detected based on the radio wave intensity from the radio base station 22 of the mobile phone. The acquired position information is stored and held in the data storage device 108 in association with the basic image as metadata of the basic image data.

本実施形態では、この位置情報取得部103により取得された位置情報は、通信I/F101を通じてインターネット2に送信され、地域画像配信サーバー3で受信される。地域画像配信サーバー3では、この受信された位置情報に関連付けられた地域画像データ等のコンテンツを選択して返信する。返信された地域画像データは、画像取得部104を通じて、データ蓄積装置108に蓄積される。画像取得部104は、地域画像配信サーバー3から、位置情報に関連付けられた地域画像データをダウンロードするモジュールである。   In the present embodiment, the position information acquired by the position information acquisition unit 103 is transmitted to the Internet 2 through the communication I / F 101 and received by the regional image distribution server 3. The regional image distribution server 3 selects and returns content such as regional image data associated with the received position information. The returned regional image data is stored in the data storage device 108 through the image acquisition unit 104. The image acquisition unit 104 is a module that downloads regional image data associated with position information from the regional image distribution server 3.

地図情報取得部105は、インターネット2上に設置されたコンテンツサーバーなどから、地図情報をダウンロードして記憶保持するモジュールである。この取得された地図情報は、データ蓄積装置108に蓄積される。   The map information acquisition unit 105 is a module that downloads map information from a content server installed on the Internet 2 and stores and holds the map information. The acquired map information is stored in the data storage device 108.

さらに、合成画像撮影ユニット10において、編集処理系のモジュールとして、編集処理部110と、編集データ生成部111と、画像合成部112とを備えている。本実施形態において、編集処理等の操作と、表示処理とは、図4〜図8に示すような、GUI116により行うことができる。   Further, the composite image photographing unit 10 includes an edit processing unit 110, an edit data generation unit 111, and an image composition unit 112 as edit processing modules. In the present embodiment, operations such as editing processing and display processing can be performed using a GUI 116 as shown in FIGS.

編集処理部110は、操作者の操作に従って、各種編集処理を実行するモジュールであり、GUI116と連動して、タッチペンなどで画像上に絵を描き加えたり、文字等を書き込んだり等のフォトレタッチ処理の他、撮影した基本画像に対してフレーム画像や背景画像などの画像を合成する画像合成処理を行うことができる。   The editing processing unit 110 is a module that executes various editing processes according to the operation of the operator. In conjunction with the GUI 116, photo retouching processing such as drawing a picture on an image with a touch pen or writing characters or the like. In addition, it is possible to perform an image composition process for compositing an image such as a frame image or a background image with a taken basic image.

編集データ生成部111は、上記編集処理部110により編集操作の結果である編集データを生成するモジュールであり、生成されたデータはデータ蓄積装置108に蓄積される。画像合成部112は、編集データ生成部111の編集機能の一部として備えられるモジュールであり、撮像部102が撮像した画像を基本画像とし、この基本画像に対して、画像取得部104が取得した地域画像データを合成する。この画像合成部112による合成処理も、上記編集処理部110に対する編集操作によって制御することができる。   The edit data generation unit 111 is a module that generates edit data as a result of the edit operation by the edit processing unit 110, and the generated data is stored in the data storage device 108. The image synthesis unit 112 is a module provided as part of the editing function of the editing data generation unit 111. The image captured by the imaging unit 102 is used as a basic image, and the image acquisition unit 104 acquires the basic image. Synthesize regional image data. The synthesizing process by the image synthesizing unit 112 can also be controlled by an editing operation on the editing processing unit 110.

また、この画像合成部112による合成に際しては、顔検出部107が検出した顔部分の座標位置を基準として、基本画像に対し地域画像データを重ね合わせる。この画像合成に際し、画像合成部111aは、顔検出部107により検出された顔部分の座標位置を基準として、図4(b)又は(c)に示すように、撮影された基本画像D1に対して、キャラクターのかぶり物をモチーフとした地域画像データD2又はD3を合成する。   When the image composition unit 112 performs composition, the regional image data is superimposed on the basic image with reference to the coordinate position of the face portion detected by the face detection unit 107. In this image composition, the image composition unit 111a uses the coordinate position of the face part detected by the face detection unit 107 as a reference, as shown in FIG. 4 (b) or (c), for the captured basic image D1. Then, the regional image data D2 or D3 with the character head covering as a motif is synthesized.

これらの操作は、上述したGUI116により行うことができる。本実施形態では、GUI116上に撮影(若しくは編集)に係る基本画像D1が表示されるとともに、取得された地域画像データのアイコン1162が、アイコンエリア1161内に複数列記され、これらのアイコン1162を、例えばポインタ1163によってクリックすることによりアイコンを選択することができる。   These operations can be performed using the GUI 116 described above. In the present embodiment, a basic image D1 related to shooting (or editing) is displayed on the GUI 116, and a plurality of icons 1162 of the acquired area image data are listed in the icon area 1161, and these icons 1162 are displayed as For example, an icon can be selected by clicking with the pointer 1163.

前記合成画像撮影ユニット10において、ユーザーインターフェース系のモジュールとして、操作信号取得部114と、表示情報生成部115と、インデックス生成部109と、データ検出部113とを備えている。   The composite image photographing unit 10 includes an operation signal acquisition unit 114, a display information generation unit 115, an index generation unit 109, and a data detection unit 113 as user interface modules.

操作信号取得部114は、ユーザー操作に基づく操作デバイス116aからの操作信号を取得し、操作信号に応じた実行命令を編集処理部110に入力するモジュールである。ここでの操作デバイス116aとしては、タッチパネルや操作ボタン、加速度センサなどが含まれる。   The operation signal acquisition unit 114 is a module that acquires an operation signal from the operation device 116 a based on a user operation, and inputs an execution command corresponding to the operation signal to the editing processing unit 110. Here, the operation device 116a includes a touch panel, operation buttons, an acceleration sensor, and the like.

表示情報生成部115は、GUI116の画像表示部116bに表示される画像データを生成するモジュールであり、撮影時においては、撮像部102が撮影しているファインダー画像を表示したり、編集時においては、操作信号取得部114が取得したユーザー操作信号に基づくアイコン等の画像の変化を表示する。   The display information generation unit 115 is a module that generates image data displayed on the image display unit 116b of the GUI 116. At the time of shooting, the display information generation unit 115 displays a finder image captured by the imaging unit 102 or at the time of editing. The change in the image such as an icon based on the user operation signal acquired by the operation signal acquisition unit 114 is displayed.

特に、本実施形態に係る表示情報生成部は、図6(d)に示すような、データ蓄積装置108に蓄積された画像の位置情報をインデックスアイコンI31として表示する機能を備えている。この機能では、蓄積された各画像の位置情報に応じた地図情報をデータ蓄積装置108から読み出し、この読み出して展開させた地図W3上における、各コンテンツの位置情報に対応した座標位置に、各コンテンツのインデックスアイコンI31を表示する。インデックス生成部109は、撮像部102により撮影された画像と、位置情報取得部103が取得した位置情報とを関連付けて表示するためのインデックス情報(アイコン)を生成し、表示情報生成部115に入力し、表示情報生成部115においてインデックスアイコンを地図W3上に重畳させる。   In particular, the display information generation unit according to the present embodiment has a function of displaying position information of an image stored in the data storage device 108 as an index icon I31 as shown in FIG. In this function, map information corresponding to the accumulated position information of each image is read from the data storage device 108, and each content is placed at the coordinate position corresponding to the position information of each content on the map W3 that has been read and developed. The index icon I31 is displayed. The index generation unit 109 generates index information (icon) for displaying the image captured by the imaging unit 102 and the position information acquired by the position information acquisition unit 103 in association with each other, and inputs the index information to the display information generation unit 115. Then, the display information generating unit 115 superimposes the index icon on the map W3.

データ検出部113は、データ蓄積装置108内に蓄積されたデータを検索して読み出すモジュールであり、GUI116上において、地図上に表示されたインデックスアイコンを選択することにより、該当するデータを読み出す。   The data detection unit 113 is a module that searches for and reads data stored in the data storage device 108, and reads the corresponding data by selecting an index icon displayed on the map on the GUI 116.

なお、本実施形態では、カメラ機能を備えた携帯電話機を例に説明したが、このカメラ機能としては、例えば、図9(a)に示すような、ネックストラップで首からかけられるようなカメラ付きコンパクト携帯電話としてもよく、また、同図(b)に示すように、携帯電話機1b本体とは別途独立し、カメラ部分だけをコードで接続されたペンダント型1cとしてもよい。   In the present embodiment, a mobile phone having a camera function has been described as an example. As this camera function, for example, as shown in FIG. It may be a compact mobile phone, or may be a pendant type 1c that is independent of the main body of the mobile phone 1b and is connected to only the camera portion by a cord as shown in FIG.

このように首からかけられる形式とすれば、図10に示すように、自動撮影モードを選択することより、ユーザー自身がシャッター操作を気にすることなく、乾杯やカラオケの場面で、周りの人が笑顔になったタイミングで、記念写真が自動的に撮影されることとなる。   As shown in FIG. 10, by selecting the automatic shooting mode as shown in FIG. 10, the user himself / herself does not have to worry about the shutter operation, and the people around him can enjoy the toast or karaoke scene. A commemorative photo is automatically taken at the time when the person smiles.

(GUIの構成)
図5は、上述したGUI116の画面構成を示す説明図である。本実施形態においてこのGUI116は、携帯電話機1bに備えられており、この携帯電話機1bは、図中水平方向にスライド可能な前面部11と背面部12とから構成されている。GUI116は、前面部11の前面全体に配置されたタッチパネルと連動されるようになっており、前記画像表示部116bによりタッチパネル上にグラフィックが表示されるとともに、前記操作デバイス116aによりタッチパネル表面に付与された圧力を感知し、その圧力点の画面上における座標位置及びその移動が操作信号として取得される。
(Configuration of GUI)
FIG. 5 is an explanatory diagram showing the screen configuration of the GUI 116 described above. In this embodiment, the GUI 116 is provided in the mobile phone 1b, and the mobile phone 1b includes a front portion 11 and a back portion 12 that can slide in the horizontal direction in the figure. The GUI 116 is interlocked with a touch panel disposed on the entire front surface of the front surface portion 11, and a graphic is displayed on the touch panel by the image display portion 116 b and is given to the touch panel surface by the operation device 116 a. The pressure position is detected, and the coordinate position of the pressure point on the screen and its movement are acquired as an operation signal.

GUI116では、画面内の所定エリアへのタッチによりそのエリアに割り当てられた実行コマンドが操作信号として取得される。この所定エリアには、アイコンやポップアップメニューが配置され、ユーザーは、これらアイコン等を選択してタッチすることにより、任意の実行コマンドを入力することができる。特に、本実施形態では、図5に示すように、指やタッチペンなどで画面上をなぞることによって、その動作の開始位置と終了位置から圧力点の移動距離や移動速度を感知し、その動作に応じた実行コマンドの入力が可能となっている。なお、スライドされて前面部11から突出された背面部12の前面側表面には、通常の操作ボタンや方向キーが配置されており、これらを操作することによってもGUIに対する入力操作が可能となっている。   In the GUI 116, an execution command assigned to an area by touching a predetermined area on the screen is acquired as an operation signal. Icons and pop-up menus are arranged in the predetermined area, and the user can input an arbitrary execution command by selecting and touching these icons. In particular, in this embodiment, as shown in FIG. 5, by tracing the screen with a finger or a touch pen, the movement distance and movement speed of the pressure point are detected from the start position and the end position of the operation, and the operation is performed. The execution command can be input accordingly. Note that normal operation buttons and direction keys are arranged on the front surface of the rear surface portion 12 that is slid and protrudes from the front surface portion 11. By operating these buttons, an input operation to the GUI can be performed. ing.

また、本実施形態におけるGUI116に表示されるメニューは、階層形式となっており、上位メニューでの選択操作によって、下位メニューへ移行(ズームアップ、ズームダウン)できるようになっている。特に、GUI116では、図6に示すように、メニューアイコンを宇宙に浮かぶ惑星(プラネット)として表現しており、各惑星に機能毎のコマンド群がグルーピングされて割り付けられている。ユーザーは、図6(a)に示すように、上層メニューであるプラネット表示画面W1において、コマンドのグループを惑星として選択し、その惑星をズームアップすることにより、下層のメニューであるアース表示画面W2にドリルダウンし、より詳細なメニューへ移行することができる。これらの各惑星は例えば銀河系や太陽系などのように、環状に配置され、上記タッチ操作により各惑星を公転させたり自転させたりすることもでき、上記ズームアップ・ズームダウン操作と併せて、メニュー選択操作ができるようになっている。また、これらの画面遷移は、アイコンの選択操作の他、図6(c)に示すような、ズーム切替えアイコンのようなポップアップメニューM1によっても行うことができる。   In addition, the menu displayed on the GUI 116 in the present embodiment has a hierarchical format, and can be shifted to a lower menu (zoom up and zoom down) by a selection operation on the upper menu. In particular, in the GUI 116, as shown in FIG. 6, menu icons are represented as planets floating in space, and command groups for each function are grouped and assigned to each planet. As shown in FIG. 6A, the user selects a group of commands as a planet on the planet display screen W1 that is the upper menu, and zooms up the planet, thereby displaying the earth display screen W2 that is the lower menu. You can drill down to a more detailed menu. Each of these planets is arranged in a ring like the galaxy and the solar system, for example, and each planet can be revolved and rotated by the touch operation. Can be operated. These screen transitions can also be performed by a pop-up menu M1 such as a zoom switching icon as shown in FIG.

アース表示画面W2では、図6(b)及び図7に示すように、上記惑星の一つとして地球(アース)が含まれており、地球上の緯度・経緯といった位置情報に関連付け可能なコマンドやデータが、惑星上のインデックスアイコンI3〜I5として表示できるようになっている。図7では、地球上の各地で起こっているニュースが吹出アイコンI5として、また、撮影した画像データがカメラアイコンI4として、関連のある緯度・経度に対応した位置に表示されている。また、このインデックスアイコンとして、例えば、メール送信者の住所に関する情報が取得されているときには、その住所に応じた緯度・経度にメールアイコンI3を表示することもできる。   In the earth display screen W2, as shown in FIGS. 6 (b) and 7, the earth (earth) is included as one of the planets, and commands or commands that can be associated with position information such as latitude and background on the earth are displayed. Data can be displayed as index icons I3 to I5 on the planet. In FIG. 7, news occurring in various places on the earth is displayed as a balloon icon I5, and captured image data is displayed as a camera icon I4 at positions corresponding to related latitude and longitude. For example, when information about the address of the mail sender is acquired as the index icon, the mail icon I3 can be displayed at the latitude and longitude corresponding to the address.

なお、画面上には、メニューを呼び出すためのアイコンI1やI2が配置されており、これをクリックすることによってズーム切替メニューM1や、画面上に表示されるインデックスアイコンの種別を切り換える表示切替メニューM2を呼び出せるようになっている。また、アース表示画面では、スライド操作用のスライダー1165が表示されており、これをスライド操作することにより無段階的に地球をズームアップ・ズームダウンすることができ、連続的に階層のホーム表示画面W3に遷移することができる。   It should be noted that icons I1 and I2 for calling up menus are arranged on the screen, and when this is clicked, the zoom switching menu M1 and the display switching menu M2 for switching the type of index icon displayed on the screen. Can be called. In addition, a slide operation slider 1165 is displayed on the earth display screen, and the earth can be zoomed up and down in a stepless manner by sliding the slider. Transition to W3 is possible.

このアース表示画面W2では、地球上に表示されたインデックスアイコンを選択することにより、さらに図6(d)に示すような、地表(ホーム表示画面W3)をズームアップすることができ、このホーム表示画面W3では、より詳細な地図情報とともに、位置情報に関連付けられたインデックスアイコンが表示される。   On the earth display screen W2, by selecting an index icon displayed on the earth, the ground surface (home display screen W3) as shown in FIG. 6 (d) can be further zoomed in. On the screen W3, an index icon associated with the position information is displayed together with more detailed map information.

上記ホーム表示画面W3では、図8に示すように、データ蓄積装置108に蓄積された画像が、位置情報に応じたインデックスアイコンとして表示される。具体的には、蓄積された各画像の位置情報に応じた地図情報をデータ蓄積装置108から読み出し、図8(b)に示すように、読み出した地図情報上における、各コンテンツの位置情報に対応した座標位置に、各コンテンツのインデックスアイコンI31が重畳されて表示される。このインデックスアイコンI31をクリックすることによって、同図(c)に示すような、その地域で撮影した画像Dを呼び出して、表示させることができる。なお、この画像Dは、同図(a)に示すような、カメラナビメニューM3から直接呼び出すこともできる。   On the home display screen W3, as shown in FIG. 8, the image stored in the data storage device 108 is displayed as an index icon corresponding to the position information. Specifically, the map information corresponding to the stored position information of each image is read from the data storage device 108 and corresponds to the position information of each content on the read map information as shown in FIG. The index icon I31 of each content is displayed superimposed on the coordinate position. By clicking the index icon I31, an image D photographed in the area as shown in FIG. 5C can be called up and displayed. The image D can also be directly called from the camera navigation menu M3 as shown in FIG.

(合成画像撮影方法)
以上の構成を有する合成画像撮影システムを動作させることによって、本発明の合成画像撮影方法を実施することができる。図3は、本実施形態に係る合成画像撮影システムの動作を示すフローチャート図である。
(Synthetic image shooting method)
By operating the composite image capturing system having the above configuration, the composite image capturing method of the present invention can be implemented. FIG. 3 is a flowchart showing the operation of the composite image photographing system according to this embodiment.

先ず、撮像部102により画像を撮影する(S101)。この撮影に際し、本実施形態では、撮像部102により常にファインダー画像を監視する「自動撮影モード」を実行してもよい。このモードでは、撮像部102において撮されるファインダー画像に対して、表情認識部107aにより、撮影対象となる人物の、例えば笑顔などの所定の表情を認識する表情認識を行い、笑顔を認識した瞬間に、自動的に撮影処理を実行する。
ステップS101において、撮像部102により撮影された画像データは、基本画像としてデータ蓄積装置108に記録され(S102)、基本画像内において、顔の検出が行われる(S103)。この顔部分の検出に際し、顔検出部107では、検出した顔部分の基本画像中における座標位置を算出しておく。
First, an image is taken by the imaging unit 102 (S101). In this embodiment, in the present embodiment, an “automatic shooting mode” in which the finder image is always monitored by the imaging unit 102 may be executed. In this mode, the facial expression recognition unit 107a performs facial expression recognition on a finder image taken by the imaging unit 102, for example, a predetermined facial expression such as a smile of a person to be photographed, and the moment when the smile is recognized. In addition, the photographing process is automatically executed.
In step S101, the image data photographed by the imaging unit 102 is recorded in the data storage device 108 as a basic image (S102), and a face is detected in the basic image (S103). When detecting the face part, the face detection unit 107 calculates the coordinate position of the detected face part in the basic image.

また、この撮影操作に応じて、撮影時における自機の位置情報が取得され、記録されるとともに、この位置情報が地域画像配信サーバー3に送信される(S104)。この位置情報を受信した地域画像配信サーバー3は(S201)は、受信した撮影時の位置情報に基づいて、地域画像蓄積データベースから、位置情報に関連付けられた地域画像データを検索し(S202)、選択した画像を返信する(S203)。   Further, in response to this shooting operation, the position information of the own device at the time of shooting is acquired and recorded, and this position information is transmitted to the regional image distribution server 3 (S104). The regional image distribution server 3 that has received this positional information (S201) searches the regional image storage database for regional image data associated with the positional information based on the received positional information at the time of shooting (S202). The selected image is returned (S203).

この地域画像データを受信したカメラ側は(S105)、基本画像に対して、受信された地域画像データを合成する(S106)。この画像合成に際し、画像合成部111aは、顔検出部107により検出された顔部分の座標位置を基準として、基本画像に対して地域画像データを合成する。   The camera side that has received the area image data (S105) synthesizes the received area image data with the basic image (S106). In this image composition, the image composition unit 111a synthesizes the regional image data with the basic image using the coordinate position of the face portion detected by the face detection unit 107 as a reference.

このようにして撮影して蓄積された画像データに対しては、他のフォトレタッチ処理等の編集操作を施すことができ(S107)、編集作業を終了することにより(S108における“N”)、編集された画像データが保存される(S109)。   The image data thus photographed and accumulated can be subjected to other editing operations such as photo retouching processing (S107), and by finishing the editing operation ("N" in S108), The edited image data is saved (S109).

この画像データの保存に際し、本実施形態では、位置情報と関連付けてデータ蓄積装置108に蓄積する。このとき、蓄積された画像の位置情報をインデックス情報として生成する(S110)とともに、GUI116上にアイコンとして表示する。そして、GUI116に表示されたインデックスを選択することにより、該当する画像をデータ蓄積装置108から検索して読み出すことができる。このとき、表示情報生成部115では、蓄積された各画像の位置情報に応じた地図情報を読み出し、この読み出した地図上の、各位置情報に対応した位置に、各画像のインデックスアイコンを表示する。   In storing this image data, in this embodiment, the image data is stored in the data storage device 108 in association with the position information. At this time, the position information of the accumulated image is generated as index information (S110) and displayed as an icon on the GUI 116. Then, by selecting the index displayed on the GUI 116, the corresponding image can be retrieved from the data storage device 108 and read out. At this time, the display information generation unit 115 reads map information corresponding to the accumulated position information of each image, and displays an index icon of each image at a position corresponding to the position information on the read map. .

そして、このようにして撮影され蓄積されたデータは、GUI116において、インデックスアイコンをタッチ操作等の選択操作によって読み出して閲覧することができる。   The data captured and accumulated in this way can be read and viewed on the GUI 116 by selecting an index icon by a selection operation such as a touch operation.

(合成画像撮影プログラム)
上述した本実施形態係るシステム及び方法は、所定の言語で記述された合成画像撮影プログラムをコンピュータ上で実行することにより実現することができる。すなわち、この合成画像撮影プログラムを、携帯電話等で情報処理端末のICチップにインストールし、CPU上で実行することにより、上述した各機能を有するシステムを容易に構築することができる。このプログラムは、例えば、通信回線を通じて配布することが可能である。
(Composite image shooting program)
The above-described system and method according to the present embodiment can be realized by executing a composite image photographing program described in a predetermined language on a computer. That is, by installing this composite image photographing program on the IC chip of the information processing terminal using a mobile phone or the like and executing it on the CPU, a system having the above functions can be easily constructed. This program can be distributed through a communication line, for example.

そして、このプログラムを記録したコンピュータ読み取り可能な記録媒体によれば、汎用のコンピュータや専用コンピュータを用いて、上述したシステムや方法を実施することが可能となるとともに、プログラムの保存、運搬及びインストールを容易に行うことができる。   According to the computer-readable recording medium in which the program is recorded, the above-described system and method can be implemented using a general-purpose computer or a dedicated computer, and the program can be stored, transported, and installed. It can be done easily.

(本実施形態による作用・効果)
このような本実施形態によれば、撮影した現在位置に関連付けられた地域画像データ、例えば、その撮影場所にちなんだ土地々々のキャラクターを描いた「顔出し看板」のようなフレームやテンプレートを、被写体の顔部分に合致させて重畳させて合成することができ、各地域独自のコンテンツをその地域限定で配信することによって、各地における地域興しのきっかけとすることができる。
(Operations and effects according to this embodiment)
According to the present embodiment, the area image data associated with the captured current position, for example, a frame or template such as a “face-up signboard” depicting local characters associated with the shooting location, It can be combined and superimposed on the face part of the subject, and each region's unique content can be distributed only in that region, thereby triggering regional development in each region.

また、本実施形態では、上記自動撮影機能により、デジタルカメラのファインダーの視野内にいる被写体が笑うなどの特定の表情をした瞬間に自動的にシャッターを切ることができ、カメラを構えての撮影とは異なる自然な表情を捉えることができる。   In the present embodiment, the automatic shooting function enables the shutter to be automatically released at the moment when the subject in the field of view of the digital camera finder laughs and the camera is held. You can capture a natural expression different from that.

さらに、本実施形態では、撮影した画像データを、位置情報に関連付けられたインデックスアイコンにより検索して、読み出すことができるため、撮影時に取得した位置情報を利用して容易に画像検索を行うことができる。なお、撮影時の日時などの付加情報を前記位置情報とともにインデックスとすることによって、より多様な検索を可能とすることができる。   Furthermore, in the present embodiment, since the captured image data can be searched and read by the index icon associated with the position information, the image search can be easily performed using the position information acquired at the time of shooting. it can. By using additional information such as the date and time at the time of shooting as an index together with the position information, more various searches can be made possible.

[第2実施形態]
(システム構成)
次いで、本発明の第2実施家板について説明する。図11は、第2実施形態に係る実施形態に係る合成画像撮影システムの全体構成を示す概念図である。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
[Second Embodiment]
(System configuration)
Next, the second embodiment board of the present invention will be described. FIG. 11 is a conceptual diagram illustrating an overall configuration of a composite image capturing system according to the embodiment of the second embodiment. In the present embodiment, the same components as those in the first embodiment described above are denoted by the same reference numerals, and the functions and the like are the same unless otherwise specified, and the description thereof is omitted.

図11に示すように、本実施形態では、編集データ生成部111が二次元のキャラクターを自動的に生成するためのキャラ生成部111aを備えていることを特徴とする。このキャラ生成部111bは、顔検出部107aが検出した顔部分を構成する各パーツをベクトルデータとして抽出し、そのベクトルデータで特定される当該顔の特徴を管理情報として生成する管理情報生成部としての機能を有する。   As shown in FIG. 11, the present embodiment is characterized in that the edit data generation unit 111 includes a character generation unit 111a for automatically generating a two-dimensional character. This character generation unit 111b is a management information generation unit that extracts each part constituting the face portion detected by the face detection unit 107a as vector data, and generates the feature of the face specified by the vector data as management information. It has the function of.

また、このキャラ生成部111bは、画像取得部104に対して、位置情報と管理情報とに基づいて、パーツライブラリーを取得させ、この取得されたパーツライブラリー中からパーツを抽出する機能を有し、さらに、画像合成部111aに対して、抽出されたパーツを合成させてキャラクター生成させる機能も有している。   The character generation unit 111b has a function of causing the image acquisition unit 104 to acquire a parts library based on the position information and the management information, and to extract parts from the acquired part library. In addition, the image synthesizing unit 111a has a function of synthesizing the extracted parts and generating a character.

上記管理情報は、例えば、上述した第1実施形態のように、デジタルカメラ1a若しくは携帯電話機1bの合成画像撮影機能と連動して生成することができ、生成された管理情報は、その他の付属情報とともに、ユーザー固有のキャラクターの特徴を示すデータとして、サーバー10に蓄積したり、通信機能又は記憶媒体を通じて転送することによって、他のパーソナルコンピュータや家庭用ゲーム機、携帯ゲーム機などと共有し、同期させることができる。   The management information can be generated, for example, in conjunction with the composite image shooting function of the digital camera 1a or the mobile phone 1b as in the first embodiment described above, and the generated management information is other attached information. At the same time, it is stored in the server 10 as data indicating the characteristics of the character unique to the user, or transferred through a communication function or storage medium, so that it can be shared with other personal computers, home game machines, portable game machines, etc. Can be made.

付属情報としては、例えば、キャラクターの名前や性別、機能、能力、育成情報などキャラクターを特徴付ける情報の他、当該キャラクターを生成した際の被写体自身の個人情報や、当該キャラクターに対する操作履歴、占い・日記・メール送受信履歴など、当該キャラクターを被写体の分身として見立てた場合の関連情報が挙げられる。なお、この被写体としては、デジタルカメラ1a若しくは携帯電話機1bの所有者に限らず、撮影された人物であれば全てキャラクター自動生成の対象とすることができ、上記付属情報は、各機器の入力インターフェースを通じて入力可能とし、該当する管理情報に関連付けて蓄積させる。   The attached information includes, for example, information that characterizes the character, such as the character's name, gender, function, ability, training information, personal information of the subject itself when the character is generated, operation history for the character, fortune-telling / diary -Related information such as e-mail transmission / reception history when the character is regarded as an alternate subject. Note that this subject is not limited to the owner of the digital camera 1a or the mobile phone 1b, and any photographed person can be automatically generated as a character, and the attached information is an input interface of each device. Can be entered through and stored in association with the corresponding management information.

本実施形態では、本実施形態のサーバー10側において、位置情報と、管理情報とに関連付けられた顔パーツを集積したパーツライブラリーを、地域画像データの一部として蓄積している。例えば、サーバー10のデータベースには、地域画像として、キャラクターを表現するための種々のパーツを蓄積したパーツライブラリーが含まれており、ユーザー側からの要求に応じて必要なパーツを送信する。このパーツライブラリーには、様々なキャラクターを表現するために、目、眉、鼻、口、輪郭、耳、などの基本部分と、髪型、ほくろ、アクセサリー(メガネ、イヤリング、ピアスなど)などのオプション部分など、多様なパーツが含まれている。また、パーツライブラリーでは、パーツライブラリー内に集積されたパーツ毎に人相占いなどの文章情報が付加されており、キャラ生成部111bによるキャラクター生成において、合成されたパーツの組み合わせに応じて、文章情報により占いの文章が構築される。この占いの文章情報は、該当するキャラクターの管理情報に関連付けられた上記付属情報として利用可能である。   In the present embodiment, on the server 10 side of the present embodiment, a part library in which face parts associated with position information and management information are accumulated is stored as part of regional image data. For example, the database of the server 10 includes a parts library in which various parts for representing characters are stored as regional images, and transmits necessary parts in response to a request from the user. This parts library includes basic parts such as eyes, eyebrows, nose, mouth, contour, ears, and hairstyles, moles, accessories (glasses, earrings, earrings, etc.), etc. to express various characters. Various parts such as parts are included. In the parts library, text information such as fortune telling is added to each part accumulated in the parts library, and in the character generation by the character generation unit 111b, according to the combination of the synthesized parts, Fortune-telling sentences are constructed from the sentence information. This fortune-telling text information can be used as the attached information associated with the management information of the corresponding character.

そして、前記キャラ生成部111bは、撮像した画像から顔検出部107が検出した顔の画像データに基づいて、その検出された顔に似せたキャラクターを自動的に生成するモジュールである。具体的に、このキャラ生成部111bは、撮像部102が撮影した画像から検出された顔画像を、顔検出部107から受け取り、目や鼻の配置情報、例えば、平面座標、傾き、サイズ、色、などを管理情報として抽出する。この抽出された管理情報は、データ蓄積装置108に蓄積されるとともに、画像取得部104、通信I/F101を通じてサーバー10に送信される。画像取得部104は、上記管理情報を、パーツ要求信号とともに送信し、この要求に応じて配信されるパーツライブラリー及び占い文章などの付加情報を受信し、データ蓄積装置108に蓄積する。蓄積されたパーツライブラリーは、編集データ生成部111からの要求により逐次読み出され、キャラクター生成処理やキャラクター編集処理に供される。   The character generation unit 111b is a module that automatically generates a character resembling the detected face based on the face image data detected by the face detection unit 107 from the captured image. Specifically, the character generation unit 111b receives a face image detected from the image captured by the imaging unit 102 from the face detection unit 107, and arranges information on the eyes and nose, for example, plane coordinates, inclination, size, and color. , Etc. are extracted as management information. The extracted management information is stored in the data storage device 108 and transmitted to the server 10 through the image acquisition unit 104 and the communication I / F 101. The image acquisition unit 104 transmits the management information together with the part request signal, receives additional information such as a parts library and fortune telling text distributed in response to the request, and stores the additional information in the data storage device 108. The accumulated parts library is sequentially read out in response to a request from the editing data generation unit 111 and is used for character generation processing and character editing processing.

なお、本実施形態では、上記パーツライブラリーは、位置情報と関連付けられており、自機の現在位置に応じた「ご当地キャラ」が生成できるようになっている。詳述すると、自動生成キャラ作成時の、パーツライブラリーの選択優先度として、位置情報を用いられ、例えば、アフリカで撮れば、黒人タイプの顔パーツが優先して選択されたり、イギリスで撮れば、白人タイプの顔パーツが優先して選択されたりする。このとき、当該位置情報は、例えば、キャラクターの出身地とするなどして、キャラクターの特徴を示す上記付属情報として利用してもよい。   In the present embodiment, the parts library is associated with the position information, and a “local character” corresponding to the current position of the own device can be generated. In detail, position information is used as the selection priority of the parts library when creating an automatically generated character. For example, if you take in Africa, black type face parts are preferentially selected, or if you take in UK , White type face parts are preferentially selected. At this time, the position information may be used as the attached information indicating the character characteristics, for example, as the character's birthplace.

また、パーツライブラリーには、上述した顔のパーツ以外に、キャラクターを構成する要素として、キャラクターの身体や服装、アクセサリーなども含まれており、これらも位置情報に関連付けられて、その地域にちなんだキャラクターが生成されるようになっている。例えば、自動生成キャラの作成に際し、キャラクターの構成要素を、体や服装、アクセサリーなどまでに拡張させ、その地域に合わせた服装やアクセサリーが付属される。例えば、海辺で撮ればサーファースタイルとなり、雪山で撮ればスキーヤースタイルとなり、繁華街で撮れば派手目のファッションやメイクとなるように選択される。   In addition to the face parts described above, the parts library also includes the character's body, clothes, accessories, and other elements that make up the character. These are also linked to location information and named after the region. A character is to be generated. For example, when creating an automatically generated character, the constituent elements of the character are expanded to the body, clothes, accessories, etc., and clothes and accessories tailored to the region are attached. For example, if you take a picture at the seaside, it becomes a surfer style, if you take a picture in the snowy mountains, it becomes a skier style, and if you take it in a downtown area, it will be chosen as a flashy fashion and makeup.

さらに、パーツライブラリーとしては、上記服装やアクセサリーをさらに拡張して、ブランド店などとタイアップされたブランド品を含ませることができる。例えば、そのブランドショップの店内で撮ると、そのブランドのオリジナルデザインの服が手に入ったり、イベント会場で撮ると、関連するデザインの服やアクセサリーが手に入るようにしてもよい。   Furthermore, as a parts library, the above-mentioned clothes and accessories can be further expanded to include branded goods that are tied up with brand stores. For example, if you take a picture in the store of the brand shop, you can get clothes of the brand's original design, or if you take it in the event venue, you can get clothes and accessories of related designs.

(自動キャラ生成処理)
以上の構成を有するシステムを動作させることによって、自動キャラ生成処理を実行することができる。本実施形態では、この自動キャラ生成処理は、上述した実施形態1で説明したステップS106の画像合成のサブルーチンとして実行される。図12は、自動キャラ生成処理の手順を示すシーケンス図である。
(Automatic character generation process)
The automatic character generation process can be executed by operating the system having the above configuration. In the present embodiment, this automatic character generation process is executed as a subroutine for image composition in step S106 described in the first embodiment. FIG. 12 is a sequence diagram showing the procedure of automatic character generation processing.

先ず、カメラで撮影操作が実行されると(図3:S101)、顔検出が実行され(S106)、取得された地域画像との合成処理が行われる(S106)。このとき、顔検出により得られた顔画像を利用して、自動キャラ生成処理が起動される。   First, when a photographing operation is executed by the camera (FIG. 3: S101), face detection is executed (S106), and a synthesis process with the acquired area image is performed (S106). At this time, automatic character generation processing is started using the face image obtained by face detection.

先ず、顔画像を解析して、顔写真から、目、鼻、口、眉などのパーツ毎にアウトラインのベクターデータを作成するとともに(S301)、ベクターデータ中央の位置で、平面座標を算出する(S302)。   First, the face image is analyzed, outline vector data is created for each part such as eyes, nose, mouth, and eyebrows from the face photograph (S301), and plane coordinates are calculated at the center of the vector data (S301). S302).

次いで、これらのベクターデータと、平面座標とに基づいて、管理情報の算出を行う(S303)。具体的には、ベクターデータに、サンプルパーツの傾きを合わせ、ベクターデータの最外周の縦と横のサイズから、サイズを割り出す。このように算出された管理情報を、サーバー10に送信する(S304及びS401)。   Next, management information is calculated based on the vector data and the plane coordinates (S303). Specifically, the inclination of the sample part is matched with the vector data, and the size is calculated from the vertical and horizontal sizes of the outermost periphery of the vector data. The management information calculated in this way is transmitted to the server 10 (S304 and S401).

サーバー10では、先のステップS201で受信された位置情報と、ステップS401で受信された管理情報とに基づいて、パーツライブラリーを検索する(S402)。そして、検索されたパーツを集めて、当該ユーザーの顔を表現するのに必要なパーツを抽出して、当該ユーザーに固有のパーツライブラリーを生成し、ユーザー側に送信する(S403)。このとき、ユーザー固有のパーツライブラリーに含まれるパーツとしては、ご当地ならではの、現在位置に関連付けられたパーツやアクセサリーが含められている。   The server 10 searches the parts library based on the position information received in the previous step S201 and the management information received in step S401 (S402). Then, the retrieved parts are collected, parts necessary for expressing the user's face are extracted, a parts library unique to the user is generated, and transmitted to the user side (S403). At this time, the parts included in the user-specific parts library include parts and accessories associated with the current position unique to the local area.

また、本実施形態では、ユーザー固有のパーツライブラリーの付加情報として、管理情報から特定されるユーザーの顔の特徴を利用して、人相占いなども配信できるようになっている。この人相占いも、ユーザーの位置情報と関連付けることができ、ご当地ならではの人相占いが可能となっている。この占いサービスとしては、例えば、パーツライブラリーの付加情報として、地域やパーツの特徴にちなんだ占いの文章などが関連付けられている。   Further, in the present embodiment, fortune telling and the like can be distributed by using the user's facial features specified from the management information as additional information of the user-specific parts library. This fortune-telling can also be associated with the user's location information, making fortune-telling unique to the area. As this fortune-telling service, for example, fortune-telling sentences associated with the characteristics of regions and parts are associated as additional information in the parts library.

このようなパーツライブラリーを受信し、取得した(S305)ユーザー側では、受信したパーツライブラリーと、上記ベクターデータとのサンプリングポイントによる照合が行われ(S306)、パーツが選択され(S307)、キャラが生成される(S309)。   Upon receiving and acquiring such a part library (S305), the user side collates the received part library with the vector data based on sampling points (S306), and selects a part (S307). A character is generated (S309).

このとき、パーツの選択に従って、各パーツに関連付けられた付加情報も抽出され、キャラクター固有の上記付属情報として構成される(308)。具体的には、パーツライブラリーから占い文章が抽出され、パーツの配置情報から相関的な占い文章が抽出される。さらに、ユーザーの生年月日、名前、などの補足情報によっても、占いデータから文章の抽出やキーワードの生成を行う。なお、相性占いなどのときは、相手情報などの蓄積データベースを照合してもよい。このようにして、抽出された占い文章やキーワードを組み合わせて、リクエストに応じた、最終占い文章の構築する。   At this time, additional information associated with each part is also extracted in accordance with the selection of the part, and is configured as the above-mentioned additional information unique to the character (308). Specifically, fortune-telling sentences are extracted from the parts library, and correlated fortune-telling sentences are extracted from the arrangement information of the parts. Furthermore, text is extracted from the fortune-telling data and keywords are generated based on supplementary information such as the user's date of birth and name. In the case of compatibility fortune-telling, an accumulated database of partner information may be collated. In this way, the final fortune-telling text corresponding to the request is constructed by combining the extracted fortune-telling text and keywords.

このようにして、生成されたキャラクターにちなんで構築された占い文章などの付属情報が、生成されたキャラクターに関する情報(管理情報等)とともに、データ蓄積装置108に保存される(S310)。なお、この生成されたキャラクターは、ステップS305で取得されたパーツライブラリーの範囲で変更が可能であり、その変更によってパーツが差替えられた場合には、その新たなパーツにちなんだ人相占いも更新される。なお、データ蓄積装置108に保存された、各キャラクターに関する管理情報や付属情報、関連するパーツライブラリーは、通信インターフェース101を通じて、新規に作成されたり更新されたりした際、或いは定期的に、逐次サーバー10にアップロードされ、又は記憶媒体を通じて書き出しが可能となっており、サーバー10や記憶媒体を介して、他の機器と共有し、同期を取ることができる。   In this way, attached information such as fortune-telling sentences constructed after the generated character is stored in the data storage device 108 together with information about the generated character (management information and the like) (S310). The generated character can be changed within the range of the parts library acquired in step S305, and if the part is replaced due to the change, the fortune-telling associated with the new part is also possible. Updated. It should be noted that the management information and attached information related to each character and the related parts library stored in the data storage device 108 are sequentially created when they are newly created or updated through the communication interface 101 or periodically. 10 can be uploaded to or written out via a storage medium, and can be shared and synchronized with other devices via the server 10 or the storage medium.

(変更例)
さらに、本発明は、上述した実施形態に限定されるものではなく、種々の変更を加えることができる。
(Example of change)
Furthermore, the present invention is not limited to the embodiment described above, and various modifications can be made.

例えば、自動キャラ生成処理に際して、似ている有名人や芸能人とのマッチング処理を付加してもよい。具体的には、有名人などの顔の特徴をサンプリングした管理情報をデータベース化しておき、上記ステップS402におけるパーツライブラリーを検索する際に、そのデータベース化された有名人の管理情報とのマッチングを行い、その合致度に応じて、ある芸能人に似ている度合いをランキング表示したり、最も似ている有名人を紹介するなどのステップを付加してもよい。   For example, in automatic character generation processing, matching processing with similar celebrities and entertainers may be added. Specifically, management information obtained by sampling facial features such as celebrities is stored in a database, and when searching the parts library in step S402, matching is performed with the management information of the celebrities stored in the database. Depending on the degree of match, steps such as ranking the degree of similarity to a certain entertainer or introducing a celebrity who is most similar may be added.

さらに、この自動キャラ生成機能により生成されたキャラクターを、上記第1実施形態で説明したご当地フレーム枠として登場させてもよい。例えば、大仏のカッコをした自動生成キャラが画像枠に描かれていて、撮影された人物は、自分のご当地似顔絵キャラとともに、画像内中央に普通に写るようにしてもよい。   Furthermore, you may make the character produced | generated by this automatic character production | generation function appear as a local frame frame demonstrated in the said 1st Embodiment. For example, an auto-generated character with a big Buddha bracket may be drawn in the image frame, and the photographed person may appear normally in the center of the image along with his local portrait character.

また、他の機能として、既に作成済みの自動生成キャラを使って、顔認識を使って入れ替えるようにしてもよい。すなわち、自動キャラ生成機能で生成した似顔絵キャラクターを、顔検出部107で検出した顔の座標位置に重畳させるなどの付加機能を設ける。例えば、友達を撮影したとして、その友達の体に自分の自動生成キャラの顔をくっつけたり、大仏を撮影して、自動生成キャラにしてみたりなど、種々の編集機能を負荷することができる。   As another function, an automatically generated character that has already been created may be replaced using face recognition. That is, an additional function such as superimposing the portrait character generated by the automatic character generation function on the coordinate position of the face detected by the face detection unit 107 is provided. For example, when a friend is photographed, various editing functions such as attaching the face of his / her automatically generated character to the friend's body or photographing the Great Buddha to make it an automatically generated character can be loaded.

その他、インデックス生成部109で生成するインデックスアイコンとして、自動生成キャラの画像を利用し、インターフェースの地図上に表示する際のインデックスアイコンを似顔絵で表現することもできる。このインデックスアイコンには、撮影場所の位置情報が関連付けられていることから、インデックス情報としてキャラ生成部111bで生成されたご当地キャラクターを含ませることにより、地図上などにご当地キャラ(ご当地ファッションやご当地アクセサリーを付けたキャラクター)を表示させることができる。   In addition, as an index icon generated by the index generation unit 109, an automatically generated character image can be used, and the index icon displayed on the map of the interface can be represented by a portrait. Since this index icon is associated with the location information of the shooting location, by including the local character generated by the character generation unit 111b as index information, the local character (local fashion) is displayed on the map or the like. And characters with local accessories).

このキャラクターで表現されたインデックスアイコンでは、サーバー10などでの情報共有に適している。すなわち、ここでの自動生成キャラは、通常の写真などのビットマップデータよりも、パーツと管理情報で量子化されるため、データサイズを軽くすることができる。この軽くなったデータを利用すると、地図上で、写真を共有するなどの場合に、サーバーからのデータ送信サイズを減らした上で、アイコンとしてわかりやすく表示することができる。   The index icon represented by this character is suitable for information sharing in the server 10 or the like. That is, the automatically generated character here is quantized with parts and management information rather than bitmap data such as a normal photograph, so the data size can be reduced. Using this lightened data, when sharing a photo on a map, the data transmission size from the server can be reduced and displayed as an easy-to-understand icon.

また、本実施形態では、キャラクターを自動生成するため、キャラクターを表現するための各パーツのデータを微細化することができる。詳述すると、ユーザー操作に基づいて一つ一つパーツを手動で選択させるシステムでは、ユーザーの操作性を優先させるためにパーツ数を減らしたり、パーツの位置を段階的に設定させるなど、管理情報を段階的に持つように作成せざるを得ないが、本実施形態のように、自動設定となると、これを無段階にしても、ユーザー操作が煩雑になることはなく、その上、パーツ表現のためのパラメータデータを細かく設定することができる。この結果、占いと連動させた際には、その占いでの評価も、段階的ではなく、オシャレ度23%、相性度97%など、微細な情報でフィードバックすることができる。   In this embodiment, since the character is automatically generated, the data of each part for expressing the character can be miniaturized. In detail, in a system that manually selects parts one by one based on user operations, management information such as reducing the number of parts or setting the position of parts in stages to prioritize user operability. However, if it is set automatically as in this embodiment, the user operation will not be complicated even if it is not stepped. The parameter data for can be set in detail. As a result, when linked with fortune-telling, the fortune-telling evaluation is not stepwise and can be fed back with fine information such as a fashion degree of 23% and a compatibility degree of 97%.

さらに、本実施形態では、自動で似顔絵のキャラクターを生成し、それをサーバー10側で 管理情報として収集することができるため、多数のユーザーから精度の高いデータを蓄積することができ、例えば、相性の良い人を紹介するといった相性占いなどに利用が可能である。   Furthermore, in this embodiment, since a caricature character can be automatically generated and collected as management information on the server 10 side, highly accurate data can be accumulated from a large number of users. It can be used for compatibility hobbies such as introducing good people.

また、生年月日(年齢や星座)字画、カラーなどとの連動も可能であることから、生年月日を利用して、パーツライブラリーのデータを切り替えたり、星座や字画、アクセサリーのカラー(風水系)などとの連動させるようにしてもよい。   In addition, since it can be linked to the date of birth (age and constellation) strokes, colors, etc., you can use the date of birth to switch parts library data, color of constellations, strokes, and accessories (Feng Shui) System) or the like.

(自動キャラ生成機能による効果)
本実施形態に係る自動キャラ生成機能によれば、撮影した顔写真から自動的に顔の特徴を抽出してキャラクターを生成するため、ユーザーに似顔絵のように技量と時間と労力を要する、キャラ作成作業を強いることがないため、今までやりたくても思うようにできなかったユーザーに対し、アバターなどのキャラクター作成を簡単に利用させることができる。
(Effects of automatic character generation function)
According to the automatic character generation function according to this embodiment, a character is created by automatically extracting facial features from a photographed face photo, so that it requires skill, time, and labor like a portrait. Because it does not force you to work, you can easily use the creation of characters such as avatars for users who have never wanted to do so.

また、本実施形態では、サーバー10や各種記憶媒体を通じて、パーソナルコンピュータや家庭用ゲーム機、携帯ゲーム機においてキャラクターの管理情報を送受信して、これらの機器間でキャラクターに関する情報を共有し及び同期させることにより、或いは取り込むことにより、各機器や媒体において、アバターやゲームに登場する、ユーザー固有の同一キャラクターとして継続的に利用することもできる。   In the present embodiment, character management information is transmitted and received in a personal computer, a home game machine, and a portable game machine through the server 10 and various storage media, and information related to the character is shared and synchronized between these devices. By or by taking in, it can be continuously used as the same user-specific character appearing in an avatar or game in each device or medium.

さらに、本実施形態では、自動キャラ生成と占いとを連動させたことから、占いの客観性を担保することができる。すなわち、ユーザーが任意の自分の特徴となるパーツを選択するよりも、撮影された顔写真に基づく占いとなるため、客観的な判断となる。この客観的な判断であるため、ユーザー心理としては、その占いに対する心証が大きく異なる。また、これと併せて、GUI内に擬人化された占い師などを登場させたり、ユーザー同士のマッチングを行う場合に恣意的な要素を排除しやすいなど、利用面でのメリットもある。   Furthermore, in this embodiment, since automatic character generation and fortune-telling are linked, the objectivity of fortune-telling can be ensured. In other words, it is an objective decision because the user is fortune-telling based on the photographed face photo rather than selecting any part that is his / her own characteristic. Since this is an objective judgment, the user's psychology is greatly different from that of fortune-telling. In addition to this, there are also advantages in terms of usage, such as anthropomorphized fortune tellers appearing in the GUI, and it is easy to eliminate arbitrary elements when matching users.

実施形態に係る実施形態に係る合成画像撮影システムの全体構成を示す概念図である。It is a conceptual diagram which shows the whole structure of the composite image imaging | photography system which concerns on embodiment which concerns on embodiment. 第1実施形態に係るデジタルカメラ1a若しくは携帯電話機1bの合成画像撮影機能に係る合成画像撮影ユニット10の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of a composite image capturing unit 10 relating to a composite image capturing function of a digital camera 1a or a mobile phone 1b according to a first embodiment. 第1実施形態に係る合成画像撮影システムの動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the composite image imaging system which concerns on 1st Embodiment. 第1実施形態に係る画像合成処理の説明図である。It is explanatory drawing of the image composition process which concerns on 1st Embodiment. 第1実施形態に係るGUIの操作例を示す説明図である。It is explanatory drawing which shows the example of operation of GUI which concerns on 1st Embodiment. 第1実施形態に係るGUIの画面遷移を示す説明図である。It is explanatory drawing which shows the screen transition of GUI which concerns on 1st Embodiment. 第1実施形態に係るプラネット表示の例を示す画面構成図である。It is a screen block diagram which shows the example of the planet display which concerns on 1st Embodiment. 第1実施形態に係る画像閲覧の操作画面を示す説明図である。It is explanatory drawing which shows the operation screen of image browsing which concerns on 1st Embodiment. 第1実施形態に係る撮像手段の変更例を示す説明図である。It is explanatory drawing which shows the example of a change of the imaging means which concerns on 1st Embodiment. 第1実施形態に係る自動撮影モードの実施例を示す説明図である。It is explanatory drawing which shows the Example of the automatic imaging | photography mode which concerns on 1st Embodiment. 第2実施形態に係るデジタルカメラ1a若しくは携帯電話機1bの合成画像撮影機能に係る合成画像撮影ユニット10の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the composite image imaging | photography unit 10 which concerns on the composite image imaging | photography function of the digital camera 1a or the mobile telephone 1b which concerns on 2nd Embodiment. 第2実施形態に係る合成画像撮影システムの動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the composite image imaging system which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

D1…基本画像
D2,D3…地域画像データ
I3〜I5…インデックスアイコン
M1〜M3…メニューアイコン
W1…プラネット表示画面
W2…アース表示画面
W3…ホーム表示画面
1a…デジタルカメラ
1b…携帯電話機
2…インターネット
3…地域画像配信サーバー
10…合成画像撮影ユニット
11…前面部
12…背面部
21…衛星
22…無線基地局
102…撮像部
103…位置情報取得部
104…画像取得部
105…地図情報取得部
106…シャッター制御部
107…顔検出部
107a…表情認識部
107b…マーキング
108…データ蓄積装置
109…インデックス生成部
110…編集処理部
111…編集データ生成部
111a…画像合成部
111b…キャラ生成部
112…画像合成部
113…データ検出部
114…操作信号取得部
115…表示情報生成部
116…GUI
116a…操作デバイス
116b…画像表示部
D1 ... Basic image D2, D3 ... Regional image data I3-I5 ... Index icon M1-M3 ... Menu icon W1 ... Planet display screen W2 ... Earth display screen W3 ... Home display screen 1a ... Digital camera 1b ... Mobile phone 2 ... Internet 3 DESCRIPTION OF SYMBOLS ... Regional image distribution server 10 ... Composite image photographing unit 11 ... Front part 12 ... Back part 21 ... Satellite 22 ... Wireless base station 102 ... Imaging part 103 ... Position information acquisition part 104 ... Image acquisition part 105 ... Map information acquisition part 106 ... Shutter control unit 107 ... face detection unit 107a ... facial expression recognition unit 107b ... marking 108 ... data storage device 109 ... index generation unit 110 ... edit processing unit 111 ... edit data generation unit 111a ... image composition unit 111b ... character generation unit 112 ... image Synthesizer 113 ... Data detector 14 ... operation signal acquisition unit 115 ... display information generation unit 116 ... GUI
116a: Operation device 116b: Image display unit

Claims (12)

画像を撮影する撮像部と、
撮影時における自機の位置を示す位置情報を取得し、記録する位置情報取得部と、
位置情報に地域画像データを関連付けて蓄積する地域画像蓄積部と、
前記位置情報取得部が記録した撮影時の位置情報に基づいて、前記地域画像蓄積部から、該位置情報に関連付けられた前記地域画像データを選択する画像選択部と、
前記撮影部が撮像した画像を基本画像とし、この基本画像に対して、前記画像選択部が選択した地域画像データを合成する画像合成部と
人物の顔部分を検出するとともに、検出した該顔部分の、前記基本画像中における座標位置を算出する顔検出部と、
前記顔検出部が検出した顔部分を構成する各パーツをベクトルデータとして抽出し、そのベクトルデータで特定される当該顔の特徴を管理情報として生成する管理情報生成部と
を備え
前記地域画像蓄積部は、前記位置情報と、前記管理情報とに関連付けられたパーツを集積したパーツライブラリーを、前記地域画像データの一部として蓄積し、
前記画像選択部は、前記位置情報と前記管理情報とに基づいて、パーツライブラリー中からパーツを抽出し、
前記画像合成部は、前記顔検出部が検出した顔部分の座標位置を基準として、前記基本画像に対して前記地域画像データを合成するとともに、前記抽出されたパーツを合成してキャラクター生成する
ことを特徴とする合成画像撮影システム。
An imaging unit for taking an image;
A position information acquisition unit for acquiring and recording position information indicating the position of the own device at the time of shooting;
A regional image storage unit that stores regional image data in association with location information;
Based on the position information at the time of shooting recorded by the position information acquisition unit, an image selection unit that selects the region image data associated with the position information from the region image storage unit;
An image combined with the image captured by the image capturing unit as a basic image, and the region image data selected by the image selection unit is combined with the basic image ;
A face detection unit for detecting a face portion of a person and calculating a coordinate position of the detected face portion in the basic image;
A management information generation unit that extracts each part constituting the face portion detected by the face detection unit as vector data, and generates a feature of the face specified by the vector data as management information ;
The regional image accumulation unit accumulates a part library in which parts associated with the position information and the management information are accumulated as a part of the regional image data,
The image selection unit extracts parts from a parts library based on the position information and the management information,
The image composition unit synthesizes the regional image data with the basic image based on the coordinate position of the face part detected by the face detection unit, and synthesizes the extracted parts to generate a character. A composite image photographing system characterized by the above.
前記管理情報は、複数の機器間で送受信することにより、これらの機器間で共有及び同期が可能となっているとともに、前記前記キャラクターの生成に際して、当該管理情報と、他のサンプリングによる管理情報とのマッチングを行い、その合致度を表示する
ことを特徴とする請求項1に記載の合成画像撮影システム。
The management information can be shared and synchronized between these devices by transmitting and receiving between a plurality of devices, and when generating the character, the management information and other sampling management information The combined image photographing system according to claim 1, wherein matching is performed and the degree of coincidence is displayed .
撮影対象となる人物の所定の表情を認識する表情認識部をさらに備え、
前記撮像部は、前記表情認識部が、前記表情を認識した瞬間に、自動的に撮影処理を実行する自動撮影機能を有している
ことを特徴とする請求項1に記載の合成画像撮影システム。
A facial expression recognition unit for recognizing a predetermined facial expression of a person to be photographed;
The composite image photographing system according to claim 1, wherein the imaging unit has an automatic photographing function that automatically performs photographing processing at the moment when the facial expression recognition unit recognizes the facial expression. .
前記撮像部により撮影された画像を、前記位置情報取得部が取得した位置情報と関連付けて蓄積するデータ蓄積部と、
地図情報を記憶保持する地図情報記憶部と、
蓄積された画像の位置情報をインデックスとして表示する表示インターフェースと、
前記表示インターフェースに表示された前記インデックスを選択することにより、該当する画像をデータ蓄積部から読み出すデータ検索部と、
をさらに備え、
前記表示インターフェースは、前記地図情報記憶部から、蓄積された各画像の位置情報に応じた地図情報を読み出し、この読み出した該地図情報上における、各位置情報に対応した位置に、各画像の前記インデックスを表示する機能を有する
ことを特徴とする請求項1に記載の合成画像撮影システム。
A data storage unit that stores an image captured by the imaging unit in association with the position information acquired by the position information acquisition unit;
A map information storage unit for storing and holding map information;
A display interface for displaying the stored image position information as an index;
A data search unit that reads out the corresponding image from the data storage unit by selecting the index displayed on the display interface;
Further comprising
The display interface reads map information corresponding to the accumulated position information of each image from the map information storage unit, and the position of each image in the position corresponding to each position information on the read map information. The composite image capturing system according to claim 1, which has a function of displaying an index.
前記表示インターフェースでは、前記地図情報をタッチパネル上に表示された惑星のグラフィックとして表現するとともに、前記インデックスは、前記惑星の緯度及び経度に対応した位置に重畳させて表示され、タッチ操作により前記惑星を公転又は自転させることによって選択可能となっている
ことを特徴とする請求項に記載の合成画像撮影システム。
In the display interface, the map information is expressed as a graphic of the planet displayed on the touch panel, and the index is displayed superimposed on a position corresponding to the latitude and longitude of the planet, and the planet is displayed by a touch operation. The composite image photographing system according to claim 4 , wherein the composite image photographing system is selectable by revolving or rotating .
前記パーツライブラリーでは、該パーツライブラリー内に集積されたパーツ毎に文章情報が付加されており、前記画像合成部によるキャラクター生成において、合成されたパーツの組み合わせに応じて、前記文章情報により文章が構築されることを特徴とする請求項5に記載の合成画像撮影システム。   In the parts library, sentence information is added to each part accumulated in the parts library, and in the character generation by the image composition unit, the sentence information is written according to the combination of the synthesized parts. The composite image photographing system according to claim 5, wherein: 撮像部により画像を撮影する撮像ステップと、
撮影時における自機の位置を示す位置情報を取得し、記録する位置情報取得ステップと、
予め位置情報に地域画像データを関連付けて蓄積した地域画像蓄積部から、前記位置情報取得部が記録した撮影時の位置情報に基づいて、該位置情報に関連付けられた前記地域画像データを選択する画像選択ステップと、
人物の顔部分を検出するとともに、検出した該顔部分の、前記基本画像中における座標位置を算出する顔検出ステップと、
前記撮影部が撮像した画像を基本画像とし、この基本画像に対して、前記画像選択部が選択した地域画像データを合成する画像合成ステップと
前記顔検出ステップで検出した顔部分を構成する各パーツを、ベクトルデータとして抽出し、そのベクトルデータで特定される当該顔の特徴を管理情報として生成するとともに、前記位置情報と前記管理情報とに関連付けられたパーツを、前記地域画像データの一部としてパーツライブラリーに集積する管理情報生成ステップと
を備え
前記画像合成ステップでは、前記顔検出ステップで検出された顔部分の座標位置を基準として、前記基本画像に対して前記地域画像データを合成するとともに、前記パーツライブラリーの中から、前記位置情報と前記管理情報とに基づいて、パーツを抽出し、前記抽出されたパーツを合成してキャラクター生成する
ことを特徴とする合成画像撮影方法。
An imaging step of capturing an image by the imaging unit;
A position information acquisition step for acquiring and recording position information indicating the position of the own device at the time of shooting;
An image for selecting the regional image data associated with the location information based on the location information at the time of shooting recorded by the location information acquisition unit from the regional image storage unit that has previously accumulated the regional image data in association with the location information. A selection step;
A face detecting step for detecting a face portion of a person and calculating a coordinate position of the detected face portion in the basic image;
An image synthesis step of synthesizing the regional image data selected by the image selection unit with the basic image that is an image captured by the imaging unit ;
Each part constituting the face portion detected in the face detection step is extracted as vector data, the feature of the face specified by the vector data is generated as management information, and the position information and the management information are A management information generation step of accumulating the associated parts in a parts library as a part of the regional image data ,
In the image synthesis step, the area image data is synthesized with the basic image on the basis of the coordinate position of the face portion detected in the face detection step, and the position information and the position information are extracted from the part library. A composite image photographing method , wherein parts are extracted based on the management information, and characters are generated by synthesizing the extracted parts .
前記管理情報は、複数の機器間で送受信することにより、これらの機器間で共有及び同期が可能となっているとともに、前記前記キャラクターの生成に際して、当該管理情報と、他のサンプリングによる管理情報とのマッチングを行い、その合致度を表示する
ことを特徴とする請求項7に記載の合成画像撮影方法。
The management information can be shared and synchronized between these devices by transmitting and receiving between a plurality of devices, and when generating the character, the management information and other sampling management information The combined image photographing method according to claim 7, wherein matching is performed and the degree of coincidence is displayed .
前記撮像ステップに先行させて、撮影対象となる人物の所定の表情を認識する表情認識ステップをさらに含み、
前記撮像ステップでは、前記表情認識ステップにおいて、前記表情を認識した瞬間に、自動的に撮影処理を実行する
ことを特徴とする請求項7に記載の合成画像撮影方法。
Prior to the imaging step, further comprising a facial expression recognition step for recognizing a predetermined facial expression of a person to be photographed,
8. The composite image photographing method according to claim 7, wherein in the imaging step, photographing processing is automatically executed at the moment when the facial expression is recognized in the facial expression recognition step.
前記撮像部により撮影された画像を、前記位置情報取得部が取得した位置情報と関連付けてデータ蓄積部に蓄積するデータ蓄積ステップと、
蓄積された画像の位置情報を表示インターフェースにインデックスとして表示するとともに、表示された前記インデックスを選択することにより、該当する画像をデータ蓄積部から読み出すデータ検索ステップと、
をさらに含む、
前記表示インターフェースは、地図情報を記憶保持する地図情報記憶部から、蓄積された各画像の位置情報に応じた地図情報を読み出し、この読み出した該地図情報上における、各位置情報に対応した位置に、各画像の前記インデックスを表示する
ことを特徴とする請求項7に記載の合成画像撮影方法。
A data storage step of storing an image captured by the imaging unit in a data storage unit in association with the position information acquired by the position information acquisition unit;
A data search step of displaying the position information of the stored image as an index on the display interface and reading the corresponding image from the data storage unit by selecting the displayed index;
Further including
The display interface reads map information corresponding to the accumulated position information of each image from a map information storage unit that stores and holds the map information, and sets the position corresponding to each position information on the read map information. The composite image capturing method according to claim 7, wherein the index of each image is displayed.
前記表示インターフェースでは、前記地図情報をタッチパネル上に表示された惑星のグラフィックとして表現するとともに、前記インデックスは、前記データ検索ステップにおいて、前記惑星の緯度及び経度に対応した位置に重畳させて表示され、タッチ操作により前記惑星を公転又は自転させることによって選択可能となっている
ことを特徴とする請求項10に記載の合成画像撮影方法。
In the display interface, the map information is expressed as a graphic of the planet displayed on the touch panel, and the index is displayed superimposed on a position corresponding to the latitude and longitude of the planet in the data search step, The composite image capturing method according to claim 10 , wherein selection is possible by revolving or rotating the planet by a touch operation .
前記パーツライブラリーでは、該パーツライブラリー内に集積されたパーツ毎に文章情報が付加されており、前記画像合成ステップによるキャラクター生成において、合成されたパーツの組み合わせに応じて、前記文章情報により文章が構築されることを特徴とする請求項11に記載の合成画像撮影方法。   In the parts library, sentence information is added to each part accumulated in the parts library, and in the character generation by the image composition step, the sentence information is written according to the combination of the synthesized parts. The composite image capturing method according to claim 11, wherein:
JP2008164908A 2008-06-24 2008-06-24 Composite image photographing system and composite image photographing method Active JP5102708B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008164908A JP5102708B2 (en) 2008-06-24 2008-06-24 Composite image photographing system and composite image photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008164908A JP5102708B2 (en) 2008-06-24 2008-06-24 Composite image photographing system and composite image photographing method

Publications (2)

Publication Number Publication Date
JP2010010816A JP2010010816A (en) 2010-01-14
JP5102708B2 true JP5102708B2 (en) 2012-12-19

Family

ID=41590832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008164908A Active JP5102708B2 (en) 2008-06-24 2008-06-24 Composite image photographing system and composite image photographing method

Country Status (1)

Country Link
JP (1) JP5102708B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458411B2 (en) * 2010-03-12 2014-04-02 独立行政法人情報通信研究機構 Photographed image display device, photographed image display method, and electronic map output by photographed image display method
US8275375B2 (en) * 2010-03-25 2012-09-25 Jong Hyup Lee Data integration for wireless network systems
JP5604741B2 (en) * 2010-06-08 2014-10-15 株式会社日立国際電気 Recording edit transmission system and video operation terminal
JP6574951B2 (en) * 2017-08-23 2019-09-18 加賀デバイス株式会社 PHOTOGRAPHY GAME DEVICE, PHOTOGRAPHY GAME DEVICE CONTROL METHOD, AND PHOTOGRAPHY GAME DEVICE CONTROL PROGRAM

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3796797B2 (en) * 1996-02-27 2006-07-12 カシオ計算機株式会社 Object image creation device and object image creation method
JPH1175152A (en) * 1997-08-27 1999-03-16 Daishin Home Kk Image processing unit
JP2004015187A (en) * 2002-06-04 2004-01-15 Fuji Photo Film Co Ltd Photographing auxiliary system, digital camera, and server
JP2004214920A (en) * 2002-12-27 2004-07-29 Canon Finetech Inc Imaging device, server, and printer device
JP2007026090A (en) * 2005-07-15 2007-02-01 Oki Electric Ind Co Ltd Video preparation device
JP2007067560A (en) * 2005-08-29 2007-03-15 Canon Inc Imaging apparatus and its control method, computer program and recording medium
JP2007135069A (en) * 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus
JP4507281B2 (en) * 2006-03-30 2010-07-21 富士フイルム株式会社 Image display device, imaging device, and image display method

Also Published As

Publication number Publication date
JP2010010816A (en) 2010-01-14

Similar Documents

Publication Publication Date Title
CN111243632B (en) Multimedia resource generation method, device, equipment and storage medium
JP5872142B2 (en) UI providing method and display device using the same
JP5611829B2 (en) Operation control system and operation control method for information processing apparatus
US9471600B2 (en) Electronic device and method for handling tags
WO2010047336A1 (en) Image photographing system and image photographing method
CN113727012B (en) Shooting method and terminal
JP2011008397A (en) Makeup support apparatus, makeup support method, makeup support program and portable terminal device
JP2009253931A (en) Electronic data editing device and method, and program
US20230336671A1 (en) Imaging apparatus
JP5102708B2 (en) Composite image photographing system and composite image photographing method
CN112632445A (en) Webpage playing method, device, equipment and storage medium
KR101871779B1 (en) Terminal Having Application for taking and managing picture
JP2007266902A (en) Camera
JP5024028B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2022002393A (en) Image processing device, image data providing device, photographing game device, image data providing system, image display method, and image display program
JP2007166383A (en) Digital camera, image composing method, and program
CN115225756A (en) Method for determining target object, shooting method and device
CN112764601B (en) Information display method and device and electronic equipment
JP5218687B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2005107988A (en) Image output device, image output method, image output processing program, image delivery server and image delivery processing program
JP2017092528A (en) Imaging apparatus, imaging method, image management system, and program
CN115767291A (en) Virtual photographing method, device, equipment and storage medium
JP2021005879A (en) Imaging apparatus and display method for the same
CN113012040A (en) Image processing method, image processing device, electronic equipment and storage medium
KR20060009712A (en) A apparatus and method for composing text and photo-image using touch screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120905

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120928

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5102708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250