JP5634910B2 - Portable information terminal device - Google Patents

Portable information terminal device Download PDF

Info

Publication number
JP5634910B2
JP5634910B2 JP2011028806A JP2011028806A JP5634910B2 JP 5634910 B2 JP5634910 B2 JP 5634910B2 JP 2011028806 A JP2011028806 A JP 2011028806A JP 2011028806 A JP2011028806 A JP 2011028806A JP 5634910 B2 JP5634910 B2 JP 5634910B2
Authority
JP
Japan
Prior art keywords
image data
user
position information
information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011028806A
Other languages
Japanese (ja)
Other versions
JP2012169837A (en
Inventor
萌樹 小澤
萌樹 小澤
和典 森下
和典 森下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011028806A priority Critical patent/JP5634910B2/en
Publication of JP2012169837A publication Critical patent/JP2012169837A/en
Application granted granted Critical
Publication of JP5634910B2 publication Critical patent/JP5634910B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、携帯情報端末装置に係り、更に詳しくは、位置情報を取得可能な携帯情報端末装置の改良に関する。   The present invention relates to a portable information terminal device, and more particularly to an improvement of a portable information terminal device capable of acquiring position information.

被写体を撮影して画像データを生成するとともに、例えば、GPS(Global Positioning System:全地球測位システム)衛星からの信号を受信することにより、位置情報を取得することができる携帯情報端末装置が従来から知られている。この様な携帯情報端末装置では、画像データにその撮影位置を対応づけて保持し、ユーザが撮影位置を指定することにより、その撮影位置に対応する画像データを表示することができる。また、表示画面に地図を表示し、この地図上でいずれかの位置が指定された場合に、指定された位置の周辺で撮影された画像データを表示することができる(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a portable information terminal device that can capture position information by capturing a subject and generating image data and receiving a signal from, for example, a GPS (Global Positioning System) satellite Are known. In such a portable information terminal device, it is possible to display image data corresponding to the shooting position by holding the shooting position in association with the image data and designating the shooting position by the user. Further, when a map is displayed on the display screen and any position is designated on the map, image data photographed around the designated position can be displayed (for example, Patent Document 1). .

更に、特許文献2には、撮影時に位置情報の取得に失敗した場合に、撮影時の前後に取得された位置情報を撮影位置として画像データに対応づけることが記載されている。この場合、撮影時に位置情報の取得に失敗した画像データについても、撮影位置と対応づけて保持することができる。   Further, Japanese Patent Application Laid-Open No. 2004-228620 describes that, when acquisition of position information fails during shooting, the position information acquired before and after shooting is associated with image data as a shooting position. In this case, even image data for which position information acquisition has failed during shooting can be held in association with the shooting position.

特開2001−289650JP 2001-289650 A 特開2009−147694JP 2009-147694 A

一般に、携帯情報端末装置では、他の撮像装置で撮影された画像データが入力されたときに、当該画像データに撮影位置が対応づけられていないことがある。この場合、特許文献2に記載の構成では、他の撮像装置により撮影が行われた時刻に携帯情報端末装置で取得された位置情報が、撮影位置として画像データに対応づけられる。このため、携帯情報端末装置が撮影時刻に他の撮像装置と近い位置にあった場合には、画像データに撮影位置を対応づけることができるが、携帯情報端末装置が撮影時刻に他の撮像装置から離れていた場合には、画像データに誤った撮影位置が対応づけられてしまうという問題があった。   Generally, in a portable information terminal device, when image data captured by another imaging device is input, the imaging position may not be associated with the image data. In this case, in the configuration described in Patent Document 2, position information acquired by the portable information terminal device at the time when shooting is performed by another imaging device is associated with image data as a shooting position. For this reason, when the portable information terminal device is at a position close to another imaging device at the photographing time, the photographing position can be associated with the image data. When the user is away from the camera, there is a problem that an incorrect shooting position is associated with the image data.

本発明は、上記の事情に鑑みてなされたものであり、他の撮像装置により撮影された画像データが入力された場合に、この画像データの撮影位置を判別することのできる携帯情報端末装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and a portable information terminal device capable of determining the shooting position of image data when image data shot by another imaging device is input. The purpose is to provide.

第1の本発明による携帯情報端末装置は、位置情報を取得する位置情報取得手段と、上記位置情報に対し、当該位置情報の取得時刻を対応づけた移動履歴情報を保持する移動履歴記憶手段と、ユーザの特徴情報を保持する特徴情報記憶手段と、撮影時刻が対応づけられた画像データを入力するための画像入力手段と、上記特徴情報に基づいて、上記画像データに被写体として上記ユーザが含まれているか否かを判別する被写体判別手段と、上記被写体判別手段の判別結果に基づいて、上記移動履歴記憶手段内の上記位置情報を上記画像データに対応づける撮影位置判別手段とを備え、上記撮影位置判別手段が、上記撮影時刻と上記移動履歴記憶手段内の上記取得時刻とを比較することにより、上記位置情報を上記画像データに対応づけるように構成される。   The portable information terminal device according to the first aspect of the present invention includes a position information acquisition unit that acquires position information, a movement history storage unit that stores movement history information in which the position information acquisition time is associated with the position information. A feature information storage unit for storing user feature information; an image input unit for inputting image data associated with a shooting time; and the image data includes the user as a subject based on the feature information. Subject discrimination means for discriminating whether or not the image is detected, and imaging position discrimination means for associating the position information in the movement history storage means with the image data based on the discrimination result of the subject discrimination means, The photographing position determining means associates the position information with the image data by comparing the photographing time with the acquisition time in the movement history storage means. Constructed.

この様な構成によれば、入力された画像データに被写体としてユーザが含まれているか否かの判別が行われ、その判別結果に基づいて、画像データが、撮影時刻の前後に取得された位置情報に対応づけられる。従って、他人の撮像装置により撮像された画像データについて、撮影位置を判別する場合の信頼性を向上させることができる。   According to such a configuration, it is determined whether or not the user is included as a subject in the input image data, and based on the determination result, the position where the image data is acquired before and after the shooting time. Corresponds to information. Therefore, it is possible to improve the reliability in determining the shooting position for image data captured by another person's imaging device.

第2の本発明による携帯情報端末装置は、上記構成に加え、ユーザ操作に基づいて、被写体を撮影するための撮像手段を備え、上記位置情報取得手段が、上記ユーザ操作に基づいて、上記位置情報を取得するように構成される。   A portable information terminal device according to a second aspect of the present invention includes, in addition to the above configuration, an imaging unit for capturing an image of a subject based on a user operation, and the position information acquisition unit includes the position information based on the user operation. It is configured to obtain information.

この様な構成によれば、被写体を撮影するためのユーザ操作に基づいて、位置情報の取得が行われる。通常、被写体を撮影するためのユーザ操作が行われるときには、ユーザが他の撮像装置により撮影されることが多い。このため、ユーザの撮影操作に基づいて位置情報を取得し、移動履歴情報として保持することにより、ユーザが撮影されている画像データがその後に入力された場合に、この位置情報を対応づけることができる。この場合、高い頻度で位置情報を取得しなくても、位置情報を精度良く対応づけることができるので、消費電力を低減することができる。   According to such a configuration, position information is acquired based on a user operation for photographing a subject. Normally, when a user operation for photographing a subject is performed, the user is often photographed by another imaging device. For this reason, position information is acquired based on the user's shooting operation and held as movement history information, so that when the image data being shot by the user is subsequently input, the position information can be associated. it can. In this case, the position information can be associated with high accuracy without acquiring the position information frequently, so that power consumption can be reduced.

第3の本発明による携帯情報端末装置は、上記構成に加え、上記位置情報取得手段が、第1の周期ごとに上記位置情報を取得するとともに、被写体を撮影するためのユーザ操作に基づいて、第1の周期よりも短い第2の周期ごとに上記位置情報を取得するように構成される。   In addition to the above configuration, the portable information terminal device according to a third aspect of the present invention is configured so that the position information acquisition unit acquires the position information for each first period and is based on a user operation for photographing a subject. It is comprised so that the said positional information may be acquired for every 2nd period shorter than a 1st period.

この様な構成によれば、被写体を撮影するためのユーザ操作に基づいて、位置情報を取得する頻度をより高くしている。このため、ユーザが他人から撮影される可能性が高いと予想される場合に、高頻度で位置情報を取得することができる。従って、消費電力を低減しつつ、被写体としてユーザが含まれている画像データについて、撮像位置を精度良く判別することができる。   According to such a configuration, the frequency of acquiring the position information is increased based on the user operation for photographing the subject. For this reason, when it is predicted that the user is likely to be photographed by another person, the position information can be acquired with high frequency. Therefore, it is possible to accurately determine the imaging position of image data including a user as a subject while reducing power consumption.

第4の本発明による携帯情報端末装置は、上記構成に加え、上記撮影位置判別手段が、上記撮影時刻を上記移動履歴記憶手段内の上記取得時刻と比較する時刻比較手段と、上記画像データに被写体として上記ユーザが含まれていると判別された場合に、上記時刻比較手段の比較結果に基づいて、上記画像データの撮影位置として、上記移動履歴記憶手段内の上記位置情報を選択する位置情報選択手段とを有するように構成される。   In addition to the above configuration, the portable information terminal device according to the fourth aspect of the present invention includes a time comparison unit in which the imaging position determination unit compares the imaging time with the acquisition time in the movement history storage unit, and the image data. Position information for selecting the position information in the movement history storage means as the shooting position of the image data based on the comparison result of the time comparison means when it is determined that the user is included as a subject And selecting means.

この様な構成によれば、画像データに被写体としてユーザが含まれていると判別された場合に、画像データが、撮影時刻の前後に取得された位置情報に対応づけられるので、撮影位置を判別する場合の信頼性を向上させることができる。   According to such a configuration, when it is determined that the user is included as a subject in the image data, the image data is associated with the position information acquired before and after the shooting time, so the shooting position is determined. Reliability can be improved when doing so.

第5の本発明による携帯情報端末装置は、上記構成に加え、上記位置情報選択手段が、上記撮影時刻に最も近い上記取得時刻に対応づけられた上記位置情報を選択するように構成される。   In addition to the above configuration, the portable information terminal device according to the fifth aspect of the present invention is configured such that the position information selection unit selects the position information associated with the acquisition time closest to the shooting time.

この様な構成によれば、撮影時刻に最も近い時刻に取得された位置情報が撮影位置として選択されるので、撮影位置を精度良く選択することができる。   According to such a configuration, since the position information acquired at the time closest to the shooting time is selected as the shooting position, the shooting position can be selected with high accuracy.

第6の本発明による携帯情報端末装置は、上記構成に加え、上記特徴情報記憶手段が、顔画像から抽出された上記ユーザの特徴情報を保持し、上記被写体判別手段が、上記顔画像から抽出された特徴情報と上記画像データから抽出された特徴情報とを比較することにより、当該画像データに被写体として上記ユーザが含まれているか否かを判別するように構成される。   According to a sixth aspect of the present invention, in addition to the above configuration, the feature information storage unit holds the user feature information extracted from the face image, and the subject determination unit extracts the face image from the face image. By comparing the feature information obtained and the feature information extracted from the image data, it is configured to determine whether or not the user is included as a subject in the image data.

第7の本発明による携帯情報端末装置は、上記構成に加え、上記撮影位置判別手段により上記位置情報が対応づけられた上記画像データを保持する画像データ記憶手段と、ユーザの操作入力に基づいて、エリアを指定するエリア指定手段と、上記エリアを上記画像データ記憶手段に保持されている上記画像データの上記位置情報と比較する位置比較手段と、上記位置比較手段の比較結果に基づいて、上記画像データを閲覧するための画面データを生成する画像閲覧画面生成手段とを備えて構成される。

According to a seventh aspect of the present invention, in addition to the above- described configuration, the portable information terminal device is based on image data storage means for holding the image data associated with the position information by the photographing position determination means , and user operation input. Based on the comparison result of the area specifying means for specifying the area, the position comparing means for comparing the area with the position information of the image data held in the image data storage means, and the position comparing means. Image browsing screen generation means for generating screen data for browsing the image data.

この様な構成によれば、ユーザは、エリアを指定することにより、このエリアで撮影された画像データを表示させることができる。従って、ユーザが任意のエリアで撮影された画像データを容易に表示させることができるので、利便性が高い。   According to such a configuration, the user can display image data captured in this area by designating the area. Therefore, the user can easily display image data taken in an arbitrary area, which is highly convenient.

本発明による携帯情報端末装置では、入力された画像データに被写体としてユーザが含まれているか否かの判別が行われ、その判別結果に基づいて、画像データが、撮影時刻の前後に取得された位置情報に対応づけられる。従って、他人の撮像装置により撮像された画像データについて、撮影位置を判別する場合の信頼性を向上させることができる。   In the portable information terminal device according to the present invention, it is determined whether or not the user is included as a subject in the input image data, and based on the determination result, the image data is acquired before and after the shooting time. Corresponding to position information. Therefore, it is possible to improve the reliability in determining the shooting position for image data captured by another person's imaging device.

特に、被写体を撮影するためのユーザ操作に基づいて、位置情報の取得が行われるので、ユーザが撮影されている画像データがその後に入力された場合に、この位置情報を対応づけることができる。この場合、高い頻度で位置情報を取得しなくても、位置情報を精度良く対応づけることができるので、消費電力を低減することができる。   In particular, since position information is acquired based on a user operation for photographing a subject, the position information can be associated when image data of a photographed user is subsequently input. In this case, the position information can be associated with high accuracy without acquiring the position information frequently, so that power consumption can be reduced.

本発明の実施の形態による携帯情報端末装置の概略構成の一例を示した外観図である。It is the external view which showed an example of schematic structure of the portable information terminal device by embodiment of this invention. 図1の携帯電話機100の電気的構成の一例を示したブロック図である。2 is a block diagram showing an example of an electrical configuration of the mobile phone 100 of FIG. 図2の携帯電話機100の要部についての一構成例を示したブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a main part of the mobile phone 100 in FIG. 2. 図3の被写体判別部49の構成例を示したブロック図である。FIG. 4 is a block diagram illustrating a configuration example of a subject determination unit 49 in FIG. 3. 図1の携帯電話機100に用いられる移動履歴情報の一例を示した図である。It is the figure which showed an example of the movement history information used for the mobile telephone 100 of FIG. ユーザを表す画像の登録画面の表示例を示した図である。It is a figure showing the example of a display of the registration screen of the picture showing a user. 画像データに撮影位置を対応づけることをユーザに促す確認画面の表示例を示した図である。It is the figure which showed the example of a display of the confirmation screen which prompts a user to make an imaging | photography position match with image data. 図1の携帯電話機100における撮影位置の追加処理の一例を示したフローチャートである。3 is a flowchart illustrating an example of a shooting position addition process in the mobile phone 100 of FIG. 1. 図1の携帯電話機100における画像選択処理の一例を示したフローチャートである。3 is a flowchart showing an example of image selection processing in the mobile phone 100 of FIG. 本発明の実施の形態2による携帯電話機100の要部についての一構成例を示したブロック図である。It is the block diagram which showed one structural example about the principal part of the mobile telephone 100 by Embodiment 2 of this invention. 図10の携帯電話機100における撮影位置の追加処理の一例を示したフローチャートである。11 is a flowchart showing an example of a shooting position addition process in the mobile phone 100 of FIG.

実施の形態1.
図1は、本発明の実施の形態による携帯情報端末装置の概略構成の一例を示した外観図であり、携帯情報端末装置の一例としてGPS機能を有するカメラ付の携帯電話機100が示されている。図1(a)には、表示筐体10及び操作筐体20を展開させたオープン状態の場合が示され、図1(b)には、両筐体を折り畳んだクローズ状態の場合が示されている。
Embodiment 1 FIG.
FIG. 1 is an external view showing an example of a schematic configuration of a portable information terminal device according to an embodiment of the present invention. As an example of the portable information terminal device, a mobile phone 100 with a camera having a GPS function is shown. . FIG. 1A shows an open state in which the display housing 10 and the operation housing 20 are unfolded, and FIG. 1B shows a closed state in which both housings are folded. ing.

携帯電話機100では、GPS信号の受信データに基づいて位置情報を取得し、移動履歴情報として格納している。このため、他の撮像装置で撮影された画像データが入力された場合に、この画像データの撮影時刻に携帯電話機100で取得された位置情報をこの画像データに撮影位置として対応づけることができる。その際、画像データに被写体としてユーザが含まれているか否かの判別を行って、携帯電話機100の近くで画像データの撮影が行われたことを確認することにより、画像データに対応づける撮影位置の信頼性を向上させることができる。   In the mobile phone 100, position information is acquired based on GPS signal reception data and stored as movement history information. For this reason, when image data captured by another image capturing apparatus is input, position information acquired by the mobile phone 100 at the time of capturing the image data can be associated with the image data as a capturing position. At that time, it is determined whether or not the user is included as a subject in the image data, and by confirming that the image data has been photographed near the mobile phone 100, a photographing position associated with the image data. Reliability can be improved.

この携帯電話機100は、折り畳み式の携帯電話機であり、メインディスプレイ11を有する表示筐体10と、複数の操作キー21を有する操作筐体20と、表示筐体10及び操作筐体20を連結するヒンジ部30からなる。   The mobile phone 100 is a foldable mobile phone, and connects the display housing 10 having the main display 11, the operation housing 20 having a plurality of operation keys 21, the display housing 10 and the operation housing 20. It consists of a hinge part 30.

メインディスプレイ11は、表示筐体10の一主面に配置された表示装置である。表示筐体10には、メインディスプレイ11と同じ側に受話用のレシーバ12及びサブカメラ15、反対側にサブディスプレイ13及びメインカメラ14が配置されている。   The main display 11 is a display device arranged on one main surface of the display housing 10. In the display housing 10, a receiver 12 and a sub camera 15 for receiving are arranged on the same side as the main display 11, and a sub display 13 and a main camera 14 are arranged on the opposite side.

操作筐体20には、2以上の操作キー21と、送話用のマイクロホン22とが配置されている。メインカメラ14及びサブカメラ15は、ユーザ操作に基づいて、被写体を撮影する撮像手段である。ここでは、操作キー21を操作することによってカメラ画像が保存用に取り込まれる。   The operation casing 20 is provided with two or more operation keys 21 and a microphone 22 for transmission. The main camera 14 and the sub camera 15 are imaging means for photographing a subject based on a user operation. Here, the camera image is taken in for storage by operating the operation key 21.

図2は、図1の携帯電話機100の電気的構成の一例を示したブロック図である。この携帯電話機100は、プロセッサからなる端末制御部44、並びに、この端末制御部44によりそれぞれ制御可能なセルラー通信部41、近距離無線通信部42、GPS受信部43、操作キー21、メインディスプレイ11、メインカメラ14、サブカメラ15及びデータ入出力部45を備えて構成される。   FIG. 2 is a block diagram showing an example of the electrical configuration of the mobile phone 100 of FIG. The mobile phone 100 includes a terminal control unit 44 composed of a processor, a cellular communication unit 41, a short-range wireless communication unit 42, a GPS reception unit 43, an operation key 21, and a main display 11 that can be controlled by the terminal control unit 44, respectively. The main camera 14, the sub camera 15, and the data input / output unit 45 are provided.

セルラー通信部41は、アンテナを介して基地局との間で電波の送受信を行っている。近距離無線通信部42は、近距離通信用のアンテナ及び赤外線の投受光器を介して他の携帯電話機との間でデータの送受信を行う近距離データ通信処理手段である。ここでは、ブルートゥース(Bluetooth:登録商標)や赤外線通信により画像データの送受信が行われる。   The cellular communication unit 41 transmits and receives radio waves to and from the base station via an antenna. The short-range wireless communication unit 42 is a short-range data communication processing unit that transmits and receives data to and from another mobile phone via a short-range communication antenna and an infrared light emitter / receiver. Here, image data is transmitted and received by Bluetooth (registered trademark) or infrared communication.

GPS受信部43は、一定周期ごとにGPS衛星からの信号を受信し、このGPS信号の受信データを端末制御部44へ出力する動作を行っている。データ入出力部45は、カードスロット内に収容されたメモリーカードに対して、データの入出力を行う外部インターフェースである。   The GPS receiving unit 43 performs an operation of receiving a signal from a GPS satellite at regular intervals and outputting received data of the GPS signal to the terminal control unit 44. The data input / output unit 45 is an external interface for inputting / outputting data to / from the memory card accommodated in the card slot.

図3は、図2の携帯電話機100の要部についての一構成例を示したブロック図であり、端末制御部44内の機能構成の一例が示されている。端末制御部44は、位置情報取得部46、移動履歴記憶部47、画像入力部48、被写体判別部49、特徴情報記憶部50、撮影位置判別部51、画像データ記憶部52、エリア指定部53、位置比較部54及び画像閲覧画面生成部55により構成される。   FIG. 3 is a block diagram showing a configuration example of a main part of the mobile phone 100 of FIG. 2, and shows an example of a functional configuration in the terminal control unit 44. The terminal control unit 44 includes a position information acquisition unit 46, a movement history storage unit 47, an image input unit 48, a subject determination unit 49, a feature information storage unit 50, a shooting position determination unit 51, an image data storage unit 52, and an area specification unit 53. The position comparison unit 54 and the image browsing screen generation unit 55 are configured.

位置情報取得部46は、GPS受信部43によるGPS信号の受信データに基づいて、現在位置を示す位置情報を取得する動作を行っている。位置情報は、複数のGPS衛星からの信号の受信結果を解析することによって判定され、例えば、緯度及び経度によって表される。また、セルラー通信部41の通信先の基地局を識別する位置情報を取得することにより、携帯電話機100がどの基地局のサービスエリア内に位置しているかを判別する構成であってもよい。ここでは、位置情報取得部46は、一定周期ごとに位置情報を取得しているものとする。   The position information acquisition unit 46 performs an operation of acquiring position information indicating the current position based on the reception data of the GPS signal by the GPS reception unit 43. The position information is determined by analyzing the reception results of signals from a plurality of GPS satellites, and is represented by latitude and longitude, for example. Further, the base station may be configured to determine in which service area the mobile phone 100 is located by acquiring position information for identifying a base station with which the cellular communication unit 41 communicates. Here, it is assumed that the position information acquisition unit 46 acquires position information at regular intervals.

移動履歴記憶部47は、位置情報取得部46により取得された位置情報にその取得時刻を対応づけた移動履歴情報を保持している。画像入力部48は、画像データを入力するための入力手段であり、例えば、受信メールに添付された画像データがセルラー通信部41を介して入力される。また、メモリーカード内に保持された画像データがデータ入出力部45を介して入力される構成であってもよい。ここでは、画像データがブルートゥースにより近距離無線通信部42を介して入力されるものとする。また、入力された画像データは、その撮影時刻が対応づけられている。   The movement history storage unit 47 holds movement history information in which the acquisition time is associated with the position information acquired by the position information acquisition unit 46. The image input unit 48 is an input unit for inputting image data. For example, image data attached to a received mail is input via the cellular communication unit 41. Alternatively, the image data held in the memory card may be input via the data input / output unit 45. Here, it is assumed that image data is input via the short-range wireless communication unit 42 by Bluetooth. The input image data is associated with the shooting time.

被写体判別部49は、特徴情報記憶部50に予め保持されているユーザの特徴情報に基づいて、画像データに被写体としてユーザが含まれているか否かを判別する動作を行っている。具体的には、ユーザの顔画像から抽出されて特徴情報記憶部50内に予め保持されている特徴情報と、画像データから抽出された特徴情報とを比較することにより、当該画像データに被写体としてユーザが含まれているか否かが判別される。特徴情報記憶部50には、ユーザの特徴情報が保持されている。より詳しくは、ユーザの顔画像から抽出された特徴情報、例えば、ユーザの目、鼻、口及び輪郭といった顔の各部分についての形や大きさなどの特徴情報が保持されている。   The subject determination unit 49 performs an operation of determining whether or not the user is included as a subject in the image data based on the user feature information previously stored in the feature information storage unit 50. Specifically, by comparing the feature information extracted from the user's face image and stored in advance in the feature information storage unit 50 with the feature information extracted from the image data, the image data is used as a subject. It is determined whether or not a user is included. The feature information storage unit 50 holds user feature information. More specifically, feature information extracted from the user's face image, for example, feature information such as the shape and size of each part of the face such as the user's eyes, nose, mouth, and contour is held.

撮影位置判別部51は、被写体判別部49の判別結果に基づいて、移動履歴記憶部47に保持されている位置情報を画像データに対応づける動作を行っている。この場合、画像データの撮影時刻と、移動履歴記憶部47内に保持されている移動履歴情報の取得時刻とを比較することにより、位置情報が画像データに対応づけられる。具体的には、画像データに被写体としてユーザが含まれている場合に、この画像データが携帯電話機100の近くで撮影されたものとして判断し、移動履歴記憶部47に保持されている位置情報を画像データに対応づけている。一方、画像データに被写体としてユーザが含まれていない場合には、画像データの撮影位置の判別は行われない。   The shooting position determination unit 51 performs an operation of associating position information held in the movement history storage unit 47 with image data based on the determination result of the subject determination unit 49. In this case, the position information is associated with the image data by comparing the photographing time of the image data with the acquisition time of the movement history information held in the movement history storage unit 47. Specifically, when the user is included as a subject in the image data, it is determined that the image data is taken near the mobile phone 100 and the position information held in the movement history storage unit 47 is determined. Corresponds to image data. On the other hand, when the user is not included as a subject in the image data, the shooting position of the image data is not determined.

この撮影位置判別部51は、時刻比較部511及び位置情報選択部512からなる。時刻比較部511は、画像データの撮影時刻と移動履歴情報の取得時刻とを比較する動作を行っている。例えば、移動履歴記憶部47内に保持されている取得時刻のうち、画像データの撮影時刻に最も近い取得時刻を判別している。また、画像データの撮影時刻より前の取得時刻であって、画像データの撮影時刻に最も近い取得時刻を判別する構成であってもよい。ここでは、時刻比較部511が、移動履歴記憶部47内に保持されている取得時刻のうち、画像データの撮影時刻に最も近い取得時刻を判別するものとして説明する。   The photographing position determination unit 51 includes a time comparison unit 511 and a position information selection unit 512. The time comparison unit 511 performs an operation of comparing the image data capture time and the movement history information acquisition time. For example, the acquisition time closest to the imaging time of the image data among the acquisition times held in the movement history storage unit 47 is determined. Further, it may be configured to determine an acquisition time that is earlier than the image data shooting time and that is closest to the image data shooting time. Here, description will be made assuming that the time comparison unit 511 determines the acquisition time closest to the imaging time of the image data among the acquisition times held in the movement history storage unit 47.

位置情報選択部512は、画像データに被写体としてユーザが含まれていると被写体判別部49により判別された場合に、時刻比較部511の比較結果に基づいて、移動履歴記憶部47内の位置情報を画像データの撮影位置として選択する動作を行っている。例えば、画像データの撮影時刻に最も近いと時刻比較部511により判別された取得時刻に対応づけられた位置情報を撮影位置として選択している。一方、画像データに被写体としてユーザが含まれていないと被写体判別部49により判別された場合には、位置情報の選択は行われない。画像データ記憶部52は、画像データと位置情報選択部512により選択された撮影位置とを対応づけて保持している。   The position information selection unit 512 determines the position information in the movement history storage unit 47 based on the comparison result of the time comparison unit 511 when the subject determination unit 49 determines that the user is included in the image data. Is selected as the shooting position of the image data. For example, the position information associated with the acquisition time determined by the time comparison unit 511 to be closest to the image data shooting time is selected as the shooting position. On the other hand, if the subject discrimination unit 49 determines that the user is not included as a subject in the image data, the position information is not selected. The image data storage unit 52 holds the image data and the shooting position selected by the position information selection unit 512 in association with each other.

エリア指定部53は、ユーザの操作入力に基づいて、画像データを選択するためのエリアを指定する動作を行っている。例えば、地名や駅名などを入力するキー操作に基づいて、その位置周辺のエリアが指定される。ここでは、メインディスプレイ11に地図画像が表示されているときに、ユーザが地図上のいずれかの位置を選択するキー操作を行うことにより、その位置周辺のエリアが指定されるものとする。   The area designating unit 53 performs an operation of designating an area for selecting image data based on a user operation input. For example, an area around the position is designated based on a key operation for inputting a place name or a station name. Here, it is assumed that when a map image is displayed on the main display 11, an area around the position is designated by the user performing a key operation to select any position on the map.

位置比較部54は、エリア指定部53により指定されたエリアと、画像データ記憶部52に保持されている画像データの撮影位置とを比較する動作を行っている。具体的には、エリア内に含まれる撮影位置を判別し、この撮影位置に対応する画像データを選択している。   The position comparison unit 54 performs an operation of comparing the area specified by the area specification unit 53 with the shooting position of the image data held in the image data storage unit 52. Specifically, a shooting position included in the area is determined, and image data corresponding to the shooting position is selected.

画像閲覧画面生成部55は、位置比較部54の比較結果に基づいて、画像データを閲覧するための画面データを生成する動作を行っている。ここでは、位置比較部54により選択された画像データの閲覧画面を表示するための画面データを生成し、メインディスプレイ11上に表示させている。   The image browsing screen generation unit 55 performs an operation of generating screen data for browsing the image data based on the comparison result of the position comparison unit 54. Here, screen data for displaying the browsing screen of the image data selected by the position comparison unit 54 is generated and displayed on the main display 11.

図4は、図3の被写体判別部49の構成例を示したブロック図である。被写体判別部49は、特徴抽出部491、一致度算出部492及び一致度判定部493からなる。特徴抽出部491は、画像データに含まれる顔画像から、目、鼻、口及び輪郭といった顔の各部分についての形や大きさなどの特徴情報を抽出する動作を行っている。   FIG. 4 is a block diagram illustrating a configuration example of the subject determination unit 49 of FIG. The subject determination unit 49 includes a feature extraction unit 491, a matching degree calculation unit 492, and a matching degree determination unit 493. The feature extraction unit 491 performs an operation of extracting feature information such as the shape and size of each part of the face such as eyes, nose, mouth, and outline from the face image included in the image data.

画像データが顔画像を含まない風景画像などである場合には、画像データから特徴情報を抽出することができない。この場合、画像データに被写体としてユーザが含まれていないと判別される。一方、撮影画像から特徴情報を抽出することに成功した場合には、一致度算出部492により、抽出された特徴情報と特徴情報記憶部50に保持されているユーザの特徴情報とが比較され、数値化された一致度が算出される。   When the image data is a landscape image that does not include a face image, feature information cannot be extracted from the image data. In this case, it is determined that the user is not included as a subject in the image data. On the other hand, when the feature information is successfully extracted from the photographed image, the matching degree calculation unit 492 compares the extracted feature information with the user feature information held in the feature information storage unit 50, A numerical degree of coincidence is calculated.

一致度判定部493は、一致度算出部492により算出された一致度を所定の閾値と比較し、その比較結果を出力している。このとき、一致度が閾値を超えた場合には、画像データに被写体としてユーザが含まれていると判別され、一致度が閾値よりも小さい場合には、画像データにユーザが含まれていないと判別される。ここでいう一致度とは、比較されたすべての特徴情報のうち一致した特徴情報の占める割合である。   The degree of coincidence determination unit 493 compares the degree of coincidence calculated by the degree of coincidence calculation unit 492 with a predetermined threshold and outputs the comparison result. At this time, if the degree of coincidence exceeds a threshold value, it is determined that the user is included as a subject in the image data. If the degree of coincidence is smaller than the threshold value, it is determined that the user is not included in the image data. Determined. Here, the degree of coincidence is the ratio of the feature information that is matched among all the feature information that has been compared.

このような構成を採用すれば、被写体判別部49により、入力された画像データに被写体としてユーザが含まれているか否かの判別が行われ、その判別結果に基づいて、撮影位置判別部51が、画像データの撮影位置として、撮影時刻に最も近い時刻に取得された位置情報を選択し、当該画像データに対応づけている。すなわち、被写体として携帯電話機100のユーザが含まれていれば、携帯電話機100に近い位置で撮影された画像データであると判断できるので、その撮影時刻に対応する携帯電話機100の位置情報が割り当てられる。従って、他人の撮像装置により撮像された画像データの撮影位置を判別する場合の信頼性を向上させることができる。   If such a configuration is adopted, the subject determination unit 49 determines whether the input image data includes a user as a subject, and based on the determination result, the shooting position determination unit 51 The position information acquired at the time closest to the shooting time is selected as the shooting position of the image data, and is associated with the image data. That is, if the user of the mobile phone 100 is included as a subject, it can be determined that the image data is captured at a position close to the mobile phone 100, and therefore the location information of the mobile phone 100 corresponding to the shooting time is assigned. . Therefore, it is possible to improve the reliability when determining the shooting position of the image data captured by another person's imaging device.

また、画像データの撮影時刻と位置情報の取得時刻とを比較するだけで位置情報を選択することができるので、簡単な処理により画像データの撮影位置を判別することができる。更に、撮影時刻に最も近い時刻に取得された位置情報が撮影位置として選択されるので、撮影位置を精度良く選択することができる。   Further, since the position information can be selected simply by comparing the shooting time of the image data and the acquisition time of the position information, the shooting position of the image data can be determined by a simple process. Furthermore, since the position information acquired at the time closest to the shooting time is selected as the shooting position, the shooting position can be selected with high accuracy.

図5は、図1の携帯電話機100に用いられる移動履歴情報の一例を示した図である。この例では、携帯電話機100の緯度及び経度を示す位置情報が、GPS受信部43により1分ごとに取得されるとともに、その取得時刻に対応づけられて保持されている。例えば、2010年6月23日22時10分に取得された位置情報では、携帯電話機100が北緯33.00度、東経131.00度の地点に位置していたことが示されている。また、2010年6月23日22時14分に取得された位置情報では、携帯電話機100が北緯33.01度、東経131.01度の地点に位置していたことが示されている。   FIG. 5 is a diagram showing an example of movement history information used in the mobile phone 100 of FIG. In this example, the position information indicating the latitude and longitude of the mobile phone 100 is acquired every minute by the GPS receiving unit 43 and held in association with the acquisition time. For example, the location information acquired at 22:10 on June 23, 2010 indicates that the mobile phone 100 was located at a point of 33.00 degrees north latitude and 131.00 degrees east longitude. The location information acquired at 22:14 on June 23, 2010 indicates that the mobile phone 100 was located at a point of 33.01 degrees north latitude and 131.01 degrees east longitude.

図6は、ユーザを表す画像の登録画面の表示例を示した図である。ユーザを表す画像は、ユーザの特徴情報を抽出するための画像であり、サブカメラ15により撮影される。このユーザの特徴情報は、特徴情報記憶部50内に保持され、入力された画像データに被写体としてユーザが含まれているか否かを判別する場合に用いられる。   FIG. 6 is a diagram illustrating a display example of an image registration screen representing a user. The image representing the user is an image for extracting the feature information of the user and is taken by the sub camera 15. This feature information of the user is stored in the feature information storage unit 50 and is used when it is determined whether or not the user is included as a subject in the input image data.

ユーザを表す画像の登録を指示するユーザ操作が行われると、サブカメラ15が起動され、サブカメラ15による撮影が可能な状態になった後、サブカメラ15に対する被写体の画像がリアルタイムでメインディスプレイ11に表示される(図6参照)。このとき、メインディスプレイ11は、サブカメラ15のファインダとして機能し、メインディスプレイ11により構成されるファインダ画面には、メインディスプレイ11を見ながら操作を行っている者の顔が映し出されることとなる。また、メインディスプレイ11には、サブカメラ15による撮影を行うためのアイコン111が表示されている。   When a user operation for instructing registration of an image representing a user is performed, the sub camera 15 is activated, and after the sub camera 15 is ready for photographing, an image of a subject with respect to the sub camera 15 is displayed in real time on the main display 11. (See FIG. 6). At this time, the main display 11 functions as a finder of the sub camera 15, and the face of the person who is performing the operation while viewing the main display 11 is displayed on the finder screen configured by the main display 11. The main display 11 displays an icon 111 for performing shooting by the sub camera 15.

図6のファインダ画面において、ユーザが自分の顔の位置あわせなどを行った後、アイコン111に対応する操作キー21を操作することにより登録操作を行うと、被写体判別部49の特徴抽出部491が、そのときサブカメラ15で撮影された画像からユーザの特徴情報を抽出する処理を行う。このとき、抽出された特徴情報は、特徴情報記憶部50に格納される。   In the finder screen of FIG. 6, when the user performs registration operation by operating the operation key 21 corresponding to the icon 111 after positioning the user's face, the feature extraction unit 491 of the subject determination unit 49 is Then, processing for extracting user feature information from the image photographed by the sub camera 15 is performed. At this time, the extracted feature information is stored in the feature information storage unit 50.

図7は、画像データに撮影位置を対応づけることをユーザに促す確認画面の表示例を示した図である。この画面は、画像データに撮影位置を対応づけるか否かをユーザに確認するための入力画面であり、画像データに被写体としてユーザが含まれていると判別された場合にメインディスプレイ11に表示される。   FIG. 7 is a diagram illustrating a display example of a confirmation screen that prompts the user to associate a shooting position with image data. This screen is an input screen for confirming to the user whether or not to associate the shooting position with the image data, and is displayed on the main display 11 when it is determined that the user is included in the image data. The

この確認画面の上端表示領域61には、画像データのファイル名「IMG_0001.JPG」が表示されており、下端表示領域63には、アイコン112及びアイコン113が表示されている。メイン表示領域62には、被写体としてユーザが含まれている画像データが表示されるとともに、画像データに撮影位置を対応づけるか否かをユーザに確認するためのメッセージが表示されている。   The file name “IMG — 0001.JPG” of the image data is displayed in the upper end display area 61 of the confirmation screen, and the icon 112 and the icon 113 are displayed in the lower end display area 63. In the main display area 62, image data including the user as a subject is displayed, and a message for confirming to the user whether or not to associate a shooting position with the image data is displayed.

アイコン112及びアイコン113には、それぞれ文字列「はい」、「いいえ」が表示されており、ユーザがいずれかを選択することにより、画像データに撮影位置を対応づけるか否かが選択される。アイコン112に対応する操作キー21が操作された場合、画像データに撮影位置が対応づけられて画像データ記憶部52に格納される。一方、アイコン113に対応する操作キー21が操作された場合には、画像データと撮影位置とは対応づけられない。   Character strings “Yes” and “No” are displayed on the icon 112 and the icon 113, respectively, and whether or not to associate the shooting position with the image data is selected by the user selecting one of them. When the operation key 21 corresponding to the icon 112 is operated, the shooting position is associated with the image data and stored in the image data storage unit 52. On the other hand, when the operation key 21 corresponding to the icon 113 is operated, the image data and the shooting position are not associated with each other.

図8のステップS101〜S109は、図1の携帯電話機100における撮影位置の追加処理の一例を示したフローチャートである。まず、画像入力部48により画像データが入力されると、この画像データが撮影位置と対応づけられているかの判定が行われる(ステップS101,S102)。画像データに撮影位置が対応づけられている場合には、画像データに撮影位置を追加する必要はないので、ステップS109に進む。一方、画像データに撮影位置が対応づけられていない場合、この画像データに撮影時刻が対応づけられているかの判定が行われる(ステップS103)。画像データに撮影時刻が対応づけられていない場合には、ステップS109に進む。一方、画像データに撮影時刻が対応づけられている場合には、特徴抽出部491が、画像データから特徴情報を抽出し(ステップS104)、一致度算出部492が、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度を算出する。更に、一致度判定部493が、算出された一致度が所定の閾値より高いか否かの判定を行う(ステップS105)。   Steps S101 to S109 in FIG. 8 are flowcharts showing an example of the shooting position addition process in the mobile phone 100 in FIG. First, when image data is input by the image input unit 48, it is determined whether the image data is associated with a shooting position (steps S101 and S102). If the shooting position is associated with the image data, it is not necessary to add the shooting position to the image data, and the process proceeds to step S109. On the other hand, if the shooting position is not associated with the image data, it is determined whether the shooting time is associated with the image data (step S103). If the shooting time is not associated with the image data, the process proceeds to step S109. On the other hand, when the shooting time is associated with the image data, the feature extraction unit 491 extracts feature information from the image data (step S104), and the matching degree calculation unit 492 extracts the feature extracted from the image data. The degree of coincidence between the information and the feature information of the user held in the feature information storage unit 50 is calculated. Further, the coincidence determination unit 493 determines whether or not the calculated coincidence is higher than a predetermined threshold (step S105).

画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が閾値より低い場合には、ステップS109に進む。一方、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が閾値より高い場合には、時刻比較部511が、画像データの撮影時刻と、移動履歴記憶部47内に保持されている取得時刻とを比較し、撮影時刻に最も近い取得時刻を判別する(ステップS106)。更に、位置情報選択部512が、撮影時刻に最も近い取得時刻に対応づけられた位置情報を選択し、この位置情報を画像データの撮影位置として画像データに対応づけ、画像データ記憶部52に格納する(ステップS107,S108)。そして、他に入力された画像データがある場合には、ステップS102〜S109の処理手順が繰り返される(ステップS109)。   If the degree of coincidence between the feature information extracted from the image data and the user's feature information held in the feature information storage unit 50 is lower than the threshold, the process proceeds to step S109. On the other hand, when the degree of coincidence between the feature information extracted from the image data and the user's feature information held in the feature information storage unit 50 is higher than the threshold value, the time comparison unit 511 displays the shooting time of the image data. Then, the acquisition time held in the movement history storage unit 47 is compared, and the acquisition time closest to the photographing time is determined (step S106). Further, the position information selection unit 512 selects the position information associated with the acquisition time closest to the photographing time, associates this position information with the image data as the photographing position of the image data, and stores it in the image data storage unit 52. (Steps S107 and S108). When there is other input image data, the processing procedure of steps S102 to S109 is repeated (step S109).

図9のステップS201〜S206は、図1の携帯電話機100における画像選択処理の一例を示したフローチャートである。まず、メインディスプレイ11上に地図画像が表示される(ステップS201)。次に、地図画像上のいずれかの位置を選択するユーザ操作が行われると、その位置周辺のエリア内の撮影位置に対応づけられた画像データが読み出され、これらの画像データのサムネイル画像が一覧表示される(ステップS202〜S204)。例えば、いずれかの都道府県を地図画像から選択するユーザ操作が行われた場合、選択された県内の撮影位置に対応づけられた画像データが読み出され、これらの画像データのサムネイル画像が一覧表示される。更に、これらの画像データのいずれかを選択するユーザ操作が行われた場合には、選択された画像データがメインディスプレイ11上に表示され(ステップS205,S206)、処理を終了する。   Steps S201 to S206 in FIG. 9 are flowcharts showing an example of image selection processing in the mobile phone 100 in FIG. First, a map image is displayed on the main display 11 (step S201). Next, when a user operation to select any position on the map image is performed, image data associated with the shooting position in the area around the position is read, and thumbnail images of these image data are displayed. A list is displayed (steps S202 to S204). For example, when a user operation is performed to select any prefecture from the map image, image data associated with the shooting position in the selected prefecture is read out, and thumbnail images of these image data are displayed in a list. Is done. Further, when a user operation for selecting any one of these image data is performed, the selected image data is displayed on the main display 11 (steps S205 and S206), and the process ends.

従来の携帯情報端末装置では、他の撮像装置により撮影が行われた時刻に携帯情報端末装置で取得された位置情報が、一律に撮影位置として画像データに対応づけられていた。このため、携帯情報端末装置が撮影時刻に他の撮像装置と近い位置にあった場合には、画像データに撮影位置を対応づけることができるが、携帯情報端末装置が撮影時刻に他の撮像装置から離れていた場合には、画像データに誤った撮影位置が対応づけられてしまうという問題があった。   In the conventional portable information terminal device, the position information acquired by the portable information terminal device at the time when the image is taken by another imaging device is uniformly associated with the image data as the shooting position. For this reason, when the portable information terminal device is at a position close to another imaging device at the photographing time, the photographing position can be associated with the image data. When the user is away from the camera, there is a problem that an incorrect shooting position is associated with the image data.

これに対し、本実施の形態によれば、例えば、ユーザと他の撮像装置の所有者とが共に行動することにより、携帯情報端末装置100と他の撮像装置とが近い位置にあった場合、他の撮像装置により撮影された画像データにユーザが被写体として含まれていることを判別することにより、この画像データに撮影位置を対応づけることができる。一方、ユーザと他の撮像装置の所有者とが別行動することにより、携帯情報端末装置100が撮影時刻に他の撮像装置から離れていた場合には、画像データにユーザが被写体として含まれることはなく、携帯情報端末装置100で取得された位置情報が撮影位置として画像データに対応づけられることはない。このため、画像データに誤った撮影位置が対応づけられることを抑制することができ、画像データに対応づけられる撮影位置の信頼性を向上させることができる。   On the other hand, according to the present embodiment, for example, when the user and the owner of another imaging device act together, the portable information terminal device 100 and the other imaging device are close to each other. By determining that the user is included as a subject in the image data captured by another imaging device, the imaging position can be associated with the image data. On the other hand, when the user and the owner of another imaging device act differently, when the portable information terminal device 100 is away from the other imaging device at the shooting time, the user is included in the image data as a subject. No, position information acquired by the portable information terminal device 100 is not associated with image data as a shooting position. For this reason, it can suppress that an incorrect imaging | photography position is matched with image data, and the reliability of the imaging | photography position matched with image data can be improved.

また、本実施の形態によれば、ユーザは、メインディスプレイ11に表示された地図からいずれかのエリアを指定することにより、指定したエリアで撮影された画像データを表示させることができる。従って、ユーザが任意のエリアで撮影された画像データを容易に表示させることができるので、利便性が高い。   Further, according to the present embodiment, the user can display image data captured in the designated area by designating any area from the map displayed on the main display 11. Therefore, the user can easily display image data taken in an arbitrary area, which is highly convenient.

なお、本実施の形態では、画像データが静止画像である場合の例について説明したが、本発明はこれに限られるものではない。例えば、画像データが一連のフレーム画像からなる動画像であってもよい。   In the present embodiment, an example in which the image data is a still image has been described, but the present invention is not limited to this. For example, the image data may be a moving image composed of a series of frame images.

また、本実施の形態では、位置情報取得部46が、一定周期ごとに位置情報を取得する場合の例について説明したが、本発明は、これに限られるものではない。例えば、セルラー通信部41により通信が行われている基地局が切り替わった場合に、位置情報を取得する構成であってもよい。また、近距離無線通信部42による近距離無線通信が行われたとき、セルラー通信部41による電子メールの送受信が行われたとき、又は、メモリーカードがカードスロット内に挿入されたときに位置情報を取得する構成であってもよい。更に、ユーザがテキスト形式のメモを作成したときや、ナビゲーション機能を使用したときに位置情報を取得する構成であってもよい。   Moreover, although the position information acquisition part 46 demonstrated the example in the case of acquiring position information for every fixed period in this Embodiment, this invention is not limited to this. For example, the configuration may be such that the location information is acquired when the base station with which communication is performed by the cellular communication unit 41 is switched. Further, when short-range wireless communication by the short-range wireless communication unit 42 is performed, when e-mail is transmitted / received by the cellular communication unit 41, or when a memory card is inserted into the card slot, the position information It may be the structure which acquires. Furthermore, the configuration may be such that the location information is acquired when the user creates a text-format memo or uses the navigation function.

実施の形態2.
実施の形態1では、被写体判別部49が、顔に関するユーザの特徴情報と画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かを判別する場合の例について説明した。これに対し、本実施の形態では、画像データに含まれる服装又は帽子に関するユーザの特徴情報と画像データから抽出された対応する特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かを判別する場合の例について説明する。
Embodiment 2. FIG.
In the first embodiment, the subject determination unit 49 determines whether or not the user is included as a subject in the image data by comparing the feature information of the user regarding the face with the feature information extracted from the image data. An example of the case has been described. On the other hand, in this embodiment, the user is included as a subject in the image data by comparing the feature information of the user regarding clothes or a hat included in the image data with the corresponding feature information extracted from the image data. An example in the case of determining whether or not is present will be described.

図10は、本発明の実施の形態2による携帯電話機100の要部についての一構成例を示したブロック図であり、端末制御部44内の機能構成の一例が示されている。被写体判別部49及び特徴情報追加部71以外の構成は、実施の形態1の場合と同一であるため、重複する説明は省略する。   FIG. 10 is a block diagram showing an example of the configuration of the main part of the mobile phone 100 according to Embodiment 2 of the present invention, in which an example of the functional configuration in the terminal control unit 44 is shown. Since the configuration other than the subject determination unit 49 and the feature information addition unit 71 is the same as that in the first embodiment, a duplicate description is omitted.

被写体判別部49は、特徴情報記憶部50に予め保持されているユーザの特徴情報に基づいて、画像データに被写体としてユーザが含まれているか否かを判別する動作を行っている。具体的には、顔に関するユーザの特徴情報と、画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かが判別される。また、ユーザの服装又は帽子の画像から抽出され、特徴情報記憶部50に予め保持されている特徴情報と、画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かが判別される。   The subject determination unit 49 performs an operation of determining whether or not the user is included as a subject in the image data based on the user feature information previously stored in the feature information storage unit 50. Specifically, it is determined whether or not the user is included in the image data by comparing the feature information of the user regarding the face with the feature information extracted from the image data. Further, by comparing the feature information extracted from the image of the user's clothes or hat and stored in advance in the feature information storage unit 50 with the feature information extracted from the image data, the user can select the image data as a subject. It is determined whether or not it is included.

画像データに含まれる人物の顔の位置が特定された場合、帽子及び服の位置が推定できるため、帽子及び服の色合いや模様に関する特徴情報を抽出することができる。このため、抽出された特徴情報と、特徴情報記憶部50に予め保持されているユーザの特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かを判別することができる。   When the position of the person's face included in the image data is specified, the position of the hat and clothes can be estimated, so that feature information regarding the color and pattern of the hat and clothes can be extracted. For this reason, it is possible to determine whether or not the user is included as a subject in the image data by comparing the extracted feature information with the feature information of the user stored in the feature information storage unit 50 in advance. it can.

特徴情報追加部71は、画像データに被写体としてユーザが含まれていると判別された場合に、この画像データから抽出された服装又は帽子に関するユーザの特徴情報を特徴情報記憶部50に格納する動作を行っている。具体的には、顔に関するユーザの特徴情報と、画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれていると判別された場合に、この画像データから抽出された服装又は帽子に関する特徴情報をユーザの特徴情報として特徴情報記憶部50に格納している。   When it is determined that the user is included as a subject in the image data, the feature information adding unit 71 stores the feature information of the user regarding clothes or a hat extracted from the image data in the feature information storage unit 50. It is carried out. Specifically, when it is determined that the user is included as a subject in the image data by comparing the feature information of the user related to the face with the feature information extracted from the image data, The feature information regarding the extracted clothes or hat is stored in the feature information storage unit 50 as user feature information.

図11は、図10の携帯電話機100における撮影位置の追加処理の一例を示したフローチャートである。このフローチャートは、ステップS304〜S306を除き、図8のステップS101〜S109と同一であるため、重複する説明は省略する。   FIG. 11 is a flowchart illustrating an example of the shooting position addition process in the mobile phone 100 of FIG. Since this flowchart is the same as steps S101 to S109 in FIG. 8 except for steps S304 to S306, a duplicate description will be omitted.

ステップS304では、画像データに撮影時刻が対応づけられている場合に、特徴抽出部491が、画像データから顔、服装及び帽子に関する特徴情報を抽出する。次に、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が一致度算出部492により算出され、この一致度が所定の閾値より高いか否かの判定が一致度判定部493によって行われる(ステップS305)。このとき、一致度算出部492は、顔、服装又は帽子に関する特徴情報をユーザの特徴情報と比較することによって一致度を算出する。例えば、服装又は帽子に関する特徴情報が特徴情報記憶部50に保持されていない場合には、画像データから抽出された顔に関する特徴情報とユーザの特徴情報とを比較することにより、一致度が算出される。また、画像データから顔に関する特徴情報を抽出できない場合には、画像データから抽出された服装又は帽子に関する特徴情報とユーザの特徴情報とを比較することにより、一致度が算出される。   In step S304, when the shooting time is associated with the image data, the feature extraction unit 491 extracts feature information regarding the face, clothes, and hat from the image data. Next, the coincidence degree between the feature information extracted from the image data and the user's feature information held in the feature information storage unit 50 is calculated by the coincidence degree calculation unit 492, and this coincidence degree is higher than a predetermined threshold value. Is determined by the coincidence determination unit 493 (step S305). At this time, the degree of coincidence calculation unit 492 calculates the degree of coincidence by comparing feature information regarding the face, clothes, or hat with the feature information of the user. For example, when feature information related to clothes or a hat is not held in the feature information storage unit 50, the degree of coincidence is calculated by comparing the feature information related to the face extracted from the image data with the feature information of the user. The When feature information about the face cannot be extracted from the image data, the degree of coincidence is calculated by comparing the feature information about clothes or a hat extracted from the image data with the feature information of the user.

画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が所定の閾値より高い場合には、特徴情報追加部71が、画像データから抽出された服装又は帽子に関するユーザの特徴情報を特徴情報記憶部50に格納する(ステップS306)。一方、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が所定の閾値より低い場合には、図8のステップS109と同様に、他に画像データがあるか否かの判定が行われる(ステップS310)。   When the degree of coincidence between the feature information extracted from the image data and the user's feature information held in the feature information storage unit 50 is higher than a predetermined threshold, the feature information adding unit 71 is extracted from the image data. The feature information of the user concerning the clothes or hat is stored in the feature information storage unit 50 (step S306). On the other hand, when the degree of coincidence between the feature information extracted from the image data and the user's feature information held in the feature information storage unit 50 is lower than a predetermined threshold value, as in step S109 in FIG. It is determined whether or not there is image data (step S310).

本実施の形態によれば、被写体としてユーザが含まれていると判別された画像データから抽出された服装又は帽子に関する特徴情報が、特徴情報追加部71により特徴情報記憶部50に格納される。更に、この特徴情報を用いて一致度判定部493により他の画像データに被写体としてユーザが含まれているか否かの判別が行われる。従って、例えば、ユーザの後ろ姿が撮影されている場合など、顔に関する特徴情報の比較ではユーザが撮影されているか否かを正しく判別できない場合に、服装又は帽子に関する特徴情報の比較を行うことにより、ユーザが撮影されているか否かを精度良く判別することができる。   According to the present embodiment, feature information about clothes or a hat extracted from image data determined to include a user as a subject is stored in the feature information storage unit 50 by the feature information adding unit 71. Furthermore, using this feature information, the degree-of-match determination unit 493 determines whether or not the user is included as a subject in the other image data. Therefore, for example, when comparing the feature information about the face, such as when the back view of the user is photographed, it is not possible to correctly determine whether or not the user is photographed. It is possible to accurately determine whether or not the user is shooting.

なお、本実施の形態では、特徴情報追加部71がユーザの服装又は帽子に関する特徴情報を特徴情報記憶部50内に格納する場合の例について説明したが、本発明はこれに限られるものではない。例えば、ユーザの服装又は帽子に関する特徴情報が、予め特徴情報記憶部50に保持される構成であってもよい。   In the present embodiment, the example in which the feature information adding unit 71 stores the feature information related to the user's clothes or hat in the feature information storage unit 50 has been described, but the present invention is not limited to this. . For example, the feature information regarding the user's clothes or hat may be stored in the feature information storage unit 50 in advance.

実施の形態3.
実施の形態1及び2では、位置情報取得部46が、一定周期ごとに位置情報を取得する場合の例について説明した。しかしながら、本発明はこれに限られるものではなく、位置情報取得部46が、メインカメラ14又はサブカメラ15により被写体を撮影するためのユーザ操作に基づいて、位置情報を取得する構成であってもよい。例えば、被写体を撮影するためのキー操作が行われたときに、位置情報を取得することが考えられる。
Embodiment 3 FIG.
In the first and second embodiments, the example has been described in which the position information acquisition unit 46 acquires the position information at regular intervals. However, the present invention is not limited to this, and the position information acquisition unit 46 may be configured to acquire position information based on a user operation for photographing a subject by the main camera 14 or the sub camera 15. Good. For example, it is conceivable to acquire position information when a key operation for photographing a subject is performed.

ユーザと他者とがお互いを被写体として撮影することは少なくないので、通常、被写体を撮影するためのユーザ操作が行われるときには、ユーザが他の撮像装置により撮影されることが多い。従って、位置情報取得部46が、ユーザの撮影操作に基づいて位置情報を取得し、移動履歴情報として移動履歴記憶部47に格納することにより、ユーザが撮影されている画像データがその後に入力された場合に、この位置情報を対応づけることができる。この場合、高い頻度で位置情報を取得しなくても、位置情報を精度良く対応づけることができるので、消費電力を低減することができる。   Since the user and other people often photograph each other as a subject, usually, when a user operation for photographing a subject is performed, the user is often photographed by another imaging device. Therefore, the position information acquisition unit 46 acquires the position information based on the user's shooting operation and stores it in the movement history storage unit 47 as movement history information, so that the image data in which the user is shot is subsequently input. If this occurs, this position information can be associated. In this case, the position information can be associated with high accuracy without acquiring the position information frequently, so that power consumption can be reduced.

また、位置情報取得部46が、一定周期ごとに位置情報を取得する場合に、被写体を撮影するためのユーザ操作が行われてから所定の期間、より短い周期で位置情報を取得する構成であってもよい。   In addition, when the position information acquisition unit 46 acquires position information at regular intervals, the position information acquisition unit 46 acquires position information at a shorter period for a predetermined period after a user operation for photographing a subject is performed. May be.

すなわち、位置情報取得部46が、第1の周期ごとに位置情報を取得するとともに、被写体を撮影するためのユーザ操作に基づいて、第1の周期よりも短い第2の周期ごとに位置情報を取得する構成であってもよい。   That is, the position information acquisition unit 46 acquires the position information for each first period, and also acquires the position information for each second period shorter than the first period based on a user operation for photographing the subject. The structure which acquires may be sufficient.

このような構成を採用すれば、被写体を撮影するためのユーザ操作に基づいて、位置情報取得部46が、位置情報を取得する頻度をより高くしているので、ユーザが他人から撮影される可能性が高いと予想される場合に、高頻度で位置情報を取得することができる。従って、消費電力を低減しつつ、被写体としてユーザが含まれている画像データについて、撮像位置を精度良く判別することができる。   By adopting such a configuration, the position information acquisition unit 46 increases the frequency of acquiring the position information based on the user operation for shooting the subject, so that the user can be shot from another person. When it is expected that the position is high, the position information can be acquired with high frequency. Therefore, it is possible to accurately determine the imaging position of image data including a user as a subject while reducing power consumption.

11 メインディスプレイ
14 メインカメラ
15 サブカメラ
21 操作キー
41 セルラー通信部
42 近距離無線通信部
43 GPS受信部
44 端末制御部
45 データ入出力部
46 位置情報取得部
47 移動履歴記憶部
48 画像入力部
49 被写体判別部
50 特徴情報記憶部
51 撮影位置判別部
52 画像データ記憶部
53 エリア指定部
54 位置比較部
55 画像閲覧画面生成部
71 特徴情報追加部
100 携帯電話機
491 特徴抽出部
492 一致度算出部
493 一致度判定部
511 時刻比較部
512 位置情報選択部
11 main display 14 main camera 15 sub camera 21 operation key 41 cellular communication unit 42 short-range wireless communication unit 43 GPS receiving unit 44 terminal control unit 45 data input / output unit 46 position information acquisition unit 47 movement history storage unit 48 image input unit 49 Subject determination unit 50 Feature information storage unit 51 Shooting position determination unit 52 Image data storage unit 53 Area specification unit 54 Position comparison unit 55 Image browsing screen generation unit 71 Feature information addition unit 100 Mobile phone 491 Feature extraction unit 492 Matching degree calculation unit 493 Matching degree determination unit 511 Time comparison unit 512 Position information selection unit

Claims (7)

位置情報を取得する位置情報取得手段と、
上記位置情報に対し、当該位置情報の取得時刻を対応づけた移動履歴情報を保持する移動履歴記憶手段と、
ユーザの特徴情報を保持する特徴情報記憶手段と、
撮影時刻が対応づけられた画像データを入力するための画像入力手段と、
上記特徴情報に基づいて、上記画像データに被写体として上記ユーザが含まれているか否かを判別する被写体判別手段と、
上記被写体判別手段の判別結果に基づいて、上記移動履歴記憶手段内の上記位置情報を上記画像データに対応づける撮影位置判別手段とを備え、
上記撮影位置判別手段は、上記撮影時刻と上記移動履歴記憶手段内の上記取得時刻とを比較することにより、上記位置情報を上記画像データに対応づけることを特徴とする携帯情報端末装置。
Position information acquisition means for acquiring position information;
Movement history storage means for holding movement history information in which the acquisition time of the position information is associated with the position information;
Feature information storage means for storing user feature information;
Image input means for inputting image data associated with shooting time;
Subject determination means for determining whether or not the user is included as a subject in the image data based on the feature information;
Photographing position determining means for associating the position information in the movement history storage means with the image data based on the determination result of the subject determining means;
The portable information terminal device, wherein the photographing position determining means associates the position information with the image data by comparing the photographing time with the acquisition time in the movement history storage means.
ユーザ操作に基づいて、被写体を撮影するための撮像手段を備え、
上記位置情報取得手段は、上記ユーザ操作に基づいて、上記位置情報を取得することを特徴とする請求項1に記載の携帯情報端末装置。
Based on a user operation, provided with an imaging means for photographing a subject,
The portable information terminal device according to claim 1, wherein the position information acquisition unit acquires the position information based on the user operation.
上記位置情報取得手段は、第1の周期ごとに上記位置情報を取得するとともに、被写体を撮影するためのユーザ操作に基づいて、第1の周期よりも短い第2の周期ごとに上記位置情報を取得することを特徴とする請求項2に記載の携帯情報端末装置。   The position information acquisition means acquires the position information for each first period, and obtains the position information for each second period shorter than the first period based on a user operation for photographing the subject. The portable information terminal device according to claim 2, wherein the portable information terminal device is acquired. 上記撮影位置判別手段は、上記撮影時刻を上記移動履歴記憶手段内の上記取得時刻と比較する時刻比較手段と、上記画像データに被写体として上記ユーザが含まれていると判別された場合に、上記時刻比較手段の比較結果に基づいて、上記画像データの撮影位置として、上記移動履歴記憶手段内の上記位置情報を選択する位置情報選択手段とを有することを特徴とする請求項1に記載の携帯情報端末装置。   The shooting position determination unit is configured to compare the shooting time with the acquisition time in the movement history storage unit, and when it is determined that the user is included as a subject in the image data. 2. The mobile phone according to claim 1, further comprising: a position information selection unit that selects the position information in the movement history storage unit as a shooting position of the image data based on a comparison result of the time comparison unit. Information terminal device. 上記位置情報選択手段は、上記撮影時刻に最も近い上記取得時刻に対応づけられた上記位置情報を選択することを特徴とする請求項4に記載の携帯情報端末装置。   The portable information terminal device according to claim 4, wherein the position information selection unit selects the position information associated with the acquisition time closest to the shooting time. 上記特徴情報記憶手段は、顔画像から抽出された上記ユーザの特徴情報を保持し、
上記被写体判別手段は、上記顔画像から抽出された特徴情報と上記画像データから抽出された特徴情報とを比較することにより、当該画像データに被写体として上記ユーザが含まれているか否かを判別することを特徴とする請求項1に記載の携帯情報端末装置。
The feature information storage means holds the user feature information extracted from the face image,
The subject determination means determines whether or not the user is included as a subject in the image data by comparing the feature information extracted from the face image and the feature information extracted from the image data. The portable information terminal device according to claim 1.
上記撮影位置判別手段により上記位置情報が対応づけられた上記画像データを保持する画像データ記憶手段と、
ユーザの操作入力に基づいて、エリアを指定するエリア指定手段と、
上記エリアを上記画像データ記憶手段に保持されている上記画像データの上記位置情報と比較する位置比較手段と、
上記位置比較手段の比較結果に基づいて、上記画像データを閲覧するための画面データを生成する画像閲覧画面生成手段とを備えたことを特徴とする請求項1に記載の携帯情報端末装置。
Image data storage means for holding the image data associated with the position information by the photographing position determination means ;
An area designating means for designating an area based on a user operation input;
Position comparison means for comparing the area with the position information of the image data held in the image data storage means;
2. The portable information terminal device according to claim 1, further comprising image browsing screen generation means for generating screen data for browsing the image data based on a comparison result of the position comparison means.
JP2011028806A 2011-02-14 2011-02-14 Portable information terminal device Expired - Fee Related JP5634910B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011028806A JP5634910B2 (en) 2011-02-14 2011-02-14 Portable information terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011028806A JP5634910B2 (en) 2011-02-14 2011-02-14 Portable information terminal device

Publications (2)

Publication Number Publication Date
JP2012169837A JP2012169837A (en) 2012-09-06
JP5634910B2 true JP5634910B2 (en) 2014-12-03

Family

ID=46973547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011028806A Expired - Fee Related JP5634910B2 (en) 2011-02-14 2011-02-14 Portable information terminal device

Country Status (1)

Country Link
JP (1) JP5634910B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292389A (en) * 2000-04-07 2001-10-19 Kenwood Corp Contents processing, apparatus contents processing method and recording medium
JP4920295B2 (en) * 2006-04-25 2012-04-18 オリンパスイメージング株式会社 camera
JP2008277892A (en) * 2007-04-25 2008-11-13 Sony Corp Information processing apparatus, information processing method, program, information processing system, and image reproducing apparatus
JP4913232B2 (en) * 2009-06-18 2012-04-11 パナソニック株式会社 Image selection apparatus and image selection method

Also Published As

Publication number Publication date
JP2012169837A (en) 2012-09-06

Similar Documents

Publication Publication Date Title
US9332208B2 (en) Imaging apparatus having a projector with automatic photography activation based on superimposition
JP5218989B2 (en) Communication terminal device and program
KR101977703B1 (en) Method for controlling photographing in terminal and terminal thereof
JP4471898B2 (en) Portable information terminal device
US10397471B2 (en) Image processing apparatus, location information adding method
JP2005267146A (en) Method and device for creating email by means of image recognition function
US20150269782A1 (en) Augmented reality display system, augmented reality information generating apparatus, augmented reality display apparatus, and server
WO2009087498A1 (en) Intelligent image enhancement
JP2014038429A (en) Image processor, image processing method and image processing program
JP6268904B2 (en) Image processing apparatus, image processing method, and image processing program
US9294664B2 (en) Image display apparatus that displays a menu corresponding to an object, image display method that displays a menu corresponding to an object, and storage medium thereof
JP2009124254A (en) Photographing device
WO2012169636A1 (en) Information terminal, information terminal control method, control program, and recording medium
JP5634910B2 (en) Portable information terminal device
JP2010154047A (en) Portable information terminal
JP2009111827A (en) Photographing apparatus and image file providing system
JP2012034107A (en) Image display device, image display method, and image display program
JP5798384B2 (en) Information terminal, information terminal control method, control program, and recording medium
JP5977697B2 (en) Electronic device and method for controlling electronic device
JP2004163241A (en) Wireless portable terminal, navigation method used for the same, and its program
JP5253595B2 (en) Imaging system and imaging apparatus
WO2016110967A1 (en) Information processing device, information processing method, and processing program used therefor
JP2016139242A (en) Terminal equipment
JP2015204037A (en) Image processing device, communication system, and communication method
JP5473034B2 (en) Terminal device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141015

R150 Certificate of patent or registration of utility model

Ref document number: 5634910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees