JP5634910B2 - Portable information terminal device - Google Patents
Portable information terminal device Download PDFInfo
- Publication number
- JP5634910B2 JP5634910B2 JP2011028806A JP2011028806A JP5634910B2 JP 5634910 B2 JP5634910 B2 JP 5634910B2 JP 2011028806 A JP2011028806 A JP 2011028806A JP 2011028806 A JP2011028806 A JP 2011028806A JP 5634910 B2 JP5634910 B2 JP 5634910B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- user
- position information
- information
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、携帯情報端末装置に係り、更に詳しくは、位置情報を取得可能な携帯情報端末装置の改良に関する。 The present invention relates to a portable information terminal device, and more particularly to an improvement of a portable information terminal device capable of acquiring position information.
被写体を撮影して画像データを生成するとともに、例えば、GPS(Global Positioning System:全地球測位システム)衛星からの信号を受信することにより、位置情報を取得することができる携帯情報端末装置が従来から知られている。この様な携帯情報端末装置では、画像データにその撮影位置を対応づけて保持し、ユーザが撮影位置を指定することにより、その撮影位置に対応する画像データを表示することができる。また、表示画面に地図を表示し、この地図上でいずれかの位置が指定された場合に、指定された位置の周辺で撮影された画像データを表示することができる(例えば、特許文献1)。 2. Description of the Related Art Conventionally, a portable information terminal device that can capture position information by capturing a subject and generating image data and receiving a signal from, for example, a GPS (Global Positioning System) satellite Are known. In such a portable information terminal device, it is possible to display image data corresponding to the shooting position by holding the shooting position in association with the image data and designating the shooting position by the user. Further, when a map is displayed on the display screen and any position is designated on the map, image data photographed around the designated position can be displayed (for example, Patent Document 1). .
更に、特許文献2には、撮影時に位置情報の取得に失敗した場合に、撮影時の前後に取得された位置情報を撮影位置として画像データに対応づけることが記載されている。この場合、撮影時に位置情報の取得に失敗した画像データについても、撮影位置と対応づけて保持することができる。 Further, Japanese Patent Application Laid-Open No. 2004-228620 describes that, when acquisition of position information fails during shooting, the position information acquired before and after shooting is associated with image data as a shooting position. In this case, even image data for which position information acquisition has failed during shooting can be held in association with the shooting position.
一般に、携帯情報端末装置では、他の撮像装置で撮影された画像データが入力されたときに、当該画像データに撮影位置が対応づけられていないことがある。この場合、特許文献2に記載の構成では、他の撮像装置により撮影が行われた時刻に携帯情報端末装置で取得された位置情報が、撮影位置として画像データに対応づけられる。このため、携帯情報端末装置が撮影時刻に他の撮像装置と近い位置にあった場合には、画像データに撮影位置を対応づけることができるが、携帯情報端末装置が撮影時刻に他の撮像装置から離れていた場合には、画像データに誤った撮影位置が対応づけられてしまうという問題があった。
Generally, in a portable information terminal device, when image data captured by another imaging device is input, the imaging position may not be associated with the image data. In this case, in the configuration described in
本発明は、上記の事情に鑑みてなされたものであり、他の撮像装置により撮影された画像データが入力された場合に、この画像データの撮影位置を判別することのできる携帯情報端末装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and a portable information terminal device capable of determining the shooting position of image data when image data shot by another imaging device is input. The purpose is to provide.
第1の本発明による携帯情報端末装置は、位置情報を取得する位置情報取得手段と、上記位置情報に対し、当該位置情報の取得時刻を対応づけた移動履歴情報を保持する移動履歴記憶手段と、ユーザの特徴情報を保持する特徴情報記憶手段と、撮影時刻が対応づけられた画像データを入力するための画像入力手段と、上記特徴情報に基づいて、上記画像データに被写体として上記ユーザが含まれているか否かを判別する被写体判別手段と、上記被写体判別手段の判別結果に基づいて、上記移動履歴記憶手段内の上記位置情報を上記画像データに対応づける撮影位置判別手段とを備え、上記撮影位置判別手段が、上記撮影時刻と上記移動履歴記憶手段内の上記取得時刻とを比較することにより、上記位置情報を上記画像データに対応づけるように構成される。 The portable information terminal device according to the first aspect of the present invention includes a position information acquisition unit that acquires position information, a movement history storage unit that stores movement history information in which the position information acquisition time is associated with the position information. A feature information storage unit for storing user feature information; an image input unit for inputting image data associated with a shooting time; and the image data includes the user as a subject based on the feature information. Subject discrimination means for discriminating whether or not the image is detected, and imaging position discrimination means for associating the position information in the movement history storage means with the image data based on the discrimination result of the subject discrimination means, The photographing position determining means associates the position information with the image data by comparing the photographing time with the acquisition time in the movement history storage means. Constructed.
この様な構成によれば、入力された画像データに被写体としてユーザが含まれているか否かの判別が行われ、その判別結果に基づいて、画像データが、撮影時刻の前後に取得された位置情報に対応づけられる。従って、他人の撮像装置により撮像された画像データについて、撮影位置を判別する場合の信頼性を向上させることができる。 According to such a configuration, it is determined whether or not the user is included as a subject in the input image data, and based on the determination result, the position where the image data is acquired before and after the shooting time. Corresponds to information. Therefore, it is possible to improve the reliability in determining the shooting position for image data captured by another person's imaging device.
第2の本発明による携帯情報端末装置は、上記構成に加え、ユーザ操作に基づいて、被写体を撮影するための撮像手段を備え、上記位置情報取得手段が、上記ユーザ操作に基づいて、上記位置情報を取得するように構成される。 A portable information terminal device according to a second aspect of the present invention includes, in addition to the above configuration, an imaging unit for capturing an image of a subject based on a user operation, and the position information acquisition unit includes the position information based on the user operation. It is configured to obtain information.
この様な構成によれば、被写体を撮影するためのユーザ操作に基づいて、位置情報の取得が行われる。通常、被写体を撮影するためのユーザ操作が行われるときには、ユーザが他の撮像装置により撮影されることが多い。このため、ユーザの撮影操作に基づいて位置情報を取得し、移動履歴情報として保持することにより、ユーザが撮影されている画像データがその後に入力された場合に、この位置情報を対応づけることができる。この場合、高い頻度で位置情報を取得しなくても、位置情報を精度良く対応づけることができるので、消費電力を低減することができる。 According to such a configuration, position information is acquired based on a user operation for photographing a subject. Normally, when a user operation for photographing a subject is performed, the user is often photographed by another imaging device. For this reason, position information is acquired based on the user's shooting operation and held as movement history information, so that when the image data being shot by the user is subsequently input, the position information can be associated. it can. In this case, the position information can be associated with high accuracy without acquiring the position information frequently, so that power consumption can be reduced.
第3の本発明による携帯情報端末装置は、上記構成に加え、上記位置情報取得手段が、第1の周期ごとに上記位置情報を取得するとともに、被写体を撮影するためのユーザ操作に基づいて、第1の周期よりも短い第2の周期ごとに上記位置情報を取得するように構成される。 In addition to the above configuration, the portable information terminal device according to a third aspect of the present invention is configured so that the position information acquisition unit acquires the position information for each first period and is based on a user operation for photographing a subject. It is comprised so that the said positional information may be acquired for every 2nd period shorter than a 1st period.
この様な構成によれば、被写体を撮影するためのユーザ操作に基づいて、位置情報を取得する頻度をより高くしている。このため、ユーザが他人から撮影される可能性が高いと予想される場合に、高頻度で位置情報を取得することができる。従って、消費電力を低減しつつ、被写体としてユーザが含まれている画像データについて、撮像位置を精度良く判別することができる。 According to such a configuration, the frequency of acquiring the position information is increased based on the user operation for photographing the subject. For this reason, when it is predicted that the user is likely to be photographed by another person, the position information can be acquired with high frequency. Therefore, it is possible to accurately determine the imaging position of image data including a user as a subject while reducing power consumption.
第4の本発明による携帯情報端末装置は、上記構成に加え、上記撮影位置判別手段が、上記撮影時刻を上記移動履歴記憶手段内の上記取得時刻と比較する時刻比較手段と、上記画像データに被写体として上記ユーザが含まれていると判別された場合に、上記時刻比較手段の比較結果に基づいて、上記画像データの撮影位置として、上記移動履歴記憶手段内の上記位置情報を選択する位置情報選択手段とを有するように構成される。 In addition to the above configuration, the portable information terminal device according to the fourth aspect of the present invention includes a time comparison unit in which the imaging position determination unit compares the imaging time with the acquisition time in the movement history storage unit, and the image data. Position information for selecting the position information in the movement history storage means as the shooting position of the image data based on the comparison result of the time comparison means when it is determined that the user is included as a subject And selecting means.
この様な構成によれば、画像データに被写体としてユーザが含まれていると判別された場合に、画像データが、撮影時刻の前後に取得された位置情報に対応づけられるので、撮影位置を判別する場合の信頼性を向上させることができる。 According to such a configuration, when it is determined that the user is included as a subject in the image data, the image data is associated with the position information acquired before and after the shooting time, so the shooting position is determined. Reliability can be improved when doing so.
第5の本発明による携帯情報端末装置は、上記構成に加え、上記位置情報選択手段が、上記撮影時刻に最も近い上記取得時刻に対応づけられた上記位置情報を選択するように構成される。 In addition to the above configuration, the portable information terminal device according to the fifth aspect of the present invention is configured such that the position information selection unit selects the position information associated with the acquisition time closest to the shooting time.
この様な構成によれば、撮影時刻に最も近い時刻に取得された位置情報が撮影位置として選択されるので、撮影位置を精度良く選択することができる。 According to such a configuration, since the position information acquired at the time closest to the shooting time is selected as the shooting position, the shooting position can be selected with high accuracy.
第6の本発明による携帯情報端末装置は、上記構成に加え、上記特徴情報記憶手段が、顔画像から抽出された上記ユーザの特徴情報を保持し、上記被写体判別手段が、上記顔画像から抽出された特徴情報と上記画像データから抽出された特徴情報とを比較することにより、当該画像データに被写体として上記ユーザが含まれているか否かを判別するように構成される。 According to a sixth aspect of the present invention, in addition to the above configuration, the feature information storage unit holds the user feature information extracted from the face image, and the subject determination unit extracts the face image from the face image. By comparing the feature information obtained and the feature information extracted from the image data, it is configured to determine whether or not the user is included as a subject in the image data.
第7の本発明による携帯情報端末装置は、上記構成に加え、上記撮影位置判別手段により上記位置情報が対応づけられた上記画像データを保持する画像データ記憶手段と、ユーザの操作入力に基づいて、エリアを指定するエリア指定手段と、上記エリアを上記画像データ記憶手段に保持されている上記画像データの上記位置情報と比較する位置比較手段と、上記位置比較手段の比較結果に基づいて、上記画像データを閲覧するための画面データを生成する画像閲覧画面生成手段とを備えて構成される。
According to a seventh aspect of the present invention, in addition to the above- described configuration, the portable information terminal device is based on image data storage means for holding the image data associated with the position information by the photographing position determination means , and user operation input. Based on the comparison result of the area specifying means for specifying the area, the position comparing means for comparing the area with the position information of the image data held in the image data storage means, and the position comparing means. Image browsing screen generation means for generating screen data for browsing the image data.
この様な構成によれば、ユーザは、エリアを指定することにより、このエリアで撮影された画像データを表示させることができる。従って、ユーザが任意のエリアで撮影された画像データを容易に表示させることができるので、利便性が高い。 According to such a configuration, the user can display image data captured in this area by designating the area. Therefore, the user can easily display image data taken in an arbitrary area, which is highly convenient.
本発明による携帯情報端末装置では、入力された画像データに被写体としてユーザが含まれているか否かの判別が行われ、その判別結果に基づいて、画像データが、撮影時刻の前後に取得された位置情報に対応づけられる。従って、他人の撮像装置により撮像された画像データについて、撮影位置を判別する場合の信頼性を向上させることができる。 In the portable information terminal device according to the present invention, it is determined whether or not the user is included as a subject in the input image data, and based on the determination result, the image data is acquired before and after the shooting time. Corresponding to position information. Therefore, it is possible to improve the reliability in determining the shooting position for image data captured by another person's imaging device.
特に、被写体を撮影するためのユーザ操作に基づいて、位置情報の取得が行われるので、ユーザが撮影されている画像データがその後に入力された場合に、この位置情報を対応づけることができる。この場合、高い頻度で位置情報を取得しなくても、位置情報を精度良く対応づけることができるので、消費電力を低減することができる。 In particular, since position information is acquired based on a user operation for photographing a subject, the position information can be associated when image data of a photographed user is subsequently input. In this case, the position information can be associated with high accuracy without acquiring the position information frequently, so that power consumption can be reduced.
実施の形態1.
図1は、本発明の実施の形態による携帯情報端末装置の概略構成の一例を示した外観図であり、携帯情報端末装置の一例としてGPS機能を有するカメラ付の携帯電話機100が示されている。図1(a)には、表示筐体10及び操作筐体20を展開させたオープン状態の場合が示され、図1(b)には、両筐体を折り畳んだクローズ状態の場合が示されている。
FIG. 1 is an external view showing an example of a schematic configuration of a portable information terminal device according to an embodiment of the present invention. As an example of the portable information terminal device, a
携帯電話機100では、GPS信号の受信データに基づいて位置情報を取得し、移動履歴情報として格納している。このため、他の撮像装置で撮影された画像データが入力された場合に、この画像データの撮影時刻に携帯電話機100で取得された位置情報をこの画像データに撮影位置として対応づけることができる。その際、画像データに被写体としてユーザが含まれているか否かの判別を行って、携帯電話機100の近くで画像データの撮影が行われたことを確認することにより、画像データに対応づける撮影位置の信頼性を向上させることができる。
In the
この携帯電話機100は、折り畳み式の携帯電話機であり、メインディスプレイ11を有する表示筐体10と、複数の操作キー21を有する操作筐体20と、表示筐体10及び操作筐体20を連結するヒンジ部30からなる。
The
メインディスプレイ11は、表示筐体10の一主面に配置された表示装置である。表示筐体10には、メインディスプレイ11と同じ側に受話用のレシーバ12及びサブカメラ15、反対側にサブディスプレイ13及びメインカメラ14が配置されている。
The
操作筐体20には、2以上の操作キー21と、送話用のマイクロホン22とが配置されている。メインカメラ14及びサブカメラ15は、ユーザ操作に基づいて、被写体を撮影する撮像手段である。ここでは、操作キー21を操作することによってカメラ画像が保存用に取り込まれる。
The
図2は、図1の携帯電話機100の電気的構成の一例を示したブロック図である。この携帯電話機100は、プロセッサからなる端末制御部44、並びに、この端末制御部44によりそれぞれ制御可能なセルラー通信部41、近距離無線通信部42、GPS受信部43、操作キー21、メインディスプレイ11、メインカメラ14、サブカメラ15及びデータ入出力部45を備えて構成される。
FIG. 2 is a block diagram showing an example of the electrical configuration of the
セルラー通信部41は、アンテナを介して基地局との間で電波の送受信を行っている。近距離無線通信部42は、近距離通信用のアンテナ及び赤外線の投受光器を介して他の携帯電話機との間でデータの送受信を行う近距離データ通信処理手段である。ここでは、ブルートゥース(Bluetooth:登録商標)や赤外線通信により画像データの送受信が行われる。
The cellular communication unit 41 transmits and receives radio waves to and from the base station via an antenna. The short-range
GPS受信部43は、一定周期ごとにGPS衛星からの信号を受信し、このGPS信号の受信データを端末制御部44へ出力する動作を行っている。データ入出力部45は、カードスロット内に収容されたメモリーカードに対して、データの入出力を行う外部インターフェースである。
The
図3は、図2の携帯電話機100の要部についての一構成例を示したブロック図であり、端末制御部44内の機能構成の一例が示されている。端末制御部44は、位置情報取得部46、移動履歴記憶部47、画像入力部48、被写体判別部49、特徴情報記憶部50、撮影位置判別部51、画像データ記憶部52、エリア指定部53、位置比較部54及び画像閲覧画面生成部55により構成される。
FIG. 3 is a block diagram showing a configuration example of a main part of the
位置情報取得部46は、GPS受信部43によるGPS信号の受信データに基づいて、現在位置を示す位置情報を取得する動作を行っている。位置情報は、複数のGPS衛星からの信号の受信結果を解析することによって判定され、例えば、緯度及び経度によって表される。また、セルラー通信部41の通信先の基地局を識別する位置情報を取得することにより、携帯電話機100がどの基地局のサービスエリア内に位置しているかを判別する構成であってもよい。ここでは、位置情報取得部46は、一定周期ごとに位置情報を取得しているものとする。
The position
移動履歴記憶部47は、位置情報取得部46により取得された位置情報にその取得時刻を対応づけた移動履歴情報を保持している。画像入力部48は、画像データを入力するための入力手段であり、例えば、受信メールに添付された画像データがセルラー通信部41を介して入力される。また、メモリーカード内に保持された画像データがデータ入出力部45を介して入力される構成であってもよい。ここでは、画像データがブルートゥースにより近距離無線通信部42を介して入力されるものとする。また、入力された画像データは、その撮影時刻が対応づけられている。
The movement
被写体判別部49は、特徴情報記憶部50に予め保持されているユーザの特徴情報に基づいて、画像データに被写体としてユーザが含まれているか否かを判別する動作を行っている。具体的には、ユーザの顔画像から抽出されて特徴情報記憶部50内に予め保持されている特徴情報と、画像データから抽出された特徴情報とを比較することにより、当該画像データに被写体としてユーザが含まれているか否かが判別される。特徴情報記憶部50には、ユーザの特徴情報が保持されている。より詳しくは、ユーザの顔画像から抽出された特徴情報、例えば、ユーザの目、鼻、口及び輪郭といった顔の各部分についての形や大きさなどの特徴情報が保持されている。
The
撮影位置判別部51は、被写体判別部49の判別結果に基づいて、移動履歴記憶部47に保持されている位置情報を画像データに対応づける動作を行っている。この場合、画像データの撮影時刻と、移動履歴記憶部47内に保持されている移動履歴情報の取得時刻とを比較することにより、位置情報が画像データに対応づけられる。具体的には、画像データに被写体としてユーザが含まれている場合に、この画像データが携帯電話機100の近くで撮影されたものとして判断し、移動履歴記憶部47に保持されている位置情報を画像データに対応づけている。一方、画像データに被写体としてユーザが含まれていない場合には、画像データの撮影位置の判別は行われない。
The shooting
この撮影位置判別部51は、時刻比較部511及び位置情報選択部512からなる。時刻比較部511は、画像データの撮影時刻と移動履歴情報の取得時刻とを比較する動作を行っている。例えば、移動履歴記憶部47内に保持されている取得時刻のうち、画像データの撮影時刻に最も近い取得時刻を判別している。また、画像データの撮影時刻より前の取得時刻であって、画像データの撮影時刻に最も近い取得時刻を判別する構成であってもよい。ここでは、時刻比較部511が、移動履歴記憶部47内に保持されている取得時刻のうち、画像データの撮影時刻に最も近い取得時刻を判別するものとして説明する。
The photographing
位置情報選択部512は、画像データに被写体としてユーザが含まれていると被写体判別部49により判別された場合に、時刻比較部511の比較結果に基づいて、移動履歴記憶部47内の位置情報を画像データの撮影位置として選択する動作を行っている。例えば、画像データの撮影時刻に最も近いと時刻比較部511により判別された取得時刻に対応づけられた位置情報を撮影位置として選択している。一方、画像データに被写体としてユーザが含まれていないと被写体判別部49により判別された場合には、位置情報の選択は行われない。画像データ記憶部52は、画像データと位置情報選択部512により選択された撮影位置とを対応づけて保持している。
The position
エリア指定部53は、ユーザの操作入力に基づいて、画像データを選択するためのエリアを指定する動作を行っている。例えば、地名や駅名などを入力するキー操作に基づいて、その位置周辺のエリアが指定される。ここでは、メインディスプレイ11に地図画像が表示されているときに、ユーザが地図上のいずれかの位置を選択するキー操作を行うことにより、その位置周辺のエリアが指定されるものとする。
The
位置比較部54は、エリア指定部53により指定されたエリアと、画像データ記憶部52に保持されている画像データの撮影位置とを比較する動作を行っている。具体的には、エリア内に含まれる撮影位置を判別し、この撮影位置に対応する画像データを選択している。
The
画像閲覧画面生成部55は、位置比較部54の比較結果に基づいて、画像データを閲覧するための画面データを生成する動作を行っている。ここでは、位置比較部54により選択された画像データの閲覧画面を表示するための画面データを生成し、メインディスプレイ11上に表示させている。
The image browsing
図4は、図3の被写体判別部49の構成例を示したブロック図である。被写体判別部49は、特徴抽出部491、一致度算出部492及び一致度判定部493からなる。特徴抽出部491は、画像データに含まれる顔画像から、目、鼻、口及び輪郭といった顔の各部分についての形や大きさなどの特徴情報を抽出する動作を行っている。
FIG. 4 is a block diagram illustrating a configuration example of the
画像データが顔画像を含まない風景画像などである場合には、画像データから特徴情報を抽出することができない。この場合、画像データに被写体としてユーザが含まれていないと判別される。一方、撮影画像から特徴情報を抽出することに成功した場合には、一致度算出部492により、抽出された特徴情報と特徴情報記憶部50に保持されているユーザの特徴情報とが比較され、数値化された一致度が算出される。
When the image data is a landscape image that does not include a face image, feature information cannot be extracted from the image data. In this case, it is determined that the user is not included as a subject in the image data. On the other hand, when the feature information is successfully extracted from the photographed image, the matching
一致度判定部493は、一致度算出部492により算出された一致度を所定の閾値と比較し、その比較結果を出力している。このとき、一致度が閾値を超えた場合には、画像データに被写体としてユーザが含まれていると判別され、一致度が閾値よりも小さい場合には、画像データにユーザが含まれていないと判別される。ここでいう一致度とは、比較されたすべての特徴情報のうち一致した特徴情報の占める割合である。
The degree of
このような構成を採用すれば、被写体判別部49により、入力された画像データに被写体としてユーザが含まれているか否かの判別が行われ、その判別結果に基づいて、撮影位置判別部51が、画像データの撮影位置として、撮影時刻に最も近い時刻に取得された位置情報を選択し、当該画像データに対応づけている。すなわち、被写体として携帯電話機100のユーザが含まれていれば、携帯電話機100に近い位置で撮影された画像データであると判断できるので、その撮影時刻に対応する携帯電話機100の位置情報が割り当てられる。従って、他人の撮像装置により撮像された画像データの撮影位置を判別する場合の信頼性を向上させることができる。
If such a configuration is adopted, the
また、画像データの撮影時刻と位置情報の取得時刻とを比較するだけで位置情報を選択することができるので、簡単な処理により画像データの撮影位置を判別することができる。更に、撮影時刻に最も近い時刻に取得された位置情報が撮影位置として選択されるので、撮影位置を精度良く選択することができる。 Further, since the position information can be selected simply by comparing the shooting time of the image data and the acquisition time of the position information, the shooting position of the image data can be determined by a simple process. Furthermore, since the position information acquired at the time closest to the shooting time is selected as the shooting position, the shooting position can be selected with high accuracy.
図5は、図1の携帯電話機100に用いられる移動履歴情報の一例を示した図である。この例では、携帯電話機100の緯度及び経度を示す位置情報が、GPS受信部43により1分ごとに取得されるとともに、その取得時刻に対応づけられて保持されている。例えば、2010年6月23日22時10分に取得された位置情報では、携帯電話機100が北緯33.00度、東経131.00度の地点に位置していたことが示されている。また、2010年6月23日22時14分に取得された位置情報では、携帯電話機100が北緯33.01度、東経131.01度の地点に位置していたことが示されている。
FIG. 5 is a diagram showing an example of movement history information used in the
図6は、ユーザを表す画像の登録画面の表示例を示した図である。ユーザを表す画像は、ユーザの特徴情報を抽出するための画像であり、サブカメラ15により撮影される。このユーザの特徴情報は、特徴情報記憶部50内に保持され、入力された画像データに被写体としてユーザが含まれているか否かを判別する場合に用いられる。
FIG. 6 is a diagram illustrating a display example of an image registration screen representing a user. The image representing the user is an image for extracting the feature information of the user and is taken by the
ユーザを表す画像の登録を指示するユーザ操作が行われると、サブカメラ15が起動され、サブカメラ15による撮影が可能な状態になった後、サブカメラ15に対する被写体の画像がリアルタイムでメインディスプレイ11に表示される(図6参照)。このとき、メインディスプレイ11は、サブカメラ15のファインダとして機能し、メインディスプレイ11により構成されるファインダ画面には、メインディスプレイ11を見ながら操作を行っている者の顔が映し出されることとなる。また、メインディスプレイ11には、サブカメラ15による撮影を行うためのアイコン111が表示されている。
When a user operation for instructing registration of an image representing a user is performed, the
図6のファインダ画面において、ユーザが自分の顔の位置あわせなどを行った後、アイコン111に対応する操作キー21を操作することにより登録操作を行うと、被写体判別部49の特徴抽出部491が、そのときサブカメラ15で撮影された画像からユーザの特徴情報を抽出する処理を行う。このとき、抽出された特徴情報は、特徴情報記憶部50に格納される。
In the finder screen of FIG. 6, when the user performs registration operation by operating the operation key 21 corresponding to the
図7は、画像データに撮影位置を対応づけることをユーザに促す確認画面の表示例を示した図である。この画面は、画像データに撮影位置を対応づけるか否かをユーザに確認するための入力画面であり、画像データに被写体としてユーザが含まれていると判別された場合にメインディスプレイ11に表示される。
FIG. 7 is a diagram illustrating a display example of a confirmation screen that prompts the user to associate a shooting position with image data. This screen is an input screen for confirming to the user whether or not to associate the shooting position with the image data, and is displayed on the
この確認画面の上端表示領域61には、画像データのファイル名「IMG_0001.JPG」が表示されており、下端表示領域63には、アイコン112及びアイコン113が表示されている。メイン表示領域62には、被写体としてユーザが含まれている画像データが表示されるとともに、画像データに撮影位置を対応づけるか否かをユーザに確認するためのメッセージが表示されている。
The file name “IMG — 0001.JPG” of the image data is displayed in the upper
アイコン112及びアイコン113には、それぞれ文字列「はい」、「いいえ」が表示されており、ユーザがいずれかを選択することにより、画像データに撮影位置を対応づけるか否かが選択される。アイコン112に対応する操作キー21が操作された場合、画像データに撮影位置が対応づけられて画像データ記憶部52に格納される。一方、アイコン113に対応する操作キー21が操作された場合には、画像データと撮影位置とは対応づけられない。
Character strings “Yes” and “No” are displayed on the
図8のステップS101〜S109は、図1の携帯電話機100における撮影位置の追加処理の一例を示したフローチャートである。まず、画像入力部48により画像データが入力されると、この画像データが撮影位置と対応づけられているかの判定が行われる(ステップS101,S102)。画像データに撮影位置が対応づけられている場合には、画像データに撮影位置を追加する必要はないので、ステップS109に進む。一方、画像データに撮影位置が対応づけられていない場合、この画像データに撮影時刻が対応づけられているかの判定が行われる(ステップS103)。画像データに撮影時刻が対応づけられていない場合には、ステップS109に進む。一方、画像データに撮影時刻が対応づけられている場合には、特徴抽出部491が、画像データから特徴情報を抽出し(ステップS104)、一致度算出部492が、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度を算出する。更に、一致度判定部493が、算出された一致度が所定の閾値より高いか否かの判定を行う(ステップS105)。
Steps S101 to S109 in FIG. 8 are flowcharts showing an example of the shooting position addition process in the
画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が閾値より低い場合には、ステップS109に進む。一方、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が閾値より高い場合には、時刻比較部511が、画像データの撮影時刻と、移動履歴記憶部47内に保持されている取得時刻とを比較し、撮影時刻に最も近い取得時刻を判別する(ステップS106)。更に、位置情報選択部512が、撮影時刻に最も近い取得時刻に対応づけられた位置情報を選択し、この位置情報を画像データの撮影位置として画像データに対応づけ、画像データ記憶部52に格納する(ステップS107,S108)。そして、他に入力された画像データがある場合には、ステップS102〜S109の処理手順が繰り返される(ステップS109)。
If the degree of coincidence between the feature information extracted from the image data and the user's feature information held in the feature
図9のステップS201〜S206は、図1の携帯電話機100における画像選択処理の一例を示したフローチャートである。まず、メインディスプレイ11上に地図画像が表示される(ステップS201)。次に、地図画像上のいずれかの位置を選択するユーザ操作が行われると、その位置周辺のエリア内の撮影位置に対応づけられた画像データが読み出され、これらの画像データのサムネイル画像が一覧表示される(ステップS202〜S204)。例えば、いずれかの都道府県を地図画像から選択するユーザ操作が行われた場合、選択された県内の撮影位置に対応づけられた画像データが読み出され、これらの画像データのサムネイル画像が一覧表示される。更に、これらの画像データのいずれかを選択するユーザ操作が行われた場合には、選択された画像データがメインディスプレイ11上に表示され(ステップS205,S206)、処理を終了する。
Steps S201 to S206 in FIG. 9 are flowcharts showing an example of image selection processing in the
従来の携帯情報端末装置では、他の撮像装置により撮影が行われた時刻に携帯情報端末装置で取得された位置情報が、一律に撮影位置として画像データに対応づけられていた。このため、携帯情報端末装置が撮影時刻に他の撮像装置と近い位置にあった場合には、画像データに撮影位置を対応づけることができるが、携帯情報端末装置が撮影時刻に他の撮像装置から離れていた場合には、画像データに誤った撮影位置が対応づけられてしまうという問題があった。 In the conventional portable information terminal device, the position information acquired by the portable information terminal device at the time when the image is taken by another imaging device is uniformly associated with the image data as the shooting position. For this reason, when the portable information terminal device is at a position close to another imaging device at the photographing time, the photographing position can be associated with the image data. When the user is away from the camera, there is a problem that an incorrect shooting position is associated with the image data.
これに対し、本実施の形態によれば、例えば、ユーザと他の撮像装置の所有者とが共に行動することにより、携帯情報端末装置100と他の撮像装置とが近い位置にあった場合、他の撮像装置により撮影された画像データにユーザが被写体として含まれていることを判別することにより、この画像データに撮影位置を対応づけることができる。一方、ユーザと他の撮像装置の所有者とが別行動することにより、携帯情報端末装置100が撮影時刻に他の撮像装置から離れていた場合には、画像データにユーザが被写体として含まれることはなく、携帯情報端末装置100で取得された位置情報が撮影位置として画像データに対応づけられることはない。このため、画像データに誤った撮影位置が対応づけられることを抑制することができ、画像データに対応づけられる撮影位置の信頼性を向上させることができる。
On the other hand, according to the present embodiment, for example, when the user and the owner of another imaging device act together, the portable
また、本実施の形態によれば、ユーザは、メインディスプレイ11に表示された地図からいずれかのエリアを指定することにより、指定したエリアで撮影された画像データを表示させることができる。従って、ユーザが任意のエリアで撮影された画像データを容易に表示させることができるので、利便性が高い。
Further, according to the present embodiment, the user can display image data captured in the designated area by designating any area from the map displayed on the
なお、本実施の形態では、画像データが静止画像である場合の例について説明したが、本発明はこれに限られるものではない。例えば、画像データが一連のフレーム画像からなる動画像であってもよい。 In the present embodiment, an example in which the image data is a still image has been described, but the present invention is not limited to this. For example, the image data may be a moving image composed of a series of frame images.
また、本実施の形態では、位置情報取得部46が、一定周期ごとに位置情報を取得する場合の例について説明したが、本発明は、これに限られるものではない。例えば、セルラー通信部41により通信が行われている基地局が切り替わった場合に、位置情報を取得する構成であってもよい。また、近距離無線通信部42による近距離無線通信が行われたとき、セルラー通信部41による電子メールの送受信が行われたとき、又は、メモリーカードがカードスロット内に挿入されたときに位置情報を取得する構成であってもよい。更に、ユーザがテキスト形式のメモを作成したときや、ナビゲーション機能を使用したときに位置情報を取得する構成であってもよい。
Moreover, although the position
実施の形態2.
実施の形態1では、被写体判別部49が、顔に関するユーザの特徴情報と画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かを判別する場合の例について説明した。これに対し、本実施の形態では、画像データに含まれる服装又は帽子に関するユーザの特徴情報と画像データから抽出された対応する特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かを判別する場合の例について説明する。
In the first embodiment, the
図10は、本発明の実施の形態2による携帯電話機100の要部についての一構成例を示したブロック図であり、端末制御部44内の機能構成の一例が示されている。被写体判別部49及び特徴情報追加部71以外の構成は、実施の形態1の場合と同一であるため、重複する説明は省略する。
FIG. 10 is a block diagram showing an example of the configuration of the main part of the
被写体判別部49は、特徴情報記憶部50に予め保持されているユーザの特徴情報に基づいて、画像データに被写体としてユーザが含まれているか否かを判別する動作を行っている。具体的には、顔に関するユーザの特徴情報と、画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かが判別される。また、ユーザの服装又は帽子の画像から抽出され、特徴情報記憶部50に予め保持されている特徴情報と、画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かが判別される。
The
画像データに含まれる人物の顔の位置が特定された場合、帽子及び服の位置が推定できるため、帽子及び服の色合いや模様に関する特徴情報を抽出することができる。このため、抽出された特徴情報と、特徴情報記憶部50に予め保持されているユーザの特徴情報とを比較することにより、画像データに被写体としてユーザが含まれているか否かを判別することができる。
When the position of the person's face included in the image data is specified, the position of the hat and clothes can be estimated, so that feature information regarding the color and pattern of the hat and clothes can be extracted. For this reason, it is possible to determine whether or not the user is included as a subject in the image data by comparing the extracted feature information with the feature information of the user stored in the feature
特徴情報追加部71は、画像データに被写体としてユーザが含まれていると判別された場合に、この画像データから抽出された服装又は帽子に関するユーザの特徴情報を特徴情報記憶部50に格納する動作を行っている。具体的には、顔に関するユーザの特徴情報と、画像データから抽出された特徴情報とを比較することにより、画像データに被写体としてユーザが含まれていると判別された場合に、この画像データから抽出された服装又は帽子に関する特徴情報をユーザの特徴情報として特徴情報記憶部50に格納している。
When it is determined that the user is included as a subject in the image data, the feature information adding unit 71 stores the feature information of the user regarding clothes or a hat extracted from the image data in the feature
図11は、図10の携帯電話機100における撮影位置の追加処理の一例を示したフローチャートである。このフローチャートは、ステップS304〜S306を除き、図8のステップS101〜S109と同一であるため、重複する説明は省略する。
FIG. 11 is a flowchart illustrating an example of the shooting position addition process in the
ステップS304では、画像データに撮影時刻が対応づけられている場合に、特徴抽出部491が、画像データから顔、服装及び帽子に関する特徴情報を抽出する。次に、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が一致度算出部492により算出され、この一致度が所定の閾値より高いか否かの判定が一致度判定部493によって行われる(ステップS305)。このとき、一致度算出部492は、顔、服装又は帽子に関する特徴情報をユーザの特徴情報と比較することによって一致度を算出する。例えば、服装又は帽子に関する特徴情報が特徴情報記憶部50に保持されていない場合には、画像データから抽出された顔に関する特徴情報とユーザの特徴情報とを比較することにより、一致度が算出される。また、画像データから顔に関する特徴情報を抽出できない場合には、画像データから抽出された服装又は帽子に関する特徴情報とユーザの特徴情報とを比較することにより、一致度が算出される。
In step S304, when the shooting time is associated with the image data, the
画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が所定の閾値より高い場合には、特徴情報追加部71が、画像データから抽出された服装又は帽子に関するユーザの特徴情報を特徴情報記憶部50に格納する(ステップS306)。一方、画像データから抽出された特徴情報と、特徴情報記憶部50に保持されているユーザの特徴情報との一致度が所定の閾値より低い場合には、図8のステップS109と同様に、他に画像データがあるか否かの判定が行われる(ステップS310)。
When the degree of coincidence between the feature information extracted from the image data and the user's feature information held in the feature
本実施の形態によれば、被写体としてユーザが含まれていると判別された画像データから抽出された服装又は帽子に関する特徴情報が、特徴情報追加部71により特徴情報記憶部50に格納される。更に、この特徴情報を用いて一致度判定部493により他の画像データに被写体としてユーザが含まれているか否かの判別が行われる。従って、例えば、ユーザの後ろ姿が撮影されている場合など、顔に関する特徴情報の比較ではユーザが撮影されているか否かを正しく判別できない場合に、服装又は帽子に関する特徴情報の比較を行うことにより、ユーザが撮影されているか否かを精度良く判別することができる。
According to the present embodiment, feature information about clothes or a hat extracted from image data determined to include a user as a subject is stored in the feature
なお、本実施の形態では、特徴情報追加部71がユーザの服装又は帽子に関する特徴情報を特徴情報記憶部50内に格納する場合の例について説明したが、本発明はこれに限られるものではない。例えば、ユーザの服装又は帽子に関する特徴情報が、予め特徴情報記憶部50に保持される構成であってもよい。
In the present embodiment, the example in which the feature information adding unit 71 stores the feature information related to the user's clothes or hat in the feature
実施の形態3.
実施の形態1及び2では、位置情報取得部46が、一定周期ごとに位置情報を取得する場合の例について説明した。しかしながら、本発明はこれに限られるものではなく、位置情報取得部46が、メインカメラ14又はサブカメラ15により被写体を撮影するためのユーザ操作に基づいて、位置情報を取得する構成であってもよい。例えば、被写体を撮影するためのキー操作が行われたときに、位置情報を取得することが考えられる。
In the first and second embodiments, the example has been described in which the position
ユーザと他者とがお互いを被写体として撮影することは少なくないので、通常、被写体を撮影するためのユーザ操作が行われるときには、ユーザが他の撮像装置により撮影されることが多い。従って、位置情報取得部46が、ユーザの撮影操作に基づいて位置情報を取得し、移動履歴情報として移動履歴記憶部47に格納することにより、ユーザが撮影されている画像データがその後に入力された場合に、この位置情報を対応づけることができる。この場合、高い頻度で位置情報を取得しなくても、位置情報を精度良く対応づけることができるので、消費電力を低減することができる。
Since the user and other people often photograph each other as a subject, usually, when a user operation for photographing a subject is performed, the user is often photographed by another imaging device. Therefore, the position
また、位置情報取得部46が、一定周期ごとに位置情報を取得する場合に、被写体を撮影するためのユーザ操作が行われてから所定の期間、より短い周期で位置情報を取得する構成であってもよい。
In addition, when the position
すなわち、位置情報取得部46が、第1の周期ごとに位置情報を取得するとともに、被写体を撮影するためのユーザ操作に基づいて、第1の周期よりも短い第2の周期ごとに位置情報を取得する構成であってもよい。
That is, the position
このような構成を採用すれば、被写体を撮影するためのユーザ操作に基づいて、位置情報取得部46が、位置情報を取得する頻度をより高くしているので、ユーザが他人から撮影される可能性が高いと予想される場合に、高頻度で位置情報を取得することができる。従って、消費電力を低減しつつ、被写体としてユーザが含まれている画像データについて、撮像位置を精度良く判別することができる。
By adopting such a configuration, the position
11 メインディスプレイ
14 メインカメラ
15 サブカメラ
21 操作キー
41 セルラー通信部
42 近距離無線通信部
43 GPS受信部
44 端末制御部
45 データ入出力部
46 位置情報取得部
47 移動履歴記憶部
48 画像入力部
49 被写体判別部
50 特徴情報記憶部
51 撮影位置判別部
52 画像データ記憶部
53 エリア指定部
54 位置比較部
55 画像閲覧画面生成部
71 特徴情報追加部
100 携帯電話機
491 特徴抽出部
492 一致度算出部
493 一致度判定部
511 時刻比較部
512 位置情報選択部
11
Claims (7)
上記位置情報に対し、当該位置情報の取得時刻を対応づけた移動履歴情報を保持する移動履歴記憶手段と、
ユーザの特徴情報を保持する特徴情報記憶手段と、
撮影時刻が対応づけられた画像データを入力するための画像入力手段と、
上記特徴情報に基づいて、上記画像データに被写体として上記ユーザが含まれているか否かを判別する被写体判別手段と、
上記被写体判別手段の判別結果に基づいて、上記移動履歴記憶手段内の上記位置情報を上記画像データに対応づける撮影位置判別手段とを備え、
上記撮影位置判別手段は、上記撮影時刻と上記移動履歴記憶手段内の上記取得時刻とを比較することにより、上記位置情報を上記画像データに対応づけることを特徴とする携帯情報端末装置。 Position information acquisition means for acquiring position information;
Movement history storage means for holding movement history information in which the acquisition time of the position information is associated with the position information;
Feature information storage means for storing user feature information;
Image input means for inputting image data associated with shooting time;
Subject determination means for determining whether or not the user is included as a subject in the image data based on the feature information;
Photographing position determining means for associating the position information in the movement history storage means with the image data based on the determination result of the subject determining means;
The portable information terminal device, wherein the photographing position determining means associates the position information with the image data by comparing the photographing time with the acquisition time in the movement history storage means.
上記位置情報取得手段は、上記ユーザ操作に基づいて、上記位置情報を取得することを特徴とする請求項1に記載の携帯情報端末装置。 Based on a user operation, provided with an imaging means for photographing a subject,
The portable information terminal device according to claim 1, wherein the position information acquisition unit acquires the position information based on the user operation.
上記被写体判別手段は、上記顔画像から抽出された特徴情報と上記画像データから抽出された特徴情報とを比較することにより、当該画像データに被写体として上記ユーザが含まれているか否かを判別することを特徴とする請求項1に記載の携帯情報端末装置。 The feature information storage means holds the user feature information extracted from the face image,
The subject determination means determines whether or not the user is included as a subject in the image data by comparing the feature information extracted from the face image and the feature information extracted from the image data. The portable information terminal device according to claim 1.
ユーザの操作入力に基づいて、エリアを指定するエリア指定手段と、
上記エリアを上記画像データ記憶手段に保持されている上記画像データの上記位置情報と比較する位置比較手段と、
上記位置比較手段の比較結果に基づいて、上記画像データを閲覧するための画面データを生成する画像閲覧画面生成手段とを備えたことを特徴とする請求項1に記載の携帯情報端末装置。 Image data storage means for holding the image data associated with the position information by the photographing position determination means ;
An area designating means for designating an area based on a user operation input;
Position comparison means for comparing the area with the position information of the image data held in the image data storage means;
2. The portable information terminal device according to claim 1, further comprising image browsing screen generation means for generating screen data for browsing the image data based on a comparison result of the position comparison means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011028806A JP5634910B2 (en) | 2011-02-14 | 2011-02-14 | Portable information terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011028806A JP5634910B2 (en) | 2011-02-14 | 2011-02-14 | Portable information terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012169837A JP2012169837A (en) | 2012-09-06 |
JP5634910B2 true JP5634910B2 (en) | 2014-12-03 |
Family
ID=46973547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011028806A Expired - Fee Related JP5634910B2 (en) | 2011-02-14 | 2011-02-14 | Portable information terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5634910B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001292389A (en) * | 2000-04-07 | 2001-10-19 | Kenwood Corp | Contents processing, apparatus contents processing method and recording medium |
JP4920295B2 (en) * | 2006-04-25 | 2012-04-18 | オリンパスイメージング株式会社 | camera |
JP2008277892A (en) * | 2007-04-25 | 2008-11-13 | Sony Corp | Information processing apparatus, information processing method, program, information processing system, and image reproducing apparatus |
JP4913232B2 (en) * | 2009-06-18 | 2012-04-11 | パナソニック株式会社 | Image selection apparatus and image selection method |
-
2011
- 2011-02-14 JP JP2011028806A patent/JP5634910B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012169837A (en) | 2012-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9332208B2 (en) | Imaging apparatus having a projector with automatic photography activation based on superimposition | |
JP5218989B2 (en) | Communication terminal device and program | |
KR101977703B1 (en) | Method for controlling photographing in terminal and terminal thereof | |
JP4471898B2 (en) | Portable information terminal device | |
US10397471B2 (en) | Image processing apparatus, location information adding method | |
JP2005267146A (en) | Method and device for creating email by means of image recognition function | |
US20150269782A1 (en) | Augmented reality display system, augmented reality information generating apparatus, augmented reality display apparatus, and server | |
WO2009087498A1 (en) | Intelligent image enhancement | |
JP2014038429A (en) | Image processor, image processing method and image processing program | |
JP6268904B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US9294664B2 (en) | Image display apparatus that displays a menu corresponding to an object, image display method that displays a menu corresponding to an object, and storage medium thereof | |
JP2009124254A (en) | Photographing device | |
WO2012169636A1 (en) | Information terminal, information terminal control method, control program, and recording medium | |
JP5634910B2 (en) | Portable information terminal device | |
JP2010154047A (en) | Portable information terminal | |
JP2009111827A (en) | Photographing apparatus and image file providing system | |
JP2012034107A (en) | Image display device, image display method, and image display program | |
JP5798384B2 (en) | Information terminal, information terminal control method, control program, and recording medium | |
JP5977697B2 (en) | Electronic device and method for controlling electronic device | |
JP2004163241A (en) | Wireless portable terminal, navigation method used for the same, and its program | |
JP5253595B2 (en) | Imaging system and imaging apparatus | |
WO2016110967A1 (en) | Information processing device, information processing method, and processing program used therefor | |
JP2016139242A (en) | Terminal equipment | |
JP2015204037A (en) | Image processing device, communication system, and communication method | |
JP5473034B2 (en) | Terminal device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5634910 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |