JP2014179743A - Electronic apparatus and method of controlling electronic apparatus - Google Patents
Electronic apparatus and method of controlling electronic apparatus Download PDFInfo
- Publication number
- JP2014179743A JP2014179743A JP2013051685A JP2013051685A JP2014179743A JP 2014179743 A JP2014179743 A JP 2014179743A JP 2013051685 A JP2013051685 A JP 2013051685A JP 2013051685 A JP2013051685 A JP 2013051685A JP 2014179743 A JP2014179743 A JP 2014179743A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- information
- image
- input
- monitor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
Description
この発明は、撮影した画像に含まれる被写体毎に情報を付加することが可能な電子機器に関する。 The present invention relates to an electronic apparatus capable of adding information for each subject included in a photographed image.
近年、スマートフォンおよびデジタルカメラを含む電子機器で撮影した画像に日時、撮影場所等の情報を関連付けることで画像を分類する技術が提案されている。 In recent years, there has been proposed a technique for classifying images by associating information such as date / time and shooting location with images taken with electronic devices including smartphones and digital cameras.
たとえば、特開2002−077805(特許文献1)は、『カメラ10のCPU12は、GPS等を用いた位置認識部14により撮影を行った位置を認識し、方位計16によりカメラを向けた注目方位を認識し、撮影し得る結像画像の固有情報、例えば、地域名や施設名称と位置情報とを関連付けた辞書メモリ20から検索する。撮影メモ合成部30は、その結果を結像画像と共に記憶媒体上に関連付けて記憶する』という技術を開示している([要約]参照)。
For example, Japanese Patent Application Laid-Open No. 2002-077705 (Patent Document 1) states that “the CPU 12 of the camera 10 recognizes the position where the image was taken by the
特開平11−146317(特許文献2)は、『デジタルスチルカメラ1の表示部10にタッチパネル12を配置し、撮影後に撮影画像とともに家族等の人物アイコン30や、ジャンルアイコン40を表示する。そして、所望のアイコンをタッチすることにより、そのアイコンに関連付けられている個人情報、キーワード等の情報を識別情報として画像に付加する』という技術を開示している([要約]参照)。
Japanese Patent Application Laid-Open No. 11-146317 (Patent Document 2) states that “the touch panel 12 is arranged on the display unit 10 of the digital still camera 1 and a
特開2005−191892(特許文献3)は、『撮影装置1と、外部に設けられた情報提供サーバSと、撮影装置1と情報提供サーバSとを接続するネットワーク5と、を有している。情報提供サーバSは、地域情報、例えば、販売店、飲食店、公共機関(観光協会などを含む)、駅、病院などのクライアントがそれぞれの有する情報であって一般に参照させることが可能な各種情報を情報提供サーバSにアップロードしている。撮影装置1により、日光の名所である、「杉並木」31a、「三猿」31b、「華厳の滝」31c、「いろは坂」31d、「日光東照宮」31e、「日光江戸村」31fのそれぞれのシーンにおける映像を順に撮影していった場合に、それぞれのシーンにおける映像31a〜31fと、地域情報サーバSから通信部7を介して取得した地域情報の解説テキストファイルと、を対応付けしてメモリに記憶する』という技術を開示している([要約]参照)。 Japanese Patent Laid-Open No. 2005-191892 (Patent Document 3) has “a photographing apparatus 1, an information providing server S provided outside, and a network 5 that connects the photographing apparatus 1 and the information providing server S. . The information providing server S is regional information, for example, various information that can be generally referred to by clients such as stores, restaurants, public institutions (including tourist associations), stations, hospitals, etc. Is uploaded to the information providing server S. According to the photographing device 1, each of the famous places of sunlight, “Suginami Tree” 31a, “Three Monkeys” 31b, “Kegon no Taki” 31c, “Iroha Saka” 31d, “Nikko Toshogu” 31e, “Nikko Edomura” 31f When images in a scene are sequentially photographed, the images 31a to 31f in each scene are associated with a description text file of regional information acquired from the regional information server S via the communication unit 7 in association with the memory. (See [Summary]).
ところで、複数の被写体が1枚の画像に写っている場合、被写体の各々に関する情報を付加し、後日画像を見返した時に被写体毎に付加した情報を確認したいという要望がある。たとえば、人物および建築物が1枚の画像に写っている場合、人物に関しては当該人物の情報(名前等)を記憶し、建築物に関しては当該建築物について調べた検索結果を記憶したいという要望がある。 By the way, when a plurality of subjects appear in one image, there is a demand to add information about each subject and confirm the added information for each subject when looking back at the image at a later date. For example, when a person and a building are shown in one image, there is a desire to store information on the person (name, etc.) for the person and store a search result obtained by examining the building for the building. is there.
しかしながら、特許文献1に開示された技術は、地域情報等を画像毎に結び付けることで撮影した画像に関する情報を容易に認識するものである。 However, the technique disclosed in Patent Document 1 easily recognizes information related to a photographed image by connecting regional information or the like for each image.
特許文献2に開示された技術は、所望のアイコンをタッチすることにより、そのアイコンに関連付けられている個人情報、キーワード等の情報を識別情報として画像に付加するものである。 The technique disclosed in Patent Document 2 adds information such as personal information and keywords associated with an icon to the image as identification information by touching the desired icon.
特許文献3に開示された技術は、地域情報の解説テキストファイルと映像とを対応付けしてメモリに記憶するものである。 The technique disclosed in Patent Document 3 associates an explanation text file of regional information with a video and stores them in a memory.
そのため、画像に含まれる被写体毎に情報を付加することができない。したがって、画像に含まれる被写体毎に情報を付加する技術が必要とされている。この開示は上述のような問題点を解決するためになされたものであって、その目的は、画像に含まれる被写体毎に応じて情報を付加し、ユーザが後日画像を見返した時に、撮影時の状況を容易に思い起こすことが可能な電子機器を提供することである。 Therefore, information cannot be added for each subject included in the image. Therefore, a technique for adding information for each subject included in an image is required. This disclosure has been made to solve the above-described problems. The purpose of this disclosure is to add information according to each subject included in the image, and when the user looks back at the image at a later date, It is to provide an electronic device that can easily recall the situation.
一実施の形態に従うと、電子機器は、カメラと、カメラからの画像を表示するためのモニタと、モニタにおける接触部分を検出するためのタッチパネルと、画像内の接触部分を含む部分画像に写っている被写体の種別を識別するための被写体識別手段と、被写体識別手段により識別された種別に関連付けられた画面をモニタに表示するための表示制御手段とを備える。画面は、被写体に関する情報の入力を受け付けるための入力画面を含む。電子機器は、画像内の部分画像の範囲、被写体識別手段により識別された種別、および入力画面に入力された入力情報を関連付けて格納するための記憶部と、モニタにおける接触部分が範囲に含まれる場合に、入力情報を表示するための入力情報表示手段とを備える。 According to one embodiment, an electronic device is shown in a partial image including a camera, a monitor for displaying an image from the camera, a touch panel for detecting a contact portion on the monitor, and a contact portion in the image. Subject identifying means for identifying the type of the subject present, and display control means for displaying on the monitor a screen associated with the type identified by the subject identifying means. The screen includes an input screen for accepting input of information related to the subject. The electronic device includes a range of a partial image in the image, a type identified by the subject identifying unit, and a storage unit for storing the input information input on the input screen in association with each other, and a contact portion on the monitor. In some cases, input information display means for displaying the input information is provided.
好ましくは、画面は、被写体に関する情報を検索するための検索画面を含む。記憶部は、画像中の部分画像の範囲、被写体識別手段により識別された種別、および検索の結果を関連付けてさらに格納するように構成される。電子機器は、モニタにおける接触部分が範囲に含まれる場合に、検索の結果を表示するための検索結果表示手段をさらに備える。 Preferably, the screen includes a search screen for searching for information related to the subject. The storage unit is configured to further store the range of the partial image in the image, the type identified by the subject identifying unit, and the search result in association with each other. The electronic device further includes search result display means for displaying a search result when the contact portion in the monitor is included in the range.
好ましくは、被写体識別手段は、部分画像の特徴量に基づいて、被写体の種別を識別するように構成されている。 Preferably, the subject identifying means is configured to identify the type of the subject based on the feature amount of the partial image.
好ましくは、被写体識別手段は、被写体の種別が人物であるか否かを判定するための人物識別手段を含む。 Preferably, the subject identifying unit includes a person identifying unit for determining whether or not the type of the subject is a person.
好ましくは、電子機器は、電子機器の現在の位置を示す現在位置情報を取得する位置取得部と、カメラが向いている方向を示す方向情報を取得するための方向取得部とをさらに備える。記憶部は、人工物の地図上の位置情報を示す人工物位置情報さらに格納するように構成される。被写体識別手段は、現在位置情報と、方向情報と、人工物位置情報とに基づいて、被写体の種別が人工物であるか否かを判定するための人工物識別手段を含む。 Preferably, the electronic device further includes a position acquisition unit that acquires current position information indicating a current position of the electronic device, and a direction acquisition unit that acquires direction information indicating a direction in which the camera is facing. The storage unit is configured to further store artifact position information indicating position information of the artifact on the map. The subject identifying means includes an artifact identifying means for determining whether the type of the subject is an artifact based on the current position information, the direction information, and the artifact position information.
好ましくは、記憶部は、自然物の地図上の位置情報を示す自然物位置情報をさらに格納するように構成される。被写体識別手段は、現在位置情報と、方向情報と、自然物位置情報とに基づいて、被写体の種別が自然物であるか否かを判定するための自然物識別手段を含む。 Preferably, the storage unit is configured to further store natural object position information indicating position information of the natural object on the map. The subject identifying means includes natural object identifying means for determining whether or not the type of the subject is a natural object based on the current position information, the direction information, and the natural object position information.
好ましくは、被写体の種別の選択を受け付ける選択画面を表示するための選択画面表示手段をさらに備える。被写体識別手段は、選択に基づいて、被写体の種別を識別するように構成される。 Preferably, a selection screen display means for displaying a selection screen for accepting selection of the type of subject is further provided. The subject identifying means is configured to identify the type of the subject based on the selection.
他の実施形態に従うと、電子機器を制御するための方法が提供される。電子機器は、カメラと、カメラからの画像を表示するためのモニタと、モニタにおける接触部分を検出するためのタッチパネルとを備える。電子機器を制御するための方法は、画像内の接触部分を含む部分画像に写っている被写体の種別を識別するステップと、識別するステップにより識別された種別に関連付けられた画面をモニタに表示するステップとを備える。表示するステップは、被写体に関する情報の入力を受け付けるための入力画面を表示するためのステップを含む。電子機器を制御するための方法は、画像内の部分画像の範囲、識別するステップにより識別された種別、および入力画面に入力された入力情報を関連付けて格納するステップと、モニタにおける接触部分が範囲に含まれる場合に、入力情報を表示するステップとをさらに備える。 According to another embodiment, a method for controlling an electronic device is provided. The electronic device includes a camera, a monitor for displaying an image from the camera, and a touch panel for detecting a contact portion on the monitor. A method for controlling an electronic device includes a step of identifying a type of a subject in a partial image including a contact portion in an image, and a screen associated with the type identified by the identifying step is displayed on a monitor. Steps. The displaying step includes a step for displaying an input screen for accepting input of information related to the subject. A method for controlling an electronic device includes a step of associating and storing a range of partial images in an image, a type identified by an identifying step, and input information input on an input screen, and a contact portion in a monitor And a step of displaying the input information.
ある局面において、画像に写っている被写体毎に情報を付加し、ユーザが後日画像を見返した時に、撮影時の状況を容易に思い起こすことができる。 In one aspect, information is added to each subject in the image, and when the user looks back at the image later, the situation at the time of shooting can be easily recalled.
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.
以下、図面を参照しつつ、本実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。 Hereinafter, the present embodiment will be described with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
[第1の実施の形態]
<ハードウェア構成>
図1を参照して、電子機器100のハードウェア構成について説明する。図1は、電子機器100のハードウェア構成の具体例を示すブロック図である。
[First Embodiment]
<Hardware configuration>
A hardware configuration of the
電子機器100は、CPU(Central Processing Unit)20と、アンテナ23と、通信装置24と、操作キーなどのユーザインターフェイス25と、カメラ26と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM(Read Only Memory)29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、ディスプレイ35と、LED(Light Emitting Diode)36と、データ通信I/F(インターフェイス)37と、バイブレータ38と、GPS(Global Positioning System)コントローラ39と、方位センサ40とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。
The
電子機器100は、たとえば、スマートフォン、デジタルカメラ、携帯電話、タブレット型端末、その他のカメラ機能を備える電子機器である。
The
アンテナ23は、基地局によって発信される信号を受信する。また、アンテナ23は、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれる。処理後の信号は、CPU20に送られる。
The
CPU20は、電子機器100に対して与えられる命令に基づいて電子機器100の動作を制御するための処理を実行する。電子機器100のアンテナ23が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。
The
マイク32は、電子機器100に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。
The
フラッシュメモリ27は、CPU20から送られるデータを格納する。CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
The
RAM28は、CPU20によって生成されるデータを一時的に保持する。ROM29は、電子機器100に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、電子機器100の動作を制御する。
The
メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、読み出したデータをCPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。
The memory
音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図1に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されているが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
The audio
ディスプレイ35は、タッチパネル式のディスプレイであるが、タッチパネルの機構は特に限られない。ディスプレイ35は、CPU20から与えられるデータに基づいて、当該データによって規定される画像を表示する。
The
LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。データ通信I/F37は、データ通信用のケーブルの装着を受け付ける。データ通信I/F37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信I/F37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。他の局面において、データ通信I/F37は、無線であってもよい。
The
バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
GPSコントローラ39は、GPS信号または基地局からの位置信号(測位信号)を受信して、電子機器100の位置情報を当該位置信号から取得する。GPSコントローラ39は、取得した電子機器100の位置情報をCPU20に入力する。
The
方位センサ40は、カメラ26が向いている方向を検出する。たとえば、方位センサ40は、地磁気センサ、電子コンパス、または加速度センサである。
The
<機能構成>
図2を参照して、電子機器100の構成について説明する。図2は、電子機器100の構成の一例を示すブロック図である。
<Functional configuration>
With reference to FIG. 2, the configuration of
電子機器100は、カメラ26と、モニタ210と、タッチパネル220と、記憶部240と、位置情報取得部260と、方向情報取得部270と、被写体識別部250と、表示制御部280とを備える。
記憶部240は、被写体情報242と、表示情報241と、テンプレート243と、位置情報245とを含む。被写体識別部250は、人物識別部251と、人工物識別部253と、自然物識別部255とを含む。
The
タッチパネル220は、モニタ210における接触部分を検出する。タッチパネル220は、当該検出部分を被写体識別部250に出力する。たとえば、当該検出部分は、モニタ210上の座標値として示される。
位置情報取得部260は、GPS信号から電子機器100の現在の位置情報(以下、「現在位置情報」と言う。)を算出する。たとえば、位置情報取得部260は、現在位置情報を地図上の緯度、経度として算出する。ある局面において、位置情報取得部260は、現在位置情報を、地図上の座標値として算出する。位置情報取得部260は、現在位置情報を、人工物識別部253および自然物識別部255に出力する。
The position
方向情報取得部270は、カメラ26が向いている方向を取得する(以下、「方向情報」と言う。)。方向情報取得部270は、方向情報を、人工物識別部253および自然物識別部255に出力する。
The direction
被写体識別部250は、タッチパネル220が入力する座標値を含み、かつ被写体を含む画像(以下、「部分画像」と言う。)をモニタ210に表示されている画像から切り出す。たとえば、被写体識別部250は、被写体の輪郭追跡を行うことにより、被写体を含んで画像を切り出す。また、被写体識別部250は、部分画像の特徴量に基づいて、被写体の種別を識別する。被写体識別部250は、被写体の種別を表示制御部280に出力する。
The
人物識別部251は、テンプレート243を参照して、部分画像とテンプレートマッチングすることにより、被写体の種別が「人物」であるか否かを判定する。たとえば、テンプレート243は、顔のテンプレートである。人物識別部251は、部分画像に顔が写っている場合に、被写体の種別を「人物」と判定する。
The
また、人工物識別部253は、現在位置情報と、方向情報と、位置情報245とに基づいて、被写体の種別が「人工物」であるか否かを判定する。当該判定方法については、図7において詳細に説明する。
Further, the
さらに、自然物識別部255は、現在位置情報と、方向情報と、位置情報245とに基づいて、被写体の種別が「自然物」であるか否かを判定する。当該判定方法については、図7において詳細に説明する。
Furthermore, the natural
表示制御部280は、被写体識別部250が出力した種別と、被写体情報242とに基づいて、モニタ210の表示を制御する。当該表示の制御については、図3〜5において詳細に説明する。
The
<動作態様>
図3〜図5を参照して、電子機器100の動作の一態様について説明する。図3(A)は、ユーザが画像300に写っている人物320にタッチした様子を表す図である。また、図3(B)は、人物320に関する情報を入力するための文字入力画面350を表す図である。
<Operation mode>
With reference to FIGS. 3 to 5, an aspect of the operation of
図3(A)を参照して、モニタ210に表示された画像300には、人物320と、山330と、寺340とが表示されている。ユーザが人物320にタッチすると、被写体識別部250は、画像300に写っている被写体の種別を識別する。
Referring to FIG. 3A, in an
被写体識別部250は、当該被写体の種別が「人物」であると判定した場合に、表示制御部280は、表示情報241を参照して、文字入力画面350を表示する。ユーザは、文字入力部360に、人物320に関する情報を入力する。ある局面において、電子機器100は、ユーザの音声により人物320に関する情報を入力可能なように構成される。
When the
ユーザが文字入力部360に情報を入力すると、表示制御部280は、文字入力部360の入力情報と、種別「人物」と、画像300内の部分画像310の範囲とを被写体情報242に格納する。たとえば、当該範囲は、画像300上の座標値として格納される。
When the user inputs information to the
当該範囲が被写体情報242に格納された後に、ユーザが画像300上の人物320にタッチすると、被写体情報242に格納された入力情報が再度表示される。これにより、ユーザは、画像300を後日見返した時に、人物320の情報を確認することができる。
When the user touches the
ある局面において、電子機器100は、ユーザが入力した情報を用いて、被写体を分類可能なように構成されてもよい。たとえば、電子機器100は、ユーザが入力した名前および日付情報により被写体を分類する。
In one aspect,
図4(A)は、ユーザが画像300に写っている寺340にタッチした様子を表す図である。また、図4(B)は、寺340に関する情報を検索するための検索画面430を表す図である。
FIG. 4A is a diagram illustrating a state in which the user touches the
図4(A)を参照して、ユーザが寺340にタッチすると、被写体識別部250は、部分画像410に写っている被写体の種別を識別する。
Referring to FIG. 4A, when the user touches
被写体識別部250は、当該被写体の種別が「人工物」であると判定した場合に、表示制御部280は、表示情報241を参照して、検索画面430を表示する。ユーザは、検索画面430上のキーワード入力部440に検索キーワードを入力する。ユーザが検索を実行すると、表示制御部280は、検索結果と、種別「人工物」と、画像300内の部分画像310の範囲とを被写体情報242に格納する。
When the
当該範囲が被写体情報242に格納された後に、ユーザが画像300上の寺340にタッチすると、被写体情報242に格納された検索結果がモニタ210に再度表示される。これにより、ユーザは、画像300を後日見返した時に、寺340について調べたことを確認することができる。
After the range is stored in the
他の局面において、表示制御部280は、検索画面430を表示するときに、初期検索キーワードを挿入する。たとえば、被写体識別部250が、寺340の名前「東大寺」を識別する。表示制御部280は、キーワード入力部440に「東大寺」を設定する。当該名前の識別方法は、図7において詳細に説明する。
In another aspect,
図5(A)は、ユーザが画像300に写っている山330にタッチした様子を表す図である。また、図5(B)は、山330の位置を表示する地図画面530を表す図である。
FIG. 5A is a diagram illustrating a state in which the user touches the
図5(A)を参照して、ユーザが山330にタッチすると、被写体識別部250は、部分画像510に写っている被写体の種別を識別する。
Referring to FIG. 5A, when the user touches
被写体識別部250は、当該被写体の種別が「自然物」であると判定した場合に、表示制御部280は、表示情報241を参照して、山の位置540を地図画面530上に表示する。他の局面において、表示制御部280は、現在地を地図画面530上に表示する。
When the
また、表示制御部280は、種別「自然物」と、画像300内の部分画像510の範囲とを被写体情報242に格納する。
Further, the
当該範囲が被写体情報242に格納された後に、ユーザが画像300上の山330にタッチすると、被写体情報242に格納された山の位置540が地図画面530に再度表示される。これにより、ユーザが、画像300を後日見返した時に、山330の位置を確認することができる。
After the range is stored in the
<データ構造>
図6を参照して、表示情報241のデータ構造について説明する。図6は、記憶部240に格納されている表示情報241を表す図である。
<Data structure>
The data structure of the
表示情報241は、種別610と、表示画面620とを規定する。種別「人物」は、表示画面「入力画面」に関連付けられている。種別「人工物」は、表示画面「検索画面」に関連付けられている。種別「自然物」は、表示画面「地図画面」に関連付けられている。ある局面において、種別「人工物」は、「寺」および「神社」等であってもよい。種別「自然物」は、「山」および「川」等であってもよい。
The
種別610と表示画面620との関連付けは、ユーザにより設定できる。たとえば、種別「人物」は、表示画面「検索画面」に関連付けてもよい。
The association between the
人物識別部251が部分画像に含まれる被写体を「人物」と判定すると、表示制御部280は、表示情報241を参照して、種別「人物」に関連付けられている表示画面(文字入力画面350)をモニタ210に表示する。
When the
また、人工物識別部253が部分画像写っている被写体が「人工物」であると判定すると、表示制御部280は、表示情報241を参照して、種別「人工物」に関連付けられている表示画面(検索画面430)をモニタ210に表示する。
If the
さらに、CPU20が部分画像写っている被写体が「自然物」であると判定すると、表示制御部280は、表示情報241を参照して、種別「自然物」に関連付けられている表示画面(地図画面530)をモニタ210に表示する。
Further, when the
図7を参照して、位置情報245のデータ構造について説明する。図7は、記憶部240に格納されている位置情報245の一例を表す図である。
The data structure of the
位置情報245は、名前710と、種別720と、位置730とを規定している。名前「富士山」は、種別「自然物」と、位置(北緯35.2、東経138.4)とに関連付けられている。名前「東大寺」は、種別「人工物」と、位置(北緯34.7、東経135.8)とに関連付けられている。名前「伊勢神宮」は、種別「人工物」と、位置(北緯34.2、東経136.4)とに関連付けられている。ある局面において、種別「人工物」は、「寺」および「神社」等であってもよい。種別「自然物」は、「山」および「川」等であってもよい。位置730は、座標値として定義されてもよい。
The
人工物識別部253は、位置情報245と、現在位置情報と、方向情報とに基づいて、部分画像に写っている被写体が人工物であるか否かを判定する。
The
たとえば、現在位置情報が(北緯34.6、東経135.8)であり、方向情報が「北」である場合、人工物識別部253は、検索条件(北緯34.6〜34.8、東経135.8)に合致するデータを位置730から検索する。人工物識別部253は、位置730を参照して、検索条件に合致する行750を取得し、部分画像に写っている被写体を「人工物」と判定する。人工物識別部253は、部分画像に写っている被写体の名前を「東大寺」と判定する。
For example, when the current position information is (north latitude 34.6, east longitude 135.8) and the direction information is “north”, the
検索条件は方向情報を考慮して決定される。たとえば、方向情報が「北」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度+定数、現在経度)とする。方向情報が「南」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度−定数、現在経度)とする。方向情報が「北東」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度+定数、現在経度〜現在経度+定数)とする。
Search conditions are determined in consideration of direction information. For example, when the direction information is “north”, the
また、人工物識別部253は、部分画像の画像情報をさらに用いて、被写体が「人工物」であるか否かを判定する。たとえば、人工物識別部253は、部分画像の特徴量に基づいて直線検出を行い、直線の数等に基づいて被写体が「人工物」であるか否かを判定する。寺、神社、ビル等の「人工物」が写っている画像は、通常直線を多く含むためである。これにより、人工物識別部253は、被写体が「人工物」であるか否かをより確実に判定することが可能になる。
The
他の局面において、人工物識別部253は、予め登録されている寺等の画像と部分画像とをテンプレートマッチングすることにより、被写体が「人工物」であるか否かを判定してもよい。
In another aspect, the
自然物識別部255は、位置情報245を参照して、部分画像に写っている被写体が自然物であるか否かを判定する。自然物識別部255は、位置情報取得部260から現在位置情報と、方向情報とを取得する。
The natural
たとえば、現在位置情報が(北緯35.3、東経138.4)であり、方向情報が「南」である場合、自然物識別部255は、検索条件(北緯35.1〜35.3、東経138.4)に合致するデータを位置730から検索する。自然物識別部255は、位置730を参照して、検索条件に合致する行740を取得し、部分画像に写っている被写体が「自然物」であると判定する。
For example, when the current position information is (north latitude 35.3, east longitude 138.4) and the direction information is “south”, the natural
また、自然物識別部255は、部分画像の画像情報をさらに用いて、被写体が自然物であるか否かを判定する。たとえば、自然物識別部255は、部分画像から色情報を取得し、部分画像内の全画素に占める緑色の画素の割合等に基づいて、被写体が自然物であるか否かを判定する。
Further, the natural
<制御構造>
図8を参照して、電子機器100の制御構造について説明する。図8は、ある局面における、電子機器100が実行する処理の一部を表わすフローチャートである。図8の処理は、CPU20がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。
<Control structure>
A control structure of
ステップS801において、タッチパネル220は、モニタ210における接触部分を検出する。
In step S <b> 801,
ステップS803において、CPU20は、表示制御部280として、当該接触部分が被写体情報242に存在するか否かを判断する。CPU20は、当該接触部分が被写体情報242に存在すると判断すると(ステップS803においてYES)、制御をステップS805に切り替える。そうでない場合には(ステップS803においてNO)、CPU20は、制御をステップS810に切り替える。
In step S <b> 803, the
ステップS805において、CPU20は、被写体情報242を参照して、被写体に付加されている情報を表示する。
In step S805, the
ステップS810において、CPU20は、人物識別部251として、被写体の種別が「人物」であるか否かを判断する。CPU20は、被写体の種別が「人物」であると判断すると(ステップS810においてYES)、制御をステップS811に切り替える。そうでない場合には(ステップS810においてNO)、CPU20は、制御をステップS820に切り替える。
In step S <b> 810, the
ステップS811において、CPU20は、表示制御部280として、表示情報241を参照し、種別「人物」に関連付けられた表示画面をモニタ210に表示する。
In step S <b> 811, the
ステップS820において、CPU20は、人工物識別部253として、被写体の種別が「人工物」であるか否かを判断する。CPU20は、被写体の種別が「人工物」であると判断すると(ステップS820においてYES)、制御をステップS821に切り替える。そうでない場合には(ステップS820においてNO)、CPU20は、制御をステップS830に切り替える。
In step S820, the
ステップS821において、CPU20は、表示制御部280として、表示情報241を参照し、種別「人工物」に関連付けられた表示画面をモニタ210に表示する。
In step S <b> 821, the
ステップS830において、CPU20は、自然物識別部255として、被写体の種別が「自然物」であるか否かを判断する。CPU20は、被写体の種別が「自然物」であると判断すると(ステップS830においてYES)、制御をステップS831に切り替える。そうでない場合には(ステップS830においてNO)、CPU20は、処理を終了する。
In step S <b> 830, the
ステップS831において、CPU20は、表示制御部280として、表示情報241を参照し、種別「自然物」に関連付けられた表示画面をモニタ210に表示する。
In step S831, the
なお、各処理ステップの順序は、図示されたものに限定されない。たとえば、ステップS810,820,830は、ステップS801の前に行われてもよい。 In addition, the order of each processing step is not limited to what was illustrated. For example, steps S810, 820, and 830 may be performed before step S801.
[第2の実施の形態]
<動作態様>
以下、第2の実施の形態について説明する。本実施の形態に係る電子機器は、ユーザが被写体の種別をコンボボックスその他の一覧表から選択するという点で第1の実施の形態とは異なる。本実施の形態に係る電子機器のハードウェア構成は、第1の実施の形態に係る電子機器と同様である。したがって、ハードウェア構成の説明は、繰り返さない。
[Second Embodiment]
<Operation mode>
Hereinafter, a second embodiment will be described. The electronic apparatus according to the present embodiment is different from the first embodiment in that the user selects a subject type from a combo box or other list. The hardware configuration of the electronic device according to the present embodiment is the same as that of the electronic device according to the first embodiment. Therefore, the description of the hardware configuration will not be repeated.
図9を参照して、本実施の形態の電子機器100の動作の一態様について説明する。図9は、モニタ210に一覧表の一例であるコンボボックス901が表示されている様子を表す図である。
With reference to FIG. 9, one mode of operation of
本実施の形態の電子機器100は、ユーザがタッチパネルにタッチすると、被写体の種別の選択を受け付ける選択画面を表示する。より具体的には、ユーザが寺340にタッチすると、表示制御部280は、コンボボックス901をモニタ210に表示する。たとえば、表示制御部280は、コンボボックス901に種別「人物」、「人工物」および「自然物」を表示する。コンボボックス901に表示される種別は、「寺」、「神社」、「山」、「川」等であってもよい。ある局面において、電子機器100は、ユーザが当該種別を追加および削除できるように構成されてもよい。
他の局面において、表示制御部280は、コンボボックス901に表示される種別の順番に優先順位を付ける。たとえば、被写体識別部250は、人物および寺等の物体が写った複数の画像の特徴量を抽出し、特徴量を物体毎にクラスタリングしたクラス辞書を作成する。その後、被写体識別部250は、当該クラス辞書を参照して、部分画像410に写っている被写体と各クラスとの距離を算出する。たとえば、当該距離は、マハラノビス距離である。表示制御部280は、当該距離に基づいて、コンボボックス901に表示する種別の順番を決定する。
In another aspect,
以上のようにして、第2の実施の形態における電子機器100は、ユーザが種別を選択するため、あらゆる種別の被写体に情報を付加することができる。これにより、後日画像を見返した時に撮影時の状況をより詳細に思い起こすことができる。
As described above, the
また、コンボボックス901に表示さされる種別の順番に優先順位を付けることにより、ユーザは容易に種別を選択することができる。
Also, by assigning priorities to the order of the types displayed in the
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 電子機器、 20 CPU、23 アンテナ、24 通信装置、25 ユーザインターフェイス、26 カメラ、27 フラッシュメモリ、28 RAM、29 ROM、30 メモリカード駆動装置、31 メモリカード、32 マイク、33 スピーカ、34 音声信号処理回路、35 ディスプレイ、36 LED、37 データ通信I/F、38 バイブレータ、39 GPSコントローラ、40 方位センサ、210 モニタ、220 タッチパネル、240 記憶部、241 表示情報、242 被写体情報、243 テンプレート、245 位置情報、250 被写体識別部、251 人物識別部、253 人工物識別部、255 自然物識別部、260 位置情報取得部、270 方向情報取得部、280 表示制御部、300 画像、310 部分画像、320 人物、330 山、340 寺、350 文字入力画面、360 文字入力部、410 部分画像、430 検索画面、440 キーワード入力部、510 部分画像、530 地図画面、540 山の位置、610 種別、620 表示画面、710 名前、720 種別、730 位置(経度、緯度)、901 コンボボックス。 100 electronic equipment, 20 CPU, 23 antenna, 24 communication device, 25 user interface, 26 camera, 27 flash memory, 28 RAM, 29 ROM, 30 memory card drive device, 31 memory card, 32 microphone, 33 speaker, 34 audio signal Processing circuit, 35 Display, 36 LED, 37 Data communication I / F, 38 Vibrator, 39 GPS controller, 40 Direction sensor, 210 Monitor, 220 Touch panel, 240 Storage unit, 241 Display information, 242 Subject information, 243 Template, 245 Position Information, 250 Subject identification unit, 251 Person identification unit, 253 Artificial object identification unit, 255 Natural object identification unit, 260 Position information acquisition unit, 270 Direction information acquisition unit, 280 Display control unit, 300 image, 31 Partial image, 320 people, 330 mountains, 340 temples, 350 character input screen, 360 character input part, 410 partial image, 430 search screen, 440 keyword input part, 510 partial image, 530 map screen, 540 mountain position, 610 type , 620 display screen, 710 name, 720 type, 730 position (longitude, latitude), 901 combo box.
Claims (5)
カメラと、
前記カメラからの画像を表示するためのモニタと、
前記モニタにおける接触部分を検出するためのタッチパネルと、
前記画像内の前記接触部分を含む部分画像に写っている被写体の種別を識別するための被写体識別手段と、
前記被写体識別手段により識別された種別に関連付けられた画面を前記モニタに表示するための表示制御手段とを備え、前記画面は、前記被写体に関する情報の入力を受け付けるための入力画面を含み、
前記画像内の前記部分画像の範囲、前記被写体識別手段により識別された種別、および前記入力画面に入力された入力情報を関連付けて格納するための記憶部と、
前記モニタにおける接触部分が前記範囲に含まれる場合に、前記入力情報を表示するための入力情報表示手段とを備える、電子機器。 Electronic equipment,
A camera,
A monitor for displaying an image from the camera;
A touch panel for detecting a contact portion in the monitor;
Subject identifying means for identifying the type of subject in the partial image including the contact portion in the image;
Display control means for displaying on the monitor a screen associated with the type identified by the subject identification means, the screen including an input screen for accepting input of information about the subject,
A storage unit for storing the range of the partial image in the image, the type identified by the subject identifying unit, and the input information input on the input screen;
An electronic apparatus comprising: input information display means for displaying the input information when a contact portion on the monitor is included in the range.
前記記憶部は、前記画像中の前記部分画像の範囲、前記被写体識別手段により識別された種別、および前記検索の結果を関連付けてさらに格納するように構成されており、
前記電子機器は、前記モニタにおける接触部分が前記範囲に含まれる場合に、前記検索の結果を表示するための検索結果表示手段をさらに備える、請求項1に記載の電子機器。 The screen includes a search screen for searching for information on the subject,
The storage unit is configured to further store the range of the partial image in the image, the type identified by the subject identifying unit, and the search result in association with each other,
2. The electronic device according to claim 1, further comprising: a search result display unit configured to display a result of the search when a contact portion on the monitor is included in the range.
前記カメラが向いている方向を示す方向情報を取得するための方向取得部とをさらに備え、
前記記憶部は、人工物の地図上の位置情報を示す人工物位置情報さらに格納するように構成されており、
前記被写体識別手段は、前記現在位置情報と、前記方向情報と、前記人工物位置情報とに基づいて、前記被写体の種別が人工物であるか否かを判定するための人工物識別手段を含む、請求項1または2に記載の電子機器。 A position acquisition unit for acquiring current position information indicating a current position of the electronic device;
A direction acquisition unit for acquiring direction information indicating a direction in which the camera is facing;
The storage unit is configured to further store artifact position information indicating position information on the map of the artifact,
The subject identifying means includes an artifact identifying means for determining whether or not the type of the subject is an artifact based on the current position information, the direction information, and the artifact position information. The electronic device according to claim 1 or 2.
前記被写体識別手段は、前記現在位置情報と、前記方向情報と、前記自然物位置情報とに基づいて、前記被写体の種別が自然物であるか否かを判定するための自然物識別手段を含む、請求項3に記載の電子機器。 The storage unit is configured to further store natural object position information indicating position information on a natural object map,
The object identification means includes a natural object identification means for determining whether or not the type of the object is a natural object based on the current position information, the direction information, and the natural object position information. 3. The electronic device according to 3.
前記画像内の前記接触部分を含む部分画像に写っている被写体の種別を識別するステップと、
前記識別するステップにより識別された種別に関連付けられた画面を前記モニタに表示するステップとを備え、前記表示するステップは、前記被写体に関する情報の入力を受け付けるための入力画面を表示するためのステップを含み、
前記画像内の前記部分画像の範囲、前記識別するステップにより識別された種別、および前記入力画面に入力された入力情報を関連付けて格納するステップと、
前記モニタにおける接触部分が前記範囲に含まれる場合に、前記入力情報を表示するステップとをさらに備える、電子機器を制御するための方法。
A method for controlling an electronic device comprising a camera, a monitor for displaying an image from the camera, and a touch panel for detecting a contact portion on the monitor,
Identifying the type of subject in the partial image including the contact portion in the image;
Displaying on the monitor a screen associated with the type identified in the identifying step, and the displaying step includes a step for displaying an input screen for receiving input of information on the subject. Including
Storing the range of the partial image in the image, the type identified by the identifying step, and the input information input to the input screen in association with each other;
Displaying the input information when a contact portion on the monitor is included in the range. The method for controlling an electronic device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013051685A JP5977697B2 (en) | 2013-03-14 | 2013-03-14 | Electronic device and method for controlling electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013051685A JP5977697B2 (en) | 2013-03-14 | 2013-03-14 | Electronic device and method for controlling electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014179743A true JP2014179743A (en) | 2014-09-25 |
JP5977697B2 JP5977697B2 (en) | 2016-08-24 |
Family
ID=51699281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013051685A Expired - Fee Related JP5977697B2 (en) | 2013-03-14 | 2013-03-14 | Electronic device and method for controlling electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5977697B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102382478B1 (en) | 2017-10-13 | 2022-04-05 | 삼성전자주식회사 | Electronic apparatus and control method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05284448A (en) * | 1991-12-20 | 1993-10-29 | Kyocera Corp | Electronic still camera |
JPH06217252A (en) * | 1991-09-27 | 1994-08-05 | Kyocera Corp | Electronic still camera |
JP2009253931A (en) * | 2008-04-11 | 2009-10-29 | Casio Comput Co Ltd | Electronic data editing device and method, and program |
JP2011211561A (en) * | 2010-03-30 | 2011-10-20 | Nec Corp | Mobile terminal with camera, and method and program for controlling the same |
-
2013
- 2013-03-14 JP JP2013051685A patent/JP5977697B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06217252A (en) * | 1991-09-27 | 1994-08-05 | Kyocera Corp | Electronic still camera |
JPH05284448A (en) * | 1991-12-20 | 1993-10-29 | Kyocera Corp | Electronic still camera |
JP2009253931A (en) * | 2008-04-11 | 2009-10-29 | Casio Comput Co Ltd | Electronic data editing device and method, and program |
JP2011211561A (en) * | 2010-03-30 | 2011-10-20 | Nec Corp | Mobile terminal with camera, and method and program for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP5977697B2 (en) | 2016-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109890067B (en) | Method and electronic equipment for identifying specific position on specific route | |
US10971188B2 (en) | Apparatus and method for editing content | |
CN111182145A (en) | Display method and related product | |
US9015260B2 (en) | Communication terminal device, and recording medium for image storage, selection and email attachment | |
KR20180118816A (en) | Content collection navigation and auto forwarding | |
CN111182453A (en) | Positioning method, positioning device, electronic equipment and storage medium | |
CN110377195B (en) | Method and device for displaying interaction function | |
US20090175551A1 (en) | Intelligent image enhancement | |
JPWO2017164288A1 (en) | Image display system, terminal, method and program | |
CN105956091B (en) | Extended information acquisition method and device | |
JPWO2017154136A1 (en) | Portable information terminal and information processing method used therefor | |
CN113647092A (en) | Electronic device and method for providing content associated with image to application | |
US10178305B2 (en) | Imaging apparatus and method to capture images based on recommended applications | |
CN114697543B (en) | Image reconstruction method, related device and system | |
CN114020387A (en) | Terminal screen capturing method and device, storage medium and electronic equipment | |
CN111950255A (en) | Poetry generation method, device and equipment and storage medium | |
KR20170098113A (en) | Method for creating image group of electronic device and electronic device thereof | |
JP2016195323A (en) | Information processing apparatus, information processing method, and program | |
JP5977697B2 (en) | Electronic device and method for controlling electronic device | |
CN110837557A (en) | Abstract generation method, device, equipment and medium | |
US20220188348A1 (en) | Content management device, content management system, and control method | |
KR101706371B1 (en) | A mobile terminal for performing a lifelog service and a server therefor | |
CN108366338A (en) | Method and apparatus for searching electronic equipment | |
JP6077930B2 (en) | Information management apparatus, information management system, communication terminal, and information management method | |
CN112989092A (en) | Image processing method and related device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5977697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |