JP2014179743A - Electronic apparatus and method of controlling electronic apparatus - Google Patents

Electronic apparatus and method of controlling electronic apparatus Download PDF

Info

Publication number
JP2014179743A
JP2014179743A JP2013051685A JP2013051685A JP2014179743A JP 2014179743 A JP2014179743 A JP 2014179743A JP 2013051685 A JP2013051685 A JP 2013051685A JP 2013051685 A JP2013051685 A JP 2013051685A JP 2014179743 A JP2014179743 A JP 2014179743A
Authority
JP
Japan
Prior art keywords
subject
information
image
input
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013051685A
Other languages
Japanese (ja)
Other versions
JP5977697B2 (en
Inventor
Yasuhiro Miyano
靖弘 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013051685A priority Critical patent/JP5977697B2/en
Publication of JP2014179743A publication Critical patent/JP2014179743A/en
Application granted granted Critical
Publication of JP5977697B2 publication Critical patent/JP5977697B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus that adds information to each subject included in an image.SOLUTION: An electronic apparatus 100 includes: a camera 26; a monitor 210 for displaying an image from the camera 26; a touch panel 220 for detecting a contact part on the monitor 210; a subject identification part 250 for identifying the type of a subject in a partial image including the contact part in the image; and a display control part which displays a window related to the type identified by the subject identification part 250 on the monitor 210. The window includes an input window for accepting input of information associated with the subject. The electronic apparatus 100 includes: a storage part 240 which mutually relates and stores the type identified by the subject identification part 250 and the input information input to the input window; and an information display part 280 for displaying the input information when the contact part on the monitor 210 is included in a range.

Description

この発明は、撮影した画像に含まれる被写体毎に情報を付加することが可能な電子機器に関する。   The present invention relates to an electronic apparatus capable of adding information for each subject included in a photographed image.

近年、スマートフォンおよびデジタルカメラを含む電子機器で撮影した画像に日時、撮影場所等の情報を関連付けることで画像を分類する技術が提案されている。   In recent years, there has been proposed a technique for classifying images by associating information such as date / time and shooting location with images taken with electronic devices including smartphones and digital cameras.

たとえば、特開2002−077805(特許文献1)は、『カメラ10のCPU12は、GPS等を用いた位置認識部14により撮影を行った位置を認識し、方位計16によりカメラを向けた注目方位を認識し、撮影し得る結像画像の固有情報、例えば、地域名や施設名称と位置情報とを関連付けた辞書メモリ20から検索する。撮影メモ合成部30は、その結果を結像画像と共に記憶媒体上に関連付けて記憶する』という技術を開示している([要約]参照)。   For example, Japanese Patent Application Laid-Open No. 2002-077705 (Patent Document 1) states that “the CPU 12 of the camera 10 recognizes the position where the image was taken by the position recognition unit 14 using GPS or the like, and the direction of interest with the camera directed by the compass 16. Is retrieved from the dictionary memory 20 in which the unique information of the formed image that can be photographed, for example, the area name or facility name and the position information are associated with each other. The shooting memo composition unit 30 discloses a technique of storing the result in association with a formed image on a storage medium (see [Summary]).

特開平11−146317(特許文献2)は、『デジタルスチルカメラ1の表示部10にタッチパネル12を配置し、撮影後に撮影画像とともに家族等の人物アイコン30や、ジャンルアイコン40を表示する。そして、所望のアイコンをタッチすることにより、そのアイコンに関連付けられている個人情報、キーワード等の情報を識別情報として画像に付加する』という技術を開示している([要約]参照)。   Japanese Patent Application Laid-Open No. 11-146317 (Patent Document 2) states that “the touch panel 12 is arranged on the display unit 10 of the digital still camera 1 and a person icon 30 such as a family and a genre icon 40 are displayed together with a photographed image after shooting. Then, a technique of “adding information such as personal information and keywords associated with the icon to the image as identification information by touching the desired icon” is disclosed (see [Summary]).

特開2005−191892(特許文献3)は、『撮影装置1と、外部に設けられた情報提供サーバSと、撮影装置1と情報提供サーバSとを接続するネットワーク5と、を有している。情報提供サーバSは、地域情報、例えば、販売店、飲食店、公共機関(観光協会などを含む)、駅、病院などのクライアントがそれぞれの有する情報であって一般に参照させることが可能な各種情報を情報提供サーバSにアップロードしている。撮影装置1により、日光の名所である、「杉並木」31a、「三猿」31b、「華厳の滝」31c、「いろは坂」31d、「日光東照宮」31e、「日光江戸村」31fのそれぞれのシーンにおける映像を順に撮影していった場合に、それぞれのシーンにおける映像31a〜31fと、地域情報サーバSから通信部7を介して取得した地域情報の解説テキストファイルと、を対応付けしてメモリに記憶する』という技術を開示している([要約]参照)。   Japanese Patent Laid-Open No. 2005-191892 (Patent Document 3) has “a photographing apparatus 1, an information providing server S provided outside, and a network 5 that connects the photographing apparatus 1 and the information providing server S. . The information providing server S is regional information, for example, various information that can be generally referred to by clients such as stores, restaurants, public institutions (including tourist associations), stations, hospitals, etc. Is uploaded to the information providing server S. According to the photographing device 1, each of the famous places of sunlight, “Suginami Tree” 31a, “Three Monkeys” 31b, “Kegon no Taki” 31c, “Iroha Saka” 31d, “Nikko Toshogu” 31e, “Nikko Edomura” 31f When images in a scene are sequentially photographed, the images 31a to 31f in each scene are associated with a description text file of regional information acquired from the regional information server S via the communication unit 7 in association with the memory. (See [Summary]).

特開2002−077805号公報Japanese Patent Application Laid-Open No. 2002-077705 特開平11−146317号公報JP-A-11-146317 特開2005−191892号公報JP 2005-191892 A

ところで、複数の被写体が1枚の画像に写っている場合、被写体の各々に関する情報を付加し、後日画像を見返した時に被写体毎に付加した情報を確認したいという要望がある。たとえば、人物および建築物が1枚の画像に写っている場合、人物に関しては当該人物の情報(名前等)を記憶し、建築物に関しては当該建築物について調べた検索結果を記憶したいという要望がある。   By the way, when a plurality of subjects appear in one image, there is a demand to add information about each subject and confirm the added information for each subject when looking back at the image at a later date. For example, when a person and a building are shown in one image, there is a desire to store information on the person (name, etc.) for the person and store a search result obtained by examining the building for the building. is there.

しかしながら、特許文献1に開示された技術は、地域情報等を画像毎に結び付けることで撮影した画像に関する情報を容易に認識するものである。   However, the technique disclosed in Patent Document 1 easily recognizes information related to a photographed image by connecting regional information or the like for each image.

特許文献2に開示された技術は、所望のアイコンをタッチすることにより、そのアイコンに関連付けられている個人情報、キーワード等の情報を識別情報として画像に付加するものである。   The technique disclosed in Patent Document 2 adds information such as personal information and keywords associated with an icon to the image as identification information by touching the desired icon.

特許文献3に開示された技術は、地域情報の解説テキストファイルと映像とを対応付けしてメモリに記憶するものである。   The technique disclosed in Patent Document 3 associates an explanation text file of regional information with a video and stores them in a memory.

そのため、画像に含まれる被写体毎に情報を付加することができない。したがって、画像に含まれる被写体毎に情報を付加する技術が必要とされている。この開示は上述のような問題点を解決するためになされたものであって、その目的は、画像に含まれる被写体毎に応じて情報を付加し、ユーザが後日画像を見返した時に、撮影時の状況を容易に思い起こすことが可能な電子機器を提供することである。   Therefore, information cannot be added for each subject included in the image. Therefore, a technique for adding information for each subject included in an image is required. This disclosure has been made to solve the above-described problems. The purpose of this disclosure is to add information according to each subject included in the image, and when the user looks back at the image at a later date, It is to provide an electronic device that can easily recall the situation.

一実施の形態に従うと、電子機器は、カメラと、カメラからの画像を表示するためのモニタと、モニタにおける接触部分を検出するためのタッチパネルと、画像内の接触部分を含む部分画像に写っている被写体の種別を識別するための被写体識別手段と、被写体識別手段により識別された種別に関連付けられた画面をモニタに表示するための表示制御手段とを備える。画面は、被写体に関する情報の入力を受け付けるための入力画面を含む。電子機器は、画像内の部分画像の範囲、被写体識別手段により識別された種別、および入力画面に入力された入力情報を関連付けて格納するための記憶部と、モニタにおける接触部分が範囲に含まれる場合に、入力情報を表示するための入力情報表示手段とを備える。   According to one embodiment, an electronic device is shown in a partial image including a camera, a monitor for displaying an image from the camera, a touch panel for detecting a contact portion on the monitor, and a contact portion in the image. Subject identifying means for identifying the type of the subject present, and display control means for displaying on the monitor a screen associated with the type identified by the subject identifying means. The screen includes an input screen for accepting input of information related to the subject. The electronic device includes a range of a partial image in the image, a type identified by the subject identifying unit, and a storage unit for storing the input information input on the input screen in association with each other, and a contact portion on the monitor. In some cases, input information display means for displaying the input information is provided.

好ましくは、画面は、被写体に関する情報を検索するための検索画面を含む。記憶部は、画像中の部分画像の範囲、被写体識別手段により識別された種別、および検索の結果を関連付けてさらに格納するように構成される。電子機器は、モニタにおける接触部分が範囲に含まれる場合に、検索の結果を表示するための検索結果表示手段をさらに備える。   Preferably, the screen includes a search screen for searching for information related to the subject. The storage unit is configured to further store the range of the partial image in the image, the type identified by the subject identifying unit, and the search result in association with each other. The electronic device further includes search result display means for displaying a search result when the contact portion in the monitor is included in the range.

好ましくは、被写体識別手段は、部分画像の特徴量に基づいて、被写体の種別を識別するように構成されている。   Preferably, the subject identifying means is configured to identify the type of the subject based on the feature amount of the partial image.

好ましくは、被写体識別手段は、被写体の種別が人物であるか否かを判定するための人物識別手段を含む。   Preferably, the subject identifying unit includes a person identifying unit for determining whether or not the type of the subject is a person.

好ましくは、電子機器は、電子機器の現在の位置を示す現在位置情報を取得する位置取得部と、カメラが向いている方向を示す方向情報を取得するための方向取得部とをさらに備える。記憶部は、人工物の地図上の位置情報を示す人工物位置情報さらに格納するように構成される。被写体識別手段は、現在位置情報と、方向情報と、人工物位置情報とに基づいて、被写体の種別が人工物であるか否かを判定するための人工物識別手段を含む。   Preferably, the electronic device further includes a position acquisition unit that acquires current position information indicating a current position of the electronic device, and a direction acquisition unit that acquires direction information indicating a direction in which the camera is facing. The storage unit is configured to further store artifact position information indicating position information of the artifact on the map. The subject identifying means includes an artifact identifying means for determining whether the type of the subject is an artifact based on the current position information, the direction information, and the artifact position information.

好ましくは、記憶部は、自然物の地図上の位置情報を示す自然物位置情報をさらに格納するように構成される。被写体識別手段は、現在位置情報と、方向情報と、自然物位置情報とに基づいて、被写体の種別が自然物であるか否かを判定するための自然物識別手段を含む。   Preferably, the storage unit is configured to further store natural object position information indicating position information of the natural object on the map. The subject identifying means includes natural object identifying means for determining whether or not the type of the subject is a natural object based on the current position information, the direction information, and the natural object position information.

好ましくは、被写体の種別の選択を受け付ける選択画面を表示するための選択画面表示手段をさらに備える。被写体識別手段は、選択に基づいて、被写体の種別を識別するように構成される。   Preferably, a selection screen display means for displaying a selection screen for accepting selection of the type of subject is further provided. The subject identifying means is configured to identify the type of the subject based on the selection.

他の実施形態に従うと、電子機器を制御するための方法が提供される。電子機器は、カメラと、カメラからの画像を表示するためのモニタと、モニタにおける接触部分を検出するためのタッチパネルとを備える。電子機器を制御するための方法は、画像内の接触部分を含む部分画像に写っている被写体の種別を識別するステップと、識別するステップにより識別された種別に関連付けられた画面をモニタに表示するステップとを備える。表示するステップは、被写体に関する情報の入力を受け付けるための入力画面を表示するためのステップを含む。電子機器を制御するための方法は、画像内の部分画像の範囲、識別するステップにより識別された種別、および入力画面に入力された入力情報を関連付けて格納するステップと、モニタにおける接触部分が範囲に含まれる場合に、入力情報を表示するステップとをさらに備える。   According to another embodiment, a method for controlling an electronic device is provided. The electronic device includes a camera, a monitor for displaying an image from the camera, and a touch panel for detecting a contact portion on the monitor. A method for controlling an electronic device includes a step of identifying a type of a subject in a partial image including a contact portion in an image, and a screen associated with the type identified by the identifying step is displayed on a monitor. Steps. The displaying step includes a step for displaying an input screen for accepting input of information related to the subject. A method for controlling an electronic device includes a step of associating and storing a range of partial images in an image, a type identified by an identifying step, and input information input on an input screen, and a contact portion in a monitor And a step of displaying the input information.

ある局面において、画像に写っている被写体毎に情報を付加し、ユーザが後日画像を見返した時に、撮影時の状況を容易に思い起こすことができる。   In one aspect, information is added to each subject in the image, and when the user looks back at the image later, the situation at the time of shooting can be easily recalled.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

電子機器100のハードウェア構成の具体例を示すブロック図である。3 is a block diagram illustrating a specific example of a hardware configuration of electronic device 100. FIG. 電子機器100の機能構成の具体例を示すブロック図である。3 is a block diagram illustrating a specific example of a functional configuration of the electronic device 100. FIG. 第1の実施の形態の電子機器100の動作の一態様を表す図である。It is a figure showing the one aspect | mode of operation | movement of the electronic device 100 of 1st Embodiment. 第1の実施の形態の電子機器100の動作の一態様を表す図である。It is a figure showing the one aspect | mode of operation | movement of the electronic device 100 of 1st Embodiment. 第1の実施の形態の電子機器100の動作の一態様を表す図である。It is a figure showing the one aspect | mode of operation | movement of the electronic device 100 of 1st Embodiment. 表示情報241のデータ構造を表す図である。4 is a diagram illustrating a data structure of display information 241. FIG. 位置情報245のデータ構造を表す図である。It is a figure showing the data structure of position information 245. 電子機器100の動作の流れを表わすフローチャートである。3 is a flowchart showing an operation flow of electronic device 100. 第2の実施の形態の電子機器100の動作の一態様を表す図である。It is a figure showing the one aspect | mode of operation | movement of the electronic device 100 of 2nd Embodiment.

以下、図面を参照しつつ、本実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。   Hereinafter, the present embodiment will be described with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

[第1の実施の形態]
<ハードウェア構成>
図1を参照して、電子機器100のハードウェア構成について説明する。図1は、電子機器100のハードウェア構成の具体例を示すブロック図である。
[First Embodiment]
<Hardware configuration>
A hardware configuration of the electronic device 100 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a specific example of the hardware configuration of the electronic device 100.

電子機器100は、CPU(Central Processing Unit)20と、アンテナ23と、通信装置24と、操作キーなどのユーザインターフェイス25と、カメラ26と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM(Read Only Memory)29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、ディスプレイ35と、LED(Light Emitting Diode)36と、データ通信I/F(インターフェイス)37と、バイブレータ38と、GPS(Global Positioning System)コントローラ39と、方位センサ40とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。   The electronic device 100 includes a CPU (Central Processing Unit) 20, an antenna 23, a communication device 24, a user interface 25 such as operation keys, a camera 26, a flash memory 27, a RAM (Random Access Memory) 28, A ROM (Read Only Memory) 29, a memory card driving device 30, a microphone 32, a speaker 33, an audio signal processing circuit 34, a display 35, an LED (Light Emitting Diode) 36, and a data communication I / F ( Interface) 37, vibrator 38, GPS (Global Positioning System) controller 39, and direction sensor 40. A memory card 31 can be attached to the memory card drive device 30.

電子機器100は、たとえば、スマートフォン、デジタルカメラ、携帯電話、タブレット型端末、その他のカメラ機能を備える電子機器である。   The electronic device 100 is, for example, an electronic device provided with a smartphone, a digital camera, a mobile phone, a tablet terminal, or other camera functions.

アンテナ23は、基地局によって発信される信号を受信する。また、アンテナ23は、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれる。処理後の信号は、CPU20に送られる。   The antenna 23 receives a signal transmitted by the base station. The antenna 23 transmits a signal for communicating with another communication device via the base station. The signal received by the antenna 23 is subjected to front-end processing by the communication device 24. The processed signal is sent to the CPU 20.

CPU20は、電子機器100に対して与えられる命令に基づいて電子機器100の動作を制御するための処理を実行する。電子機器100のアンテナ23が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。   The CPU 20 executes a process for controlling the operation of the electronic device 100 based on a command given to the electronic device 100. When the antenna 23 of the electronic device 100 receives the signal, the CPU 20 executes a predetermined process based on the signal sent from the communication device 24 and sends the processed signal to the audio signal processing circuit 34. The audio signal processing circuit 34 performs a predetermined process on the signal, and sends the processed signal to the speaker 33. The speaker 33 outputs sound based on the signal.

マイク32は、電子機器100に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。   The microphone 32 receives an utterance to the electronic device 100 and sends a signal corresponding to the uttered voice to the voice signal processing circuit 34. The audio signal processing circuit 34 executes a predetermined process for a call based on the signal, and sends the processed signal to the CPU 20. The CPU 20 converts the signal into data for transmission, and sends the converted data to the communication device 24. The communication device 24 generates a signal for transmission using the data, and transmits the signal to the antenna 23.

フラッシュメモリ27は、CPU20から送られるデータを格納する。CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。   The flash memory 27 stores data sent from the CPU 20. The CPU 20 reads data stored in the flash memory 27 and executes a predetermined process using the data.

RAM28は、CPU20によって生成されるデータを一時的に保持する。ROM29は、電子機器100に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、電子機器100の動作を制御する。   The RAM 28 temporarily holds data generated by the CPU 20. The ROM 29 stores a program or data for causing the electronic device 100 to execute a predetermined operation. The CPU 20 reads the program or data from the ROM 29 and controls the operation of the electronic device 100.

メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、読み出したデータをCPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。   The memory card drive device 30 reads data stored in the memory card 31 and sends the read data to the CPU 20. The memory card drive device 30 writes the data output by the CPU 20 in the empty area of the memory card 31.

音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図1に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されているが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。   The audio signal processing circuit 34 performs signal processing for a call as described above. In the example shown in FIG. 1, the CPU 20 and the audio signal processing circuit 34 are shown as separate configurations. However, in other aspects, the CPU 20 and the audio signal processing circuit 34 may be configured as an integral unit. Good.

ディスプレイ35は、タッチパネル式のディスプレイであるが、タッチパネルの機構は特に限られない。ディスプレイ35は、CPU20から与えられるデータに基づいて、当該データによって規定される画像を表示する。   The display 35 is a touch panel display, but the mechanism of the touch panel is not particularly limited. The display 35 displays an image defined by the data based on the data given from the CPU 20.

LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。データ通信I/F37は、データ通信用のケーブルの装着を受け付ける。データ通信I/F37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信I/F37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。他の局面において、データ通信I/F37は、無線であってもよい。   The LED 36 realizes a predetermined light emission operation based on a signal from the CPU 20. The data communication I / F 37 accepts attachment of a data communication cable. The data communication I / F 37 sends a signal output from the CPU 20 to the cable. Alternatively, the data communication I / F 37 sends data received via the cable to the CPU 20. In another aspect, the data communication I / F 37 may be wireless.

バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。   Vibrator 38 performs an oscillating operation at a predetermined frequency based on a signal output from CPU 20.

GPSコントローラ39は、GPS信号または基地局からの位置信号(測位信号)を受信して、電子機器100の位置情報を当該位置信号から取得する。GPSコントローラ39は、取得した電子機器100の位置情報をCPU20に入力する。   The GPS controller 39 receives a GPS signal or a position signal (positioning signal) from the base station, and acquires position information of the electronic device 100 from the position signal. The GPS controller 39 inputs the acquired position information of the electronic device 100 to the CPU 20.

方位センサ40は、カメラ26が向いている方向を検出する。たとえば、方位センサ40は、地磁気センサ、電子コンパス、または加速度センサである。   The direction sensor 40 detects the direction in which the camera 26 is facing. For example, the direction sensor 40 is a geomagnetic sensor, an electronic compass, or an acceleration sensor.

<機能構成>
図2を参照して、電子機器100の構成について説明する。図2は、電子機器100の構成の一例を示すブロック図である。
<Functional configuration>
With reference to FIG. 2, the configuration of electronic device 100 will be described. FIG. 2 is a block diagram illustrating an example of the configuration of the electronic device 100.

電子機器100は、カメラ26と、モニタ210と、タッチパネル220と、記憶部240と、位置情報取得部260と、方向情報取得部270と、被写体識別部250と、表示制御部280とを備える。   Electronic device 100 includes camera 26, monitor 210, touch panel 220, storage unit 240, position information acquisition unit 260, direction information acquisition unit 270, subject identification unit 250, and display control unit 280.

記憶部240は、被写体情報242と、表示情報241と、テンプレート243と、位置情報245とを含む。被写体識別部250は、人物識別部251と、人工物識別部253と、自然物識別部255とを含む。   The storage unit 240 includes subject information 242, display information 241, a template 243, and position information 245. The subject identifying unit 250 includes a person identifying unit 251, an artifact identifying unit 253, and a natural object identifying unit 255.

タッチパネル220は、モニタ210における接触部分を検出する。タッチパネル220は、当該検出部分を被写体識別部250に出力する。たとえば、当該検出部分は、モニタ210上の座標値として示される。   Touch panel 220 detects a contact portion on monitor 210. The touch panel 220 outputs the detected part to the subject identifying unit 250. For example, the detection part is shown as a coordinate value on the monitor 210.

位置情報取得部260は、GPS信号から電子機器100の現在の位置情報(以下、「現在位置情報」と言う。)を算出する。たとえば、位置情報取得部260は、現在位置情報を地図上の緯度、経度として算出する。ある局面において、位置情報取得部260は、現在位置情報を、地図上の座標値として算出する。位置情報取得部260は、現在位置情報を、人工物識別部253および自然物識別部255に出力する。   The position information acquisition unit 260 calculates the current position information of the electronic device 100 (hereinafter referred to as “current position information”) from the GPS signal. For example, the position information acquisition unit 260 calculates the current position information as latitude and longitude on the map. In a certain situation, the position information acquisition unit 260 calculates the current position information as a coordinate value on the map. The position information acquisition unit 260 outputs the current position information to the artifact identification unit 253 and the natural object identification unit 255.

方向情報取得部270は、カメラ26が向いている方向を取得する(以下、「方向情報」と言う。)。方向情報取得部270は、方向情報を、人工物識別部253および自然物識別部255に出力する。   The direction information acquisition unit 270 acquires the direction in which the camera 26 is facing (hereinafter referred to as “direction information”). The direction information acquisition unit 270 outputs the direction information to the artifact identification unit 253 and the natural object identification unit 255.

被写体識別部250は、タッチパネル220が入力する座標値を含み、かつ被写体を含む画像(以下、「部分画像」と言う。)をモニタ210に表示されている画像から切り出す。たとえば、被写体識別部250は、被写体の輪郭追跡を行うことにより、被写体を含んで画像を切り出す。また、被写体識別部250は、部分画像の特徴量に基づいて、被写体の種別を識別する。被写体識別部250は、被写体の種別を表示制御部280に出力する。   The subject identifying unit 250 cuts out an image including the coordinate value input by the touch panel 220 and including the subject (hereinafter referred to as “partial image”) from the image displayed on the monitor 210. For example, the subject identifying unit 250 cuts out an image including the subject by tracking the contour of the subject. The subject identifying unit 250 identifies the type of subject based on the feature amount of the partial image. The subject identifying unit 250 outputs the type of subject to the display control unit 280.

人物識別部251は、テンプレート243を参照して、部分画像とテンプレートマッチングすることにより、被写体の種別が「人物」であるか否かを判定する。たとえば、テンプレート243は、顔のテンプレートである。人物識別部251は、部分画像に顔が写っている場合に、被写体の種別を「人物」と判定する。   The person identifying unit 251 refers to the template 243 and performs template matching with the partial image to determine whether the subject type is “person”. For example, the template 243 is a face template. The person identifying unit 251 determines that the type of the subject is “person” when a face appears in the partial image.

また、人工物識別部253は、現在位置情報と、方向情報と、位置情報245とに基づいて、被写体の種別が「人工物」であるか否かを判定する。当該判定方法については、図7において詳細に説明する。   Further, the artifact identification unit 253 determines whether or not the type of the subject is “artifact” based on the current position information, the direction information, and the position information 245. The determination method will be described in detail with reference to FIG.

さらに、自然物識別部255は、現在位置情報と、方向情報と、位置情報245とに基づいて、被写体の種別が「自然物」であるか否かを判定する。当該判定方法については、図7において詳細に説明する。   Furthermore, the natural object identification unit 255 determines whether the type of the subject is “natural object” based on the current position information, the direction information, and the position information 245. The determination method will be described in detail with reference to FIG.

表示制御部280は、被写体識別部250が出力した種別と、被写体情報242とに基づいて、モニタ210の表示を制御する。当該表示の制御については、図3〜5において詳細に説明する。   The display control unit 280 controls the display on the monitor 210 based on the type output by the subject identification unit 250 and the subject information 242. The display control will be described in detail with reference to FIGS.

<動作態様>
図3〜図5を参照して、電子機器100の動作の一態様について説明する。図3(A)は、ユーザが画像300に写っている人物320にタッチした様子を表す図である。また、図3(B)は、人物320に関する情報を入力するための文字入力画面350を表す図である。
<Operation mode>
With reference to FIGS. 3 to 5, an aspect of the operation of electronic device 100 will be described. FIG. 3A is a diagram illustrating a state in which the user touches the person 320 shown in the image 300. FIG. 3B shows a character input screen 350 for inputting information related to the person 320.

図3(A)を参照して、モニタ210に表示された画像300には、人物320と、山330と、寺340とが表示されている。ユーザが人物320にタッチすると、被写体識別部250は、画像300に写っている被写体の種別を識別する。   Referring to FIG. 3A, in an image 300 displayed on the monitor 210, a person 320, a mountain 330, and a temple 340 are displayed. When the user touches the person 320, the subject identifying unit 250 identifies the type of the subject that appears in the image 300.

被写体識別部250は、当該被写体の種別が「人物」であると判定した場合に、表示制御部280は、表示情報241を参照して、文字入力画面350を表示する。ユーザは、文字入力部360に、人物320に関する情報を入力する。ある局面において、電子機器100は、ユーザの音声により人物320に関する情報を入力可能なように構成される。   When the subject identifying unit 250 determines that the type of the subject is “person”, the display control unit 280 displays the character input screen 350 with reference to the display information 241. The user inputs information related to the person 320 into the character input unit 360. In one aspect, electronic device 100 is configured to be able to input information related to person 320 by the user's voice.

ユーザが文字入力部360に情報を入力すると、表示制御部280は、文字入力部360の入力情報と、種別「人物」と、画像300内の部分画像310の範囲とを被写体情報242に格納する。たとえば、当該範囲は、画像300上の座標値として格納される。   When the user inputs information to the character input unit 360, the display control unit 280 stores the input information of the character input unit 360, the type “person”, and the range of the partial image 310 in the image 300 in the subject information 242. . For example, the range is stored as a coordinate value on the image 300.

当該範囲が被写体情報242に格納された後に、ユーザが画像300上の人物320にタッチすると、被写体情報242に格納された入力情報が再度表示される。これにより、ユーザは、画像300を後日見返した時に、人物320の情報を確認することができる。   When the user touches the person 320 on the image 300 after the range is stored in the subject information 242, the input information stored in the subject information 242 is displayed again. Thereby, the user can confirm the information of the person 320 when looking back at the image 300 at a later date.

ある局面において、電子機器100は、ユーザが入力した情報を用いて、被写体を分類可能なように構成されてもよい。たとえば、電子機器100は、ユーザが入力した名前および日付情報により被写体を分類する。   In one aspect, electronic device 100 may be configured to classify a subject using information input by a user. For example, the electronic device 100 classifies the subject based on the name and date information input by the user.

図4(A)は、ユーザが画像300に写っている寺340にタッチした様子を表す図である。また、図4(B)は、寺340に関する情報を検索するための検索画面430を表す図である。   FIG. 4A is a diagram illustrating a state in which the user touches the temple 340 shown in the image 300. FIG. 4B is a diagram showing a search screen 430 for searching for information related to the temple 340.

図4(A)を参照して、ユーザが寺340にタッチすると、被写体識別部250は、部分画像410に写っている被写体の種別を識別する。   Referring to FIG. 4A, when the user touches temple 340, subject identification unit 250 identifies the type of subject that appears in partial image 410.

被写体識別部250は、当該被写体の種別が「人工物」であると判定した場合に、表示制御部280は、表示情報241を参照して、検索画面430を表示する。ユーザは、検索画面430上のキーワード入力部440に検索キーワードを入力する。ユーザが検索を実行すると、表示制御部280は、検索結果と、種別「人工物」と、画像300内の部分画像310の範囲とを被写体情報242に格納する。   When the subject identification unit 250 determines that the type of the subject is “artifact”, the display control unit 280 displays the search screen 430 with reference to the display information 241. The user inputs a search keyword into the keyword input unit 440 on the search screen 430. When the user performs a search, the display control unit 280 stores the search result, the type “artifact”, and the range of the partial image 310 in the image 300 in the subject information 242.

当該範囲が被写体情報242に格納された後に、ユーザが画像300上の寺340にタッチすると、被写体情報242に格納された検索結果がモニタ210に再度表示される。これにより、ユーザは、画像300を後日見返した時に、寺340について調べたことを確認することができる。   After the range is stored in the subject information 242, when the user touches the temple 340 on the image 300, the search result stored in the subject information 242 is displayed on the monitor 210 again. Thus, the user can confirm that the temple 340 has been examined when the image 300 is looked back at a later date.

他の局面において、表示制御部280は、検索画面430を表示するときに、初期検索キーワードを挿入する。たとえば、被写体識別部250が、寺340の名前「東大寺」を識別する。表示制御部280は、キーワード入力部440に「東大寺」を設定する。当該名前の識別方法は、図7において詳細に説明する。   In another aspect, display control unit 280 inserts an initial search keyword when displaying search screen 430. For example, the subject identifying unit 250 identifies the name “Todaiji” of the temple 340. The display control unit 280 sets “Todaiji” in the keyword input unit 440. The method for identifying the name will be described in detail with reference to FIG.

図5(A)は、ユーザが画像300に写っている山330にタッチした様子を表す図である。また、図5(B)は、山330の位置を表示する地図画面530を表す図である。   FIG. 5A is a diagram illustrating a state in which the user touches the mountain 330 shown in the image 300. FIG. 5B is a diagram showing a map screen 530 displaying the position of the mountain 330.

図5(A)を参照して、ユーザが山330にタッチすると、被写体識別部250は、部分画像510に写っている被写体の種別を識別する。   Referring to FIG. 5A, when the user touches mountain 330, subject identification unit 250 identifies the type of subject that appears in partial image 510.

被写体識別部250は、当該被写体の種別が「自然物」であると判定した場合に、表示制御部280は、表示情報241を参照して、山の位置540を地図画面530上に表示する。他の局面において、表示制御部280は、現在地を地図画面530上に表示する。   When the subject identifying unit 250 determines that the type of the subject is “natural object”, the display control unit 280 refers to the display information 241 to display the mountain position 540 on the map screen 530. In another aspect, display control unit 280 displays the current location on map screen 530.

また、表示制御部280は、種別「自然物」と、画像300内の部分画像510の範囲とを被写体情報242に格納する。   Further, the display control unit 280 stores the type “natural object” and the range of the partial image 510 in the image 300 in the subject information 242.

当該範囲が被写体情報242に格納された後に、ユーザが画像300上の山330にタッチすると、被写体情報242に格納された山の位置540が地図画面530に再度表示される。これにより、ユーザが、画像300を後日見返した時に、山330の位置を確認することができる。   After the range is stored in the subject information 242, when the user touches the mountain 330 on the image 300, the mountain position 540 stored in the subject information 242 is displayed again on the map screen 530. Thereby, when the user looks back at the image 300 at a later date, the position of the mountain 330 can be confirmed.

<データ構造>
図6を参照して、表示情報241のデータ構造について説明する。図6は、記憶部240に格納されている表示情報241を表す図である。
<Data structure>
The data structure of the display information 241 will be described with reference to FIG. FIG. 6 is a diagram illustrating the display information 241 stored in the storage unit 240.

表示情報241は、種別610と、表示画面620とを規定する。種別「人物」は、表示画面「入力画面」に関連付けられている。種別「人工物」は、表示画面「検索画面」に関連付けられている。種別「自然物」は、表示画面「地図画面」に関連付けられている。ある局面において、種別「人工物」は、「寺」および「神社」等であってもよい。種別「自然物」は、「山」および「川」等であってもよい。   The display information 241 defines a type 610 and a display screen 620. The type “person” is associated with the display screen “input screen”. The type “artifact” is associated with the display screen “search screen”. The type “natural object” is associated with the display screen “map screen”. In one aspect, the type “artifact” may be “temple”, “shrine”, or the like. The type “natural object” may be “mountain”, “river”, or the like.

種別610と表示画面620との関連付けは、ユーザにより設定できる。たとえば、種別「人物」は、表示画面「検索画面」に関連付けてもよい。   The association between the type 610 and the display screen 620 can be set by the user. For example, the type “person” may be associated with the display screen “search screen”.

人物識別部251が部分画像に含まれる被写体を「人物」と判定すると、表示制御部280は、表示情報241を参照して、種別「人物」に関連付けられている表示画面(文字入力画面350)をモニタ210に表示する。   When the person identifying unit 251 determines that the subject included in the partial image is “person”, the display control unit 280 refers to the display information 241 and displays a display screen (character input screen 350) associated with the type “person”. Is displayed on the monitor 210.

また、人工物識別部253が部分画像写っている被写体が「人工物」であると判定すると、表示制御部280は、表示情報241を参照して、種別「人工物」に関連付けられている表示画面(検索画面430)をモニタ210に表示する。   If the artifact identifying unit 253 determines that the subject in the partial image is “artifact”, the display control unit 280 refers to the display information 241 and displays the display associated with the type “artifact”. A screen (search screen 430) is displayed on the monitor 210.

さらに、CPU20が部分画像写っている被写体が「自然物」であると判定すると、表示制御部280は、表示情報241を参照して、種別「自然物」に関連付けられている表示画面(地図画面530)をモニタ210に表示する。   Further, when the CPU 20 determines that the subject in the partial image is a “natural object”, the display control unit 280 refers to the display information 241 and displays a display screen (map screen 530) associated with the type “natural object”. Is displayed on the monitor 210.

図7を参照して、位置情報245のデータ構造について説明する。図7は、記憶部240に格納されている位置情報245の一例を表す図である。   The data structure of the position information 245 will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of the position information 245 stored in the storage unit 240.

位置情報245は、名前710と、種別720と、位置730とを規定している。名前「富士山」は、種別「自然物」と、位置(北緯35.2、東経138.4)とに関連付けられている。名前「東大寺」は、種別「人工物」と、位置(北緯34.7、東経135.8)とに関連付けられている。名前「伊勢神宮」は、種別「人工物」と、位置(北緯34.2、東経136.4)とに関連付けられている。ある局面において、種別「人工物」は、「寺」および「神社」等であってもよい。種別「自然物」は、「山」および「川」等であってもよい。位置730は、座標値として定義されてもよい。   The position information 245 defines a name 710, a type 720, and a position 730. The name “Mt. Fuji” is associated with the type “natural object” and the position (north latitude 35.2, east longitude 138.4). The name “Todaiji” is associated with a type “artifact” and a position (north latitude 34.7, east longitude 135.8). The name “Ise Jingu” is associated with a type “artifact” and a position (north latitude 34.2, east longitude 136.4). In one aspect, the type “artifact” may be “temple”, “shrine”, or the like. The type “natural object” may be “mountain”, “river”, or the like. The position 730 may be defined as a coordinate value.

人工物識別部253は、位置情報245と、現在位置情報と、方向情報とに基づいて、部分画像に写っている被写体が人工物であるか否かを判定する。   The artifact identification unit 253 determines whether or not the subject in the partial image is an artifact based on the position information 245, the current position information, and the direction information.

たとえば、現在位置情報が(北緯34.6、東経135.8)であり、方向情報が「北」である場合、人工物識別部253は、検索条件(北緯34.6〜34.8、東経135.8)に合致するデータを位置730から検索する。人工物識別部253は、位置730を参照して、検索条件に合致する行750を取得し、部分画像に写っている被写体を「人工物」と判定する。人工物識別部253は、部分画像に写っている被写体の名前を「東大寺」と判定する。   For example, when the current position information is (north latitude 34.6, east longitude 135.8) and the direction information is “north”, the artifact identification unit 253 searches the search condition (north latitude 34.6-34.8, east longitude The data matching 135.8) is searched from the position 730. The artifact identifying unit 253 refers to the position 730, acquires the row 750 that matches the search condition, and determines that the subject in the partial image is an “artifact”. The artifact identifying unit 253 determines that the name of the subject in the partial image is “Todaiji”.

検索条件は方向情報を考慮して決定される。たとえば、方向情報が「北」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度+定数、現在経度)とする。方向情報が「南」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度−定数、現在経度)とする。方向情報が「北東」の場合に、人工物識別部253は、検索条件を(現在緯度〜現在緯度+定数、現在経度〜現在経度+定数)とする。   Search conditions are determined in consideration of direction information. For example, when the direction information is “north”, the artifact identifying unit 253 sets the search condition as (current latitude to current latitude + constant, current longitude). When the direction information is “south”, the artifact identifying unit 253 sets the search condition as (current latitude to current latitude-constant, current longitude). When the direction information is “northeast”, the artifact identifying unit 253 sets the search condition as (current latitude to current latitude + constant, current longitude to current longitude + constant).

また、人工物識別部253は、部分画像の画像情報をさらに用いて、被写体が「人工物」であるか否かを判定する。たとえば、人工物識別部253は、部分画像の特徴量に基づいて直線検出を行い、直線の数等に基づいて被写体が「人工物」であるか否かを判定する。寺、神社、ビル等の「人工物」が写っている画像は、通常直線を多く含むためである。これにより、人工物識別部253は、被写体が「人工物」であるか否かをより確実に判定することが可能になる。   The artifact identifying unit 253 further determines whether or not the subject is an “artificial object” by further using the image information of the partial image. For example, the artifact identifying unit 253 performs straight line detection based on the feature amount of the partial image, and determines whether the subject is an “artificial object” based on the number of straight lines and the like. This is because images including “artifacts” such as temples, shrines, buildings, etc. usually contain many straight lines. Thereby, the artifact identifying unit 253 can more reliably determine whether or not the subject is an “artificial object”.

他の局面において、人工物識別部253は、予め登録されている寺等の画像と部分画像とをテンプレートマッチングすることにより、被写体が「人工物」であるか否かを判定してもよい。   In another aspect, the artifact identifying unit 253 may determine whether or not the subject is an “artificial object” by performing template matching between an image of a temple or the like registered in advance and a partial image.

自然物識別部255は、位置情報245を参照して、部分画像に写っている被写体が自然物であるか否かを判定する。自然物識別部255は、位置情報取得部260から現在位置情報と、方向情報とを取得する。   The natural object identification unit 255 refers to the position information 245 to determine whether or not the subject shown in the partial image is a natural object. The natural object identification unit 255 acquires current position information and direction information from the position information acquisition unit 260.

たとえば、現在位置情報が(北緯35.3、東経138.4)であり、方向情報が「南」である場合、自然物識別部255は、検索条件(北緯35.1〜35.3、東経138.4)に合致するデータを位置730から検索する。自然物識別部255は、位置730を参照して、検索条件に合致する行740を取得し、部分画像に写っている被写体が「自然物」であると判定する。   For example, when the current position information is (north latitude 35.3, east longitude 138.4) and the direction information is “south”, the natural object identification unit 255 uses the search condition (north latitude 35.1 to 35.3, east longitude 138). .4) is searched for from the position 730. The natural object identification unit 255 refers to the position 730, acquires the row 740 that matches the search condition, and determines that the subject in the partial image is a “natural object”.

また、自然物識別部255は、部分画像の画像情報をさらに用いて、被写体が自然物であるか否かを判定する。たとえば、自然物識別部255は、部分画像から色情報を取得し、部分画像内の全画素に占める緑色の画素の割合等に基づいて、被写体が自然物であるか否かを判定する。   Further, the natural object identification unit 255 further determines whether or not the subject is a natural object by further using the image information of the partial image. For example, the natural object identification unit 255 acquires color information from the partial image, and determines whether or not the subject is a natural object based on the ratio of green pixels in all the pixels in the partial image.

<制御構造>
図8を参照して、電子機器100の制御構造について説明する。図8は、ある局面における、電子機器100が実行する処理の一部を表わすフローチャートである。図8の処理は、CPU20がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。
<Control structure>
A control structure of electronic device 100 will be described with reference to FIG. FIG. 8 is a flowchart showing a part of processing executed by electronic device 100 in a certain aspect. The processing in FIG. 8 is realized by the CPU 20 executing a program. In other aspects, some or all of the processing may be performed by circuit elements or other hardware.

ステップS801において、タッチパネル220は、モニタ210における接触部分を検出する。   In step S <b> 801, touch panel 220 detects a contact portion on monitor 210.

ステップS803において、CPU20は、表示制御部280として、当該接触部分が被写体情報242に存在するか否かを判断する。CPU20は、当該接触部分が被写体情報242に存在すると判断すると(ステップS803においてYES)、制御をステップS805に切り替える。そうでない場合には(ステップS803においてNO)、CPU20は、制御をステップS810に切り替える。   In step S <b> 803, the CPU 20 determines whether the contact portion exists in the subject information 242 as the display control unit 280. If CPU 20 determines that the contact portion exists in subject information 242 (YES in step S803), CPU 20 switches control to step S805. If not (NO in step S803), CPU 20 switches control to step S810.

ステップS805において、CPU20は、被写体情報242を参照して、被写体に付加されている情報を表示する。   In step S805, the CPU 20 refers to the subject information 242, and displays information added to the subject.

ステップS810において、CPU20は、人物識別部251として、被写体の種別が「人物」であるか否かを判断する。CPU20は、被写体の種別が「人物」であると判断すると(ステップS810においてYES)、制御をステップS811に切り替える。そうでない場合には(ステップS810においてNO)、CPU20は、制御をステップS820に切り替える。   In step S <b> 810, the CPU 20 determines, as the person identification unit 251, whether or not the subject type is “person”. When CPU 20 determines that the type of subject is “person” (YES in step S810), CPU 20 switches control to step S811. If not (NO in step S810), CPU 20 switches control to step S820.

ステップS811において、CPU20は、表示制御部280として、表示情報241を参照し、種別「人物」に関連付けられた表示画面をモニタ210に表示する。   In step S <b> 811, the CPU 20 refers to the display information 241 as the display control unit 280 and displays a display screen associated with the type “person” on the monitor 210.

ステップS820において、CPU20は、人工物識別部253として、被写体の種別が「人工物」であるか否かを判断する。CPU20は、被写体の種別が「人工物」であると判断すると(ステップS820においてYES)、制御をステップS821に切り替える。そうでない場合には(ステップS820においてNO)、CPU20は、制御をステップS830に切り替える。   In step S820, the CPU 20 determines, as the artifact identification unit 253, whether the type of the subject is “artifact”. When CPU 20 determines that the type of subject is “artifact” (YES in step S820), CPU 20 switches control to step S821. If not (NO in step S820), CPU 20 switches control to step S830.

ステップS821において、CPU20は、表示制御部280として、表示情報241を参照し、種別「人工物」に関連付けられた表示画面をモニタ210に表示する。   In step S <b> 821, the CPU 20 refers to the display information 241 as the display control unit 280 and displays a display screen associated with the type “artifact” on the monitor 210.

ステップS830において、CPU20は、自然物識別部255として、被写体の種別が「自然物」であるか否かを判断する。CPU20は、被写体の種別が「自然物」であると判断すると(ステップS830においてYES)、制御をステップS831に切り替える。そうでない場合には(ステップS830においてNO)、CPU20は、処理を終了する。   In step S <b> 830, the CPU 20 determines, as the natural object identification unit 255, whether the type of the subject is “natural object”. When CPU 20 determines that the subject type is “natural object” (YES in step S830), CPU 20 switches control to step S831. If not (NO in step S830), CPU 20 ends the process.

ステップS831において、CPU20は、表示制御部280として、表示情報241を参照し、種別「自然物」に関連付けられた表示画面をモニタ210に表示する。   In step S831, the CPU 20 refers to the display information 241 as the display control unit 280 and displays a display screen associated with the type “natural object” on the monitor 210.

なお、各処理ステップの順序は、図示されたものに限定されない。たとえば、ステップS810,820,830は、ステップS801の前に行われてもよい。   In addition, the order of each processing step is not limited to what was illustrated. For example, steps S810, 820, and 830 may be performed before step S801.

[第2の実施の形態]
<動作態様>
以下、第2の実施の形態について説明する。本実施の形態に係る電子機器は、ユーザが被写体の種別をコンボボックスその他の一覧表から選択するという点で第1の実施の形態とは異なる。本実施の形態に係る電子機器のハードウェア構成は、第1の実施の形態に係る電子機器と同様である。したがって、ハードウェア構成の説明は、繰り返さない。
[Second Embodiment]
<Operation mode>
Hereinafter, a second embodiment will be described. The electronic apparatus according to the present embodiment is different from the first embodiment in that the user selects a subject type from a combo box or other list. The hardware configuration of the electronic device according to the present embodiment is the same as that of the electronic device according to the first embodiment. Therefore, the description of the hardware configuration will not be repeated.

図9を参照して、本実施の形態の電子機器100の動作の一態様について説明する。図9は、モニタ210に一覧表の一例であるコンボボックス901が表示されている様子を表す図である。   With reference to FIG. 9, one mode of operation of electronic device 100 of the present embodiment will be described. FIG. 9 is a diagram illustrating a state in which a combo box 901 that is an example of a list is displayed on the monitor 210.

本実施の形態の電子機器100は、ユーザがタッチパネルにタッチすると、被写体の種別の選択を受け付ける選択画面を表示する。より具体的には、ユーザが寺340にタッチすると、表示制御部280は、コンボボックス901をモニタ210に表示する。たとえば、表示制御部280は、コンボボックス901に種別「人物」、「人工物」および「自然物」を表示する。コンボボックス901に表示される種別は、「寺」、「神社」、「山」、「川」等であってもよい。ある局面において、電子機器100は、ユーザが当該種別を追加および削除できるように構成されてもよい。   Electronic device 100 of the present embodiment displays a selection screen for accepting selection of the type of subject when the user touches the touch panel. More specifically, when the user touches the temple 340, the display control unit 280 displays the combo box 901 on the monitor 210. For example, the display control unit 280 displays the types “person”, “artificial object”, and “natural object” in the combo box 901. The type displayed in the combo box 901 may be “temple”, “shrine”, “mountain”, “river”, or the like. In one aspect, electronic device 100 may be configured such that a user can add and delete the type.

他の局面において、表示制御部280は、コンボボックス901に表示される種別の順番に優先順位を付ける。たとえば、被写体識別部250は、人物および寺等の物体が写った複数の画像の特徴量を抽出し、特徴量を物体毎にクラスタリングしたクラス辞書を作成する。その後、被写体識別部250は、当該クラス辞書を参照して、部分画像410に写っている被写体と各クラスとの距離を算出する。たとえば、当該距離は、マハラノビス距離である。表示制御部280は、当該距離に基づいて、コンボボックス901に表示する種別の順番を決定する。   In another aspect, display control unit 280 gives priority to the order of types displayed in combo box 901. For example, the subject identification unit 250 extracts feature amounts of a plurality of images in which objects such as people and temples are captured, and creates a class dictionary in which the feature amounts are clustered for each object. Thereafter, the subject identification unit 250 refers to the class dictionary and calculates the distance between the subject in the partial image 410 and each class. For example, the distance is a Mahalanobis distance. The display control unit 280 determines the order of types to be displayed in the combo box 901 based on the distance.

以上のようにして、第2の実施の形態における電子機器100は、ユーザが種別を選択するため、あらゆる種別の被写体に情報を付加することができる。これにより、後日画像を見返した時に撮影時の状況をより詳細に思い起こすことができる。   As described above, the electronic device 100 according to the second embodiment can add information to any type of subject because the user selects the type. As a result, the situation at the time of shooting can be recalled in more detail when the image is reviewed at a later date.

また、コンボボックス901に表示さされる種別の順番に優先順位を付けることにより、ユーザは容易に種別を選択することができる。   Also, by assigning priorities to the order of the types displayed in the combo box 901, the user can easily select the types.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 電子機器、 20 CPU、23 アンテナ、24 通信装置、25 ユーザインターフェイス、26 カメラ、27 フラッシュメモリ、28 RAM、29 ROM、30 メモリカード駆動装置、31 メモリカード、32 マイク、33 スピーカ、34 音声信号処理回路、35 ディスプレイ、36 LED、37 データ通信I/F、38 バイブレータ、39 GPSコントローラ、40 方位センサ、210 モニタ、220 タッチパネル、240 記憶部、241 表示情報、242 被写体情報、243 テンプレート、245 位置情報、250 被写体識別部、251 人物識別部、253 人工物識別部、255 自然物識別部、260 位置情報取得部、270 方向情報取得部、280 表示制御部、300 画像、310 部分画像、320 人物、330 山、340 寺、350 文字入力画面、360 文字入力部、410 部分画像、430 検索画面、440 キーワード入力部、510 部分画像、530 地図画面、540 山の位置、610 種別、620 表示画面、710 名前、720 種別、730 位置(経度、緯度)、901 コンボボックス。   100 electronic equipment, 20 CPU, 23 antenna, 24 communication device, 25 user interface, 26 camera, 27 flash memory, 28 RAM, 29 ROM, 30 memory card drive device, 31 memory card, 32 microphone, 33 speaker, 34 audio signal Processing circuit, 35 Display, 36 LED, 37 Data communication I / F, 38 Vibrator, 39 GPS controller, 40 Direction sensor, 210 Monitor, 220 Touch panel, 240 Storage unit, 241 Display information, 242 Subject information, 243 Template, 245 Position Information, 250 Subject identification unit, 251 Person identification unit, 253 Artificial object identification unit, 255 Natural object identification unit, 260 Position information acquisition unit, 270 Direction information acquisition unit, 280 Display control unit, 300 image, 31 Partial image, 320 people, 330 mountains, 340 temples, 350 character input screen, 360 character input part, 410 partial image, 430 search screen, 440 keyword input part, 510 partial image, 530 map screen, 540 mountain position, 610 type , 620 display screen, 710 name, 720 type, 730 position (longitude, latitude), 901 combo box.

Claims (5)

電子機器であって、
カメラと、
前記カメラからの画像を表示するためのモニタと、
前記モニタにおける接触部分を検出するためのタッチパネルと、
前記画像内の前記接触部分を含む部分画像に写っている被写体の種別を識別するための被写体識別手段と、
前記被写体識別手段により識別された種別に関連付けられた画面を前記モニタに表示するための表示制御手段とを備え、前記画面は、前記被写体に関する情報の入力を受け付けるための入力画面を含み、
前記画像内の前記部分画像の範囲、前記被写体識別手段により識別された種別、および前記入力画面に入力された入力情報を関連付けて格納するための記憶部と、
前記モニタにおける接触部分が前記範囲に含まれる場合に、前記入力情報を表示するための入力情報表示手段とを備える、電子機器。
Electronic equipment,
A camera,
A monitor for displaying an image from the camera;
A touch panel for detecting a contact portion in the monitor;
Subject identifying means for identifying the type of subject in the partial image including the contact portion in the image;
Display control means for displaying on the monitor a screen associated with the type identified by the subject identification means, the screen including an input screen for accepting input of information about the subject,
A storage unit for storing the range of the partial image in the image, the type identified by the subject identifying unit, and the input information input on the input screen;
An electronic apparatus comprising: input information display means for displaying the input information when a contact portion on the monitor is included in the range.
前記画面は、前記被写体に関する情報を検索するための検索画面を含み、
前記記憶部は、前記画像中の前記部分画像の範囲、前記被写体識別手段により識別された種別、および前記検索の結果を関連付けてさらに格納するように構成されており、
前記電子機器は、前記モニタにおける接触部分が前記範囲に含まれる場合に、前記検索の結果を表示するための検索結果表示手段をさらに備える、請求項1に記載の電子機器。
The screen includes a search screen for searching for information on the subject,
The storage unit is configured to further store the range of the partial image in the image, the type identified by the subject identifying unit, and the search result in association with each other,
2. The electronic device according to claim 1, further comprising: a search result display unit configured to display a result of the search when a contact portion on the monitor is included in the range.
前記電子機器の現在の位置を示す現在位置情報を取得する位置取得部と、
前記カメラが向いている方向を示す方向情報を取得するための方向取得部とをさらに備え、
前記記憶部は、人工物の地図上の位置情報を示す人工物位置情報さらに格納するように構成されており、
前記被写体識別手段は、前記現在位置情報と、前記方向情報と、前記人工物位置情報とに基づいて、前記被写体の種別が人工物であるか否かを判定するための人工物識別手段を含む、請求項1または2に記載の電子機器。
A position acquisition unit for acquiring current position information indicating a current position of the electronic device;
A direction acquisition unit for acquiring direction information indicating a direction in which the camera is facing;
The storage unit is configured to further store artifact position information indicating position information on the map of the artifact,
The subject identifying means includes an artifact identifying means for determining whether or not the type of the subject is an artifact based on the current position information, the direction information, and the artifact position information. The electronic device according to claim 1 or 2.
前記記憶部は、自然物の地図上の位置情報を示す自然物位置情報をさらに格納するように構成されており、
前記被写体識別手段は、前記現在位置情報と、前記方向情報と、前記自然物位置情報とに基づいて、前記被写体の種別が自然物であるか否かを判定するための自然物識別手段を含む、請求項3に記載の電子機器。
The storage unit is configured to further store natural object position information indicating position information on a natural object map,
The object identification means includes a natural object identification means for determining whether or not the type of the object is a natural object based on the current position information, the direction information, and the natural object position information. 3. The electronic device according to 3.
カメラと、前記カメラからの画像を表示するためのモニタと、前記モニタにおける接触部分を検出するためのタッチパネルとを備える電子機器を制御するための方法であって、
前記画像内の前記接触部分を含む部分画像に写っている被写体の種別を識別するステップと、
前記識別するステップにより識別された種別に関連付けられた画面を前記モニタに表示するステップとを備え、前記表示するステップは、前記被写体に関する情報の入力を受け付けるための入力画面を表示するためのステップを含み、
前記画像内の前記部分画像の範囲、前記識別するステップにより識別された種別、および前記入力画面に入力された入力情報を関連付けて格納するステップと、
前記モニタにおける接触部分が前記範囲に含まれる場合に、前記入力情報を表示するステップとをさらに備える、電子機器を制御するための方法。
A method for controlling an electronic device comprising a camera, a monitor for displaying an image from the camera, and a touch panel for detecting a contact portion on the monitor,
Identifying the type of subject in the partial image including the contact portion in the image;
Displaying on the monitor a screen associated with the type identified in the identifying step, and the displaying step includes a step for displaying an input screen for receiving input of information on the subject. Including
Storing the range of the partial image in the image, the type identified by the identifying step, and the input information input to the input screen in association with each other;
Displaying the input information when a contact portion on the monitor is included in the range. The method for controlling an electronic device.
JP2013051685A 2013-03-14 2013-03-14 Electronic device and method for controlling electronic device Expired - Fee Related JP5977697B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013051685A JP5977697B2 (en) 2013-03-14 2013-03-14 Electronic device and method for controlling electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013051685A JP5977697B2 (en) 2013-03-14 2013-03-14 Electronic device and method for controlling electronic device

Publications (2)

Publication Number Publication Date
JP2014179743A true JP2014179743A (en) 2014-09-25
JP5977697B2 JP5977697B2 (en) 2016-08-24

Family

ID=51699281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013051685A Expired - Fee Related JP5977697B2 (en) 2013-03-14 2013-03-14 Electronic device and method for controlling electronic device

Country Status (1)

Country Link
JP (1) JP5977697B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102382478B1 (en) 2017-10-13 2022-04-05 삼성전자주식회사 Electronic apparatus and control method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05284448A (en) * 1991-12-20 1993-10-29 Kyocera Corp Electronic still camera
JPH06217252A (en) * 1991-09-27 1994-08-05 Kyocera Corp Electronic still camera
JP2009253931A (en) * 2008-04-11 2009-10-29 Casio Comput Co Ltd Electronic data editing device and method, and program
JP2011211561A (en) * 2010-03-30 2011-10-20 Nec Corp Mobile terminal with camera, and method and program for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217252A (en) * 1991-09-27 1994-08-05 Kyocera Corp Electronic still camera
JPH05284448A (en) * 1991-12-20 1993-10-29 Kyocera Corp Electronic still camera
JP2009253931A (en) * 2008-04-11 2009-10-29 Casio Comput Co Ltd Electronic data editing device and method, and program
JP2011211561A (en) * 2010-03-30 2011-10-20 Nec Corp Mobile terminal with camera, and method and program for controlling the same

Also Published As

Publication number Publication date
JP5977697B2 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
CN109890067B (en) Method and electronic equipment for identifying specific position on specific route
US10971188B2 (en) Apparatus and method for editing content
CN111182145A (en) Display method and related product
US9015260B2 (en) Communication terminal device, and recording medium for image storage, selection and email attachment
KR20180118816A (en) Content collection navigation and auto forwarding
CN111182453A (en) Positioning method, positioning device, electronic equipment and storage medium
CN110377195B (en) Method and device for displaying interaction function
US20090175551A1 (en) Intelligent image enhancement
JPWO2017164288A1 (en) Image display system, terminal, method and program
CN105956091B (en) Extended information acquisition method and device
JPWO2017154136A1 (en) Portable information terminal and information processing method used therefor
CN113647092A (en) Electronic device and method for providing content associated with image to application
US10178305B2 (en) Imaging apparatus and method to capture images based on recommended applications
CN114697543B (en) Image reconstruction method, related device and system
CN114020387A (en) Terminal screen capturing method and device, storage medium and electronic equipment
CN111950255A (en) Poetry generation method, device and equipment and storage medium
KR20170098113A (en) Method for creating image group of electronic device and electronic device thereof
JP2016195323A (en) Information processing apparatus, information processing method, and program
JP5977697B2 (en) Electronic device and method for controlling electronic device
CN110837557A (en) Abstract generation method, device, equipment and medium
US20220188348A1 (en) Content management device, content management system, and control method
KR101706371B1 (en) A mobile terminal for performing a lifelog service and a server therefor
CN108366338A (en) Method and apparatus for searching electronic equipment
JP6077930B2 (en) Information management apparatus, information management system, communication terminal, and information management method
CN112989092A (en) Image processing method and related device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees