JP2012205153A - Photographing device, control method, and virtual information display program - Google Patents

Photographing device, control method, and virtual information display program Download PDF

Info

Publication number
JP2012205153A
JP2012205153A JP2011068969A JP2011068969A JP2012205153A JP 2012205153 A JP2012205153 A JP 2012205153A JP 2011068969 A JP2011068969 A JP 2011068969A JP 2011068969 A JP2011068969 A JP 2011068969A JP 2012205153 A JP2012205153 A JP 2012205153A
Authority
JP
Japan
Prior art keywords
display
unit
image
hand
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011068969A
Other languages
Japanese (ja)
Other versions
JP5685464B2 (en
Inventor
Nayu Nomachi
那由 能町
Michiko Abe
瑞知子 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011068969A priority Critical patent/JP5685464B2/en
Publication of JP2012205153A publication Critical patent/JP2012205153A/en
Application granted granted Critical
Publication of JP5685464B2 publication Critical patent/JP5685464B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable plural pieces of information added to an image to be easily selected.SOLUTION: A mobile phone terminal (photographing device) 1 comprises: a photographing unit 40; a display unit 2 that displays an image acquired by the photographing unit; and a control unit 22 that superimposes objects related to the image acquired by the photographing unit 40 on the image, and causes the display unit 2 to display them. The control unit 22 performs selection processing of an object overlapping a display region of a predetermined object included in the image among the objects.

Description

本発明は、撮影装置、制御方法および仮想情報表示プログラムに関する。   The present invention relates to a photographing apparatus, a control method, and a virtual information display program.

近年、現実空間の画像をコンピュータで処理して更なる情報を付加する拡張現実(AR:Augmented reality)技術が注目されている(例えば、特許文献1参照)。また、現実空間の画像に付加された情報を選択してより詳細な情報を表示させる技術も知られている。   In recent years, augmented reality (AR) technology that adds an additional information by processing a real-space image with a computer has attracted attention (for example, see Patent Document 1). There is also known a technique for displaying more detailed information by selecting information added to an image in the real space.

特開2002−027349号公報JP 2002-027349 A

しかしながら、従来は、現実空間の画像に付加された複数の情報をまとめて選択可能な操作方式が提供されていなかった。このため、利用者は、現実空間の画像に付加されている複数の情報のうちどれが所望の情報であるか分からない場合には、情報を1つずつ選択して関連づけられた詳細情報を確認していかなければならなかった。   However, conventionally, there has not been provided an operation method capable of selecting a plurality of pieces of information added to an image in the real space collectively. For this reason, when the user does not know which of a plurality of pieces of information added to the real space image is the desired information, the user selects information one by one and confirms the associated detailed information. I had to do it.

本発明は、画像に付加された複数の情報を容易に選択することができる撮影装置、制御方法および仮想情報表示プログラムを提供することを目的とする。   An object of the present invention is to provide a photographing apparatus, a control method, and a virtual information display program that can easily select a plurality of information added to an image.

本発明に係る撮影装置は、撮影部と、前記撮影部によって取得された画像を表示する表示部と、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理する。   An imaging apparatus according to the present invention includes an imaging unit, a display unit that displays an image acquired by the imaging unit, and an object related to the image acquired by the imaging unit that is superimposed on the image on the display unit. A control unit for displaying, and the control unit selects an object that overlaps a display area of a predetermined object included in the image among the objects.

ここで、前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことが好ましい。なお、前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むこととしてもよい。   Here, it is preferable that the control unit performs the selection process in response to a change in display mode of the predetermined object. Note that the change in the display mode of the predetermined object may include the disappearance of the protrusion included in the predetermined object.

また、前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することが好ましい。なお、前記制御部は、前記選択されたオブジェクトの一覧表示を自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示してもよい。また、前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示してもよい。   Moreover, it is preferable that the said control part displays the said object selected by the said selection process as a list on the said display part. The control unit may display the list of the selected objects by rearranging the selected objects according to the distance from the own device. The control unit may classify and display the objects selected by the selection process for each category.

また、前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことが好ましい。   Further, it is preferable that the display area of the predetermined object includes an inner side of an area where ends of a plurality of protrusions constituting the predetermined object are connected to each other.

また、前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することが好ましい。   In addition, when the display area of the predetermined object moves before the display mode of the predetermined object changes, the control unit preferably further performs a selection process on the object displayed on the movement locus. .

また、上述した課題を解決し、目的を達成するために、本発明に係る制御方法は、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを含む。   In order to solve the above-described problems and achieve the object, the control method according to the present invention includes a step of displaying an image acquired by the imaging unit, and an object related to the image acquired by the imaging unit. Over the image and displayed on the display unit, and among the objects, a step of selecting an object that overlaps a display area of a predetermined object included in the image.

また、上述した課題を解決し、目的を達成するために、本発明に係る仮想情報表示プログラムは、情報処理装置に、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを実行させる。   In order to solve the above-described problems and achieve the object, a virtual information display program according to the present invention is obtained by a step of displaying an image acquired by an imaging unit on an information processing apparatus and the imaging unit. A step of causing the display unit to display an object related to the image on the image and a step of selecting an object that overlaps a display area of a predetermined object included in the image. .

本発明は、画像に付加された複数の情報を容易に選択することができるという効果を奏する。   The present invention has an effect that a plurality of information added to an image can be easily selected.

図1は、本実施例に係る携帯電話端末の外観を示す正面図である。FIG. 1 is a front view showing an appearance of the mobile phone terminal according to the present embodiment. 図2は、本実施例に係る携帯電話端末の機能的な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the mobile phone terminal according to the present embodiment. 図3は、仮想情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of virtual information. 図4は、ARタグの選択の一例を示す図である。FIG. 4 is a diagram illustrating an example of selection of an AR tag. 図5は、選択領域について説明するための図である。FIG. 5 is a diagram for explaining the selected region. 図6は、ARタグの選択の他の例を示す図である。FIG. 6 is a diagram illustrating another example of selection of an AR tag. 図7は、携帯電話端末によるARタグ選択処理の処理手順を示す図である。FIG. 7 is a diagram showing a processing procedure of AR tag selection processing by the mobile phone terminal. 図8は、ARタグをカテゴリ別に表示する例を示す図である。FIG. 8 is a diagram illustrating an example in which AR tags are displayed by category. 図9は、手がARタグと初めて重なった場面の一例を示す図である。FIG. 9 is a diagram illustrating an example of a scene where the hand first overlaps the AR tag. 図10は、基準距離と換算係数について説明するための図である。FIG. 10 is a diagram for explaining the reference distance and the conversion coefficient. 図11は、ARタグを選択するための閾値の一例を示す図である。FIG. 11 is a diagram illustrating an example of a threshold value for selecting an AR tag.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、撮影装置の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等の各種情報処理装置に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of a photographing device. However, the application target of the present invention is not limited to a mobile phone terminal. For example, a PHS (Personal Handyphone System), a PDA, a portable navigation device, a notebook The present invention can also be applied to various information processing apparatuses such as personal computers and game machines.

まず、図1を参照しながら、本実施例に係る携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す正面図である。図1に示すように、携帯電話端末1の筐体1Cは、ヒンジ機構8によって開閉可能に連結された第1筐体1CAと第2筐体1CBとを備える。すなわち、携帯電話端末1は、折り畳み式の筐体を有する。   First, the external appearance of the mobile phone terminal 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a front view showing the appearance of the mobile phone terminal 1. As shown in FIG. 1, the casing 1 </ b> C of the mobile phone terminal 1 includes a first casing 1 </ b> CA and a second casing 1 </ b> CB connected to each other by a hinge mechanism 8 so as to be opened and closed. That is, the mobile phone terminal 1 has a foldable casing.

なお、携帯電話端末1の筐体は、このような構造に限定されるものではない。例えば、携帯電話端末1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して2つの筐体を連結したものでもよい。また、携帯電話端末1の筐体は、1つの筐体からなるいわゆるストレート式(スレート式)の筐体でもよい。   Note that the casing of the mobile phone terminal 1 is not limited to such a structure. For example, the housing of the mobile phone terminal 1 may be a sliding housing that allows one housing and the other housing to slide from each other in a state where both housings are overlapped, A rotary type in which one casing is rotated around an axis along the overlapping direction, or two casings connected via a biaxial hinge may be used. Further, the case of the mobile phone terminal 1 may be a so-called straight type (slate type) case made of one case.

第1筐体1CAは、表示部2と、レシーバ16と、撮影部40とを有する。表示部2は、液晶ディスプレイ(Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、文字、図形、画像等の各種情報を表示する。表示部2は、撮影部40によって取得された画像を表示することもできる。レシーバ16は、通話時に通話相手の音声を出力する。   1st housing | casing 1CA has the display part 2, the receiver 16, and the imaging | photography part 40. FIG. The display unit 2 includes a display device such as a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel, and displays various types of information such as characters, figures, and images. The display unit 2 can also display an image acquired by the imaging unit 40. The receiver 16 outputs the other party's voice during a call.

撮影部40は、撮像センサ等の撮影手段によって画像を撮影する。撮影部40の撮影手段に外部の光を導く撮影窓は、第1筐体1CAの表示部2が設けられている面と反対側の面に設けられている。すなわち、第1筐体1CAは、利用者が表示部2を正面から見ると、撮影部40によって取得された第1筐体1CAとは反対側の画像が表示部2に表示されるように構成されている。   The imaging unit 40 captures an image by an imaging unit such as an imaging sensor. The photographing window for guiding external light to the photographing means of the photographing unit 40 is provided on the surface opposite to the surface on which the display unit 2 of the first housing 1CA is provided. That is, the first casing 1CA is configured such that when the user views the display unit 2 from the front, an image on the opposite side to the first casing 1CA acquired by the photographing unit 40 is displayed on the display unit 2. Has been.

第2筐体1CBは、テンキーや機能キー等からなる操作キー13Aと、メニューの選択および決定や画面のスクロール等を実行するための方向および決定キー13Bと、通話時に音声を取得する音声取得手段であるマイク15とを有する。操作キー13Aと、方向および決定キー13Bとは、携帯電話端末1の操作部13を構成する。なお、操作部13は、操作キー13A等に代えて、または、操作キー13A等に加えて、表示部2に重畳されたタッチセンサを備えていてもよい。   The second casing 1CB includes an operation key 13A composed of a numeric keypad, a function key, etc., a direction and determination key 13B for executing menu selection and determination, screen scrolling, and the like, and voice acquisition means for acquiring voice during a call. And a microphone 15. The operation key 13A and the direction and determination key 13B constitute the operation unit 13 of the mobile phone terminal 1. Note that the operation unit 13 may include a touch sensor superimposed on the display unit 2 instead of the operation key 13A or the like or in addition to the operation key 13A or the like.

次に、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように、携帯電話端末1は、通信部26と、操作部13と、音声処理部30と、表示部2と、撮影部40と、位置・姿勢検出部36と、制御部22と、記憶部24とを備える。   Next, a functional configuration of the mobile phone terminal 1 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of the mobile phone terminal 1. As shown in FIG. 2, the mobile phone terminal 1 includes a communication unit 26, an operation unit 13, a voice processing unit 30, a display unit 2, a photographing unit 40, a position / attitude detection unit 36, and a control unit 22. And a storage unit 24.

通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局を通じて他の装置との間で電話通信および情報通信を行う。操作部13は、操作キー13A、または、方向および決定キー13Bがユーザによって操作されると、その操作内容に対応する信号を制御部22へ出力する。   The communication unit 26 includes an antenna 26a, establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with a base station via a channel assigned by the base station, and communicates with other devices through the base station. Phone communication and information communication. When the operation key 13A or the direction and determination key 13B is operated by the user, the operation unit 13 outputs a signal corresponding to the operation content to the control unit 22.

音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から出力されるデジタル信号を復号してレシーバ16へ出力する。表示部2は、制御部22から入力される制御信号に従って各種情報を表示する。撮影部40は、取得した画像をデジタル信号に変換して制御部22へ出力する。   The sound processing unit 30 converts the sound input from the microphone 15 into a digital signal and outputs the digital signal to the control unit 22. In addition, the audio processing unit 30 decodes the digital signal output from the control unit 22 and outputs the decoded digital signal to the receiver 16. The display unit 2 displays various information according to the control signal input from the control unit 22. The imaging unit 40 converts the acquired image into a digital signal and outputs the digital signal to the control unit 22.

位置・姿勢検出部36は、携帯電話端末1の位置と姿勢を検出し、検出結果を制御部22へ出力する。位置・姿勢検出部36は、携帯電話端末1の位置を、例えば、GPS(Global Positioning System)受信機や通信部26が無線信号回線を確立している基地局に基づいて検出する。また、位置・姿勢検出部36は、携帯電話端末1の姿勢を、例えば、3軸加速度センサ、方位センサ、ジャイロセンサに基づいて検出する。   The position / posture detection unit 36 detects the position and posture of the mobile phone terminal 1 and outputs the detection result to the control unit 22. The position / attitude detection unit 36 detects the position of the mobile phone terminal 1 based on, for example, a GPS (Global Positioning System) receiver or a base station with which the communication unit 26 has established a radio signal line. In addition, the position / posture detection unit 36 detects the posture of the mobile phone terminal 1 based on, for example, a three-axis acceleration sensor, an orientation sensor, and a gyro sensor.

制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部2等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや位置・姿勢検出部36等から入力される信号がパラメータとして利用される。   The control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the storage unit 24 and expands it in a memory, and causes the CPU to execute instructions included in the program expanded in the memory. And the control part 22 reads / writes data with respect to a memory and the memory | storage part 24 according to the execution result of the command by CPU, or controls operation | movement of the communication part 26, the display part 2, etc. FIG. When the CPU executes an instruction, data developed in the memory, a signal input from the position / posture detection unit 36, and the like are used as parameters.

記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムおよびデータには、仮想情報表示プログラム24aと、1ないし複数の仮想情報24bと、形状情報24cとが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、記憶部24に記憶されていることとしたプログラムおよびデータは、可搬の記憶媒体に記憶される。また、記憶部24に記憶されていることとしたプログラムおよびデータは、通信部26による無線通信によってサーバ装置等の他の装置から取得されることとしてもよい。   The storage unit 24 includes a nonvolatile storage device such as a flash memory, and stores various programs and data. The programs and data stored in the storage unit 24 include a virtual information display program 24a, one or more virtual information 24b, and shape information 24c. In addition, the memory | storage part 24 may be comprised by the combination of portable storage media, such as a memory card, and the reading / writing apparatus which reads / writes with respect to a storage medium. In this case, the program and data that are supposed to be stored in the storage unit 24 are stored in a portable storage medium. Further, the program and data that are supposed to be stored in the storage unit 24 may be acquired from another device such as a server device by wireless communication by the communication unit 26.

仮想情報表示プログラム24aは、拡張現実(AR:Augmented reality)技術に基づいて、撮影部40によって取得された画像に現実の施設や物品に対応した仮想的な情報を重ねて表示部2に表示する機能を提供する。具体的には、仮想情報表示プログラム24aは、位置・姿勢検出部36によって検出される位置と姿勢等に基づいて撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを制御部22に取得させる。そして、仮想情報表示プログラム24aは、取得した仮想情報24bに対応するARタグと呼ばれるオブジェクトを画像に重ねて表示させる。   Based on augmented reality (AR) technology, the virtual information display program 24a superimposes virtual information corresponding to actual facilities and articles on the image acquired by the imaging unit 40 and displays the virtual information on the display unit 2. Provide functionality. Specifically, the virtual information display program 24a controls the virtual information 24b corresponding to the facility or article in the shooting range of the shooting unit 40 based on the position and posture detected by the position / posture detection unit 36. To get. Then, the virtual information display program 24a displays an object called an AR tag corresponding to the acquired virtual information 24b so as to overlap the image.

また、仮想情報表示プログラム24aは、利用者に任意のARタグを選択させる機能と、選択されたARタグに関連づけられた動作を実行する機能を提供する。仮想情報表示プログラム24aは、複数のARタグが重なっている場合でも、任意のARタグを利用者が選択することを可能にする。   Further, the virtual information display program 24a provides a function that allows the user to select an arbitrary AR tag and a function that executes an operation associated with the selected AR tag. The virtual information display program 24a enables the user to select an arbitrary AR tag even when a plurality of AR tags are overlapped.

仮想情報24bは、撮影部40によって取得された画像に重ねて表示されるARタグに関する情報を保持する。図3は、仮想情報24bの一例を示す図である。図3に示すように、仮想情報24bは、緯度、経度、高さ、画像、コメント、URL(Uniform Resource Locator)等の分類項目の情報を有する。緯度、経度、高さは、仮想情報24bに対応する現実の施設や物品の位置を示す。画像は、ARタグとして表示されるオブジェクトの実体を示す。コメントは、仮想情報24bに対応する現実の施設や物品に関する説明文である。URLは、ARタグに関連づけられた情報を示す。なお、仮想情報24bが有する分類項目は、上記分類項目に限らず、高さやコメントはなくてもよい。   The virtual information 24b holds information related to the AR tag that is displayed over the image acquired by the imaging unit 40. FIG. 3 is a diagram illustrating an example of the virtual information 24b. As shown in FIG. 3, the virtual information 24b includes information on classification items such as latitude, longitude, height, image, comment, and URL (Uniform Resource Locator). The latitude, longitude, and height indicate the positions of actual facilities and articles corresponding to the virtual information 24b. The image shows the substance of the object displayed as the AR tag. The comment is a descriptive text regarding the actual facility or article corresponding to the virtual information 24b. The URL indicates information associated with the AR tag. Note that the classification items included in the virtual information 24b are not limited to the above-described classification items, and may not include heights or comments.

なお、表示対象の仮想情報24bの全てを予め記憶部24に記憶させるのではなく、携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲およびその周辺に存在する施設や物品に対応する仮想情報24bをサーバ装置から随時取得してもよい。この場合、所定量または所定件数の仮想情報24bを記憶部24にキャッシュするようにしてもよい。なお、ここでいうサーバ装置とは、例えば、ARサービスを提供する業者によって運営される装置である。   In addition, not all the virtual information 24b to be displayed is stored in the storage unit 24 in advance, but based on the position and orientation of the mobile phone terminal 1, the shooting range of the shooting unit 40 and the facilities and articles existing in the vicinity thereof The virtual information 24b corresponding to may be acquired from the server device as needed. In this case, a predetermined amount or a predetermined number of pieces of virtual information 24b may be cached in the storage unit 24. The server device here is, for example, a device operated by a trader who provides AR services.

形状情報24cは、撮影部40によって取得された画像の中から、ARタグを選択するために用いられる所定の物体を検出するための情報を保持する。本実施例においては、ARタグを選択するために用いられる所定の物体は、人間の手であるものとする。そして、形状情報24cには人間の手の形状が登録されているものとする。なお、ここでいう人間の手の形状とは、例えば、所定数以上の突部を有する形状とする。また、形状情報24cに登録された手の形状として、撮影された若しくは予め登録されている手の画像、又は手の形状の特徴情報等、いずれにも限られない。   The shape information 24c holds information for detecting a predetermined object used for selecting an AR tag from the image acquired by the photographing unit 40. In this embodiment, it is assumed that the predetermined object used for selecting the AR tag is a human hand. It is assumed that the shape of the human hand is registered in the shape information 24c. The shape of the human hand here is, for example, a shape having a predetermined number or more of protrusions. In addition, the hand shape registered in the shape information 24c is not limited to any image of a hand that has been photographed or registered in advance, or hand shape feature information.

次に、図4から図6を参照しながら、仮想情報表示プログラム24aが提供する機能に基づいて制御部22によって実行されるARタグの選択処理について説明する。図4は、ARタグの選択の一例を示す図である。図5は、選択領域について説明するための図である。図6は、ARタグの選択の他の例を示す図である。   Next, an AR tag selection process executed by the control unit 22 based on the function provided by the virtual information display program 24a will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of selection of an AR tag. FIG. 5 is a diagram for explaining the selected region. FIG. 6 is a diagram illustrating another example of selection of an AR tag.

図4に示すように、撮影部40が画像Pを取得すると、制御部22は、画像Pを表示部2に表示させるとともに、画像Pを形状情報24cと照合して手の形状の検出を試みる。手の形状が検出されると、制御部22は、二値化等によって手の輪郭を抽出する。なお、手の形状の検出は、例えば、特開2003−346162号公報にて開示されている技術等を用いて実現してもよい。また、手の認識方法としては、上記の方法に限らず、例えば、予め記憶された手の画像と画像Pとをマッチング処理して同一の手の形状を検出してもよい。また、同様の方法で、予め手の開かれた状態(開状態)および閉じられた状態(閉状態)の2パターンの画像を記憶しておき、当該2パターンの画像と画像Pに含まれる手の形状を対比することによって、画像Pに含まれる手の形状の検出を行ってもよい。   As shown in FIG. 4, when the photographing unit 40 acquires the image P, the control unit 22 displays the image P on the display unit 2 and tries to detect the shape of the hand by comparing the image P with the shape information 24c. . When the hand shape is detected, the control unit 22 extracts the contour of the hand by binarization or the like. In addition, you may implement | achieve the detection of the shape of a hand, for example using the technique etc. which are disclosed by Unexamined-Japanese-Patent No. 2003-346162. In addition, the hand recognition method is not limited to the above-described method, and for example, the hand shape stored in advance and the image P may be matched to detect the same hand shape. Further, in the same manner, two patterns of images in which the hand is opened (open state) and closed (closed state) are stored in advance, and the two patterns of images and the hand included in the image P are stored. The shape of the hand included in the image P may be detected by comparing the shapes of

また、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを取得し、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。   Further, the control unit 22 acquires virtual information 24b corresponding to the facility or article in the shooting range of the shooting unit 40 based on the position and posture of the mobile phone terminal 1 detected by the position / posture detection unit 36. The AR tag corresponding to the acquired virtual information 24b is displayed on the display unit 2 so as to overlap the image P.

具体的には、制御部22は、取得した仮想情報24bの示す位置が、撮影部40によって取得される画像Pのどの位置に対応するかを算出し、算出した位置に仮想情報24bに対応するARタグを表示させる。仮想情報24bの示す位置が画像Pのどこに対応するかは、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢、仮想情報24bに含まれる位置情報、撮影部40の撮像面のサイズおよび画角等に基づいて算出される。   Specifically, the control unit 22 calculates which position of the image P acquired by the imaging unit 40 the position indicated by the acquired virtual information 24b corresponds to, and corresponds to the calculated position of the virtual information 24b. Display the AR tag. Where the position indicated by the virtual information 24b corresponds to in the image P depends on the position and orientation of the mobile phone terminal 1 detected by the position / posture detection unit 36, the positional information included in the virtual information 24b, and the imaging surface of the photographing unit 40 Is calculated on the basis of the size and angle of view.

また、画像Pにおいて、一部でも他のARタグが重なる領域があるARタグは、対応する仮想情報24bの示す位置が携帯電話端末1に近いほど前面に位置するように重ねて表示される。   In addition, in the image P, an AR tag having a region where at least a part of another AR tag overlaps is displayed so that the position indicated by the corresponding virtual information 24 b is closer to the mobile phone terminal 1 and is positioned in front.

図4に示すステップS11では、画像Pには手Hが写っているので、画像Pを形状情報24cと照合することによって、画像Pに含まれる手Hの形状が検出される。また、ステップS11では、撮影部40の撮影範囲にある施設や物品に対応するARタグA1〜ARタグA4の4つのARタグが画像Pに重ねて表示されている。ARタグA2〜A4は、それぞれ、対応する仮想情報24bの示す位置が撮影部40の焦点からみて互いに近いために重なり合って表示される。   In step S11 shown in FIG. 4, since the hand H is shown in the image P, the shape of the hand H included in the image P is detected by comparing the image P with the shape information 24c. In step S11, four AR tags A1 to AR4 A4 corresponding to facilities and articles in the photographing range of the photographing unit 40 are displayed superimposed on the image P. The AR tags A2 to A4 are displayed so as to overlap each other because the positions indicated by the corresponding virtual information 24b are close to each other when viewed from the focus of the photographing unit 40.

この場面では、手Hは、閉状態であり、手Hの表示領域は、いずれのARタグの表示位置とも重なっていない。このように検出された手Hが閉状態であり、いずれのARタグの表示位置とも表示領域が重なっていない場合、どのARタグも選択されず、未選択状態を維持する。   In this scene, the hand H is in a closed state, and the display area of the hand H does not overlap with the display position of any AR tag. When the hand H detected in this way is in the closed state and the display area does not overlap with the display position of any AR tag, no AR tag is selected and the unselected state is maintained.

続いて、ステップS12では、手Hが、ARタグA2〜A4の表示位置を含む表示領域に対応する位置へ実際に移動した後に、開状態へ移行している。そして、ステップS13では、手Hが、表示領域を維持した状態で閉状態へ移行している。このように、手Hが開状態から閉状態へ移行すると、制御部22は、開いていたときの手Hの表示領域を選択領域に設定し、表示位置が選択領域に含まれるARタグを選択状態にする。この例では、ステップS13において、ARタグA2〜A4の3つのARタグが選択状態となる。   Subsequently, in step S12, the hand H has moved to the open state after actually moving to a position corresponding to the display area including the display positions of the AR tags A2 to A4. In step S13, the hand H shifts to the closed state while maintaining the display area. As described above, when the hand H shifts from the open state to the closed state, the control unit 22 sets the display area of the hand H when it is open as the selection area, and selects the AR tag whose display position is included in the selection area. Put it in a state. In this example, in step S13, the three AR tags A2 to A4 are selected.

このように、手Hを開いて閉じる動作が検出された場合に開いていたときの手Hの表示領域に表示位置が含まれるARタグを選択状態とすることにより、利用者は、複数のARタグを容易に選択することができる。また、手Hを開いて閉じる動作は、欲しいものを掴む動作と同一であるため、このような動作によってARタグを選択する方式は、利用者にとって非常に直感的で分かりやすい。   As described above, when an operation of opening and closing the hand H is detected, the user can select a plurality of AR tags by selecting the AR tag including the display position in the display area of the hand H when the hand H is open. Tags can be easily selected. In addition, since the operation of opening and closing the hand H is the same as the operation of grasping the desired thing, the method of selecting the AR tag by such an operation is very intuitive and easy for the user to understand.

なお、選択領域は、実際の手Hの形状に沿った領域であってもよいし、図5に示す領域R1のように指の先端(突端)を結んだ内側の領域であってもよいし、図5に示す領域R2のように手Hの形状を含む最小矩形であってもよい。領域R1を選択領域とすることにより、指の間に表示されていたARタグも選択されることとなり、利用者の意図に合った選択範囲を設定することができる。領域R2を選択領域とすることにより、領域を算出するための演算量を少なくすることができる。   Note that the selected region may be a region along the shape of the actual hand H, or may be an inner region where the tips (protrusions) of fingers are connected as in the region R1 shown in FIG. 5 may be a minimum rectangle including the shape of the hand H as in a region R2 shown in FIG. By setting the region R1 as the selection region, the AR tag displayed between the fingers is also selected, and a selection range suitable for the user's intention can be set. By setting the region R2 as the selected region, the amount of calculation for calculating the region can be reduced.

また、手Hの表示領域にARタグの表示位置が含まれる場合、ステップS12およびステップS13に示すように、手Hの形状をARタグよりも前面に表示することが好ましい。このように制御することにより、手Hの位置が明確になり、どのARタグが選択されるかを利用者が把握しやすくなる。また、表意位置の一部分のみが選択領域に含まれるARタグについては、選択状態にしてもよいし、選択状態にしなくてもよい。   When the display position of the AR tag is included in the display area of the hand H, it is preferable to display the shape of the hand H in front of the AR tag as shown in steps S12 and S13. By controlling in this way, the position of the hand H becomes clear and the user can easily understand which AR tag is selected. In addition, an AR tag in which only a part of the ideographic position is included in the selection area may be selected or not selected.

こうしてARタグが選択されると、制御部22は、選択されたARタグをメニューM1として表示部2に一覧表示する。図4に示すステップS14では、選択状態となったARタグが、対応する仮想情報24bに含まれるコメントと対応付けて一覧表示されている。このように、ARタグを一覧表示することにより、重なり合っていたARタグを所定の間隔で配列して表示させることができる。ARタグを所定の間隔で配列して表示させることにより、利用者は、個々のARタグをはっきりと識別することができるとともに、それらのARタグの1つを容易に選択することができるようになる。   When the AR tag is selected in this way, the control unit 22 displays the selected AR tag as a menu M1 on the display unit 2 as a list. In step S14 shown in FIG. 4, the AR tags that have been selected are displayed in a list in association with the comments included in the corresponding virtual information 24b. Thus, by displaying the AR tags in a list, the AR tags that have been overlapped can be arranged and displayed at a predetermined interval. By arranging and displaying the AR tags at a predetermined interval, the user can clearly identify each AR tag and easily select one of the AR tags. Become.

なお、選択状態となったARタグを配列する順序は、例えば、対応する仮想情報が示す位置が携帯電話端末1に近い順であってもよいし、対応する仮想情報の更新日時が新しい順であってもよい。対応する仮想情報が示す位置が携帯電話端末1に近い順にARタグを配列することにより、ARタグの配列順序が、対応する施設や物品が見える順序と一致するため、利用者が、ARタグと施設や物品との対応を把握し易くなる。   The order in which the AR tags in the selected state are arranged may be, for example, the order in which the position indicated by the corresponding virtual information is closer to the mobile phone terminal 1 or the update date / time of the corresponding virtual information is the newest. There may be. By arranging the AR tags in the order in which the position indicated by the corresponding virtual information is closer to the mobile phone terminal 1, the arrangement order of the AR tags matches the order in which the corresponding facilities and articles can be seen. It becomes easy to grasp the correspondence with facilities and articles.

続いて、ステップS15に示すように、利用者がメニューM1上のARタグの1つを選択すると、制御部22は、ステップS16に示すように、選択されたARタグに対応する動作を実行する。図4に示す例では、制御部22は、選択されたARタグA2に対応する動作として、ARタグA2に対応する仮想情報24bに含まれるURLにアクセスしてWEBページW1を表示部2に表示させる動作を実行している。   Subsequently, as shown in step S15, when the user selects one of the AR tags on the menu M1, the control unit 22 executes an operation corresponding to the selected AR tag as shown in step S16. . In the example shown in FIG. 4, the control unit 22 accesses the URL included in the virtual information 24b corresponding to the AR tag A2 and displays the WEB page W1 on the display unit 2 as the operation corresponding to the selected AR tag A2. The operation to be performed is executed.

なお、利用者は、操作部13を操作することによってメニューM1上のARタグの選択を実行してもよいし、撮影部40によって取得される画像中で所定の動作を行うことによってメニューM1上のARタグの選択を実行してもよい。ここでいう所定の動作とは、例えば、タップするようにARタグの表示領域内で指を上下させる動作や、ARタグをはじくように指を動かす動作や、ARタグの表示領域内で指を一定時間以上静止させる動作である。なお、指の認識方法については、手の形状の検出方法と同様の検出方法によって実現されてもよい。   Note that the user may select an AR tag on the menu M1 by operating the operation unit 13, or may perform a predetermined operation on the image acquired by the photographing unit 40 to perform the selection on the menu M1. AR tag selection may be performed. For example, the predetermined operation here refers to an operation of moving a finger up and down in the AR tag display area so as to tap, an operation of moving a finger so as to repel the AR tag, or a movement of a finger in the AR tag display area. This is an operation that stops for a certain period of time. Note that the finger recognition method may be realized by a detection method similar to the hand shape detection method.

また、メニューM1を表示するに際しては、ARタグを選択する手の位置を利用者が確認しやすいように、メニューM1を手の形状の背面に表示することが好ましい。あるいは、メニューM1を半透明に表示して、背後の手の位置を利用者が確認できるようにしてもよい。   Further, when displaying the menu M1, it is preferable to display the menu M1 on the back of the hand shape so that the user can easily confirm the position of the hand selecting the AR tag. Alternatively, the menu M1 may be displayed translucently so that the user can confirm the position of the hand behind.

図4では、開状態の手を表示領域を維持したままで閉状態へ移行してARタグを選択する例を示したが、利用者は、開状態の手を移動させることによって、より広範囲のARタグを選択することができる。例えば、図6に示すように、ステップS13において開状態へ移行した手Hが、ステップS17において、表示領域にARタグA1の表示位置が含まれる位置まで左下方向へ移動し、その後に閉状態へ移行したものとする。この場合、制御部22は、ARタグA2〜A4に加えて、ARタグA1も選択状態にする。そして、制御部22は、ステップS18に示すように、選択されたARタグA1〜A4をメニューM2として表示部2に一覧表示する。   FIG. 4 shows an example in which the AR tag is selected by moving the open hand to the closed state while maintaining the display area. However, the user can move to a wider range by moving the open hand. An AR tag can be selected. For example, as shown in FIG. 6, the hand H that has shifted to the open state in step S13 moves in the lower left direction to a position in which the display position of the AR tag A1 is included in the display area in step S17, and then enters the closed state. Assume that it has migrated. In this case, the control unit 22 places the AR tag A1 in a selected state in addition to the AR tags A2 to A4. Then, as shown in step S18, the control unit 22 displays the selected AR tags A1 to A4 as a menu M2 on the display unit 2 as a list.

このように、制御部22は、開状態の手Hが移動した場合、移動の軌跡を監視し、移動前の選択開始領域R3から移動後の選択完了領域R4への軌跡上に表示位置が含まれる全てのARタグを選択状態にする。このように制御することにより、利用者は、離れた位置に表示されている複数のARタグを一度に選択することができる。なお、ここでいう開状態の手Hが移動した場合には、手Hが開状態から閉状態へ移行しながら移動した場合も含まれる。   As described above, when the hand H in the open state moves, the control unit 22 monitors the movement trajectory, and the display position is included on the trajectory from the selection start area R3 before the movement to the selection completion area R4 after the movement. All AR tags to be selected are selected. By controlling in this way, the user can select a plurality of AR tags displayed at distant positions at a time. Here, the case where the hand H in the open state moves includes the case where the hand H moves while shifting from the open state to the closed state.

次に、図7を参照しながら、携帯電話端末1の動作について説明する。図7は、携帯電話端末1によるARタグ選択処理の処理手順を示す図である。図7に示す処理手順は、仮想情報表示プログラム24aが起動された後、利用者が所定の終了操作を行うまで繰り返して実行される。なお、ARタグ選択処理は、制御部22が仮想情報表示プログラム24aを実行することによって実現される。   Next, the operation of the mobile phone terminal 1 will be described with reference to FIG. FIG. 7 is a diagram showing a processing procedure of AR tag selection processing by the mobile phone terminal 1. The processing procedure shown in FIG. 7 is repeatedly executed until the user performs a predetermined end operation after the virtual information display program 24a is started. The AR tag selection process is realized by the control unit 22 executing the virtual information display program 24a.

図7に示すように、制御部22は、まず、ステップS101として、メモリに設けられた監視フラグをオフに設定する。監視フラグは、開状態に変化した手の移動を監視すべき場合にオンに設定されるフラグである。続いて、制御部22は、ステップS102として、撮影部40で取得された画像Pを表示部2に表示させる。そして、制御部22は、ステップS103として、位置・姿勢検出部36に自装置の位置と姿勢を取得させる。   As shown in FIG. 7, the control unit 22 first sets a monitoring flag provided in the memory to OFF in step S101. The monitoring flag is a flag that is set to ON when the movement of the hand that has changed to the open state should be monitored. Then, the control part 22 displays the image P acquired by the imaging | photography part 40 on the display part 2 as step S102. In step S103, the control unit 22 causes the position / posture detection unit 36 to acquire the position and posture of the own apparatus.

続いて、制御部22は、ステップS104として、自装置の位置と姿勢等に基づいて、撮影部40の撮影範囲に対応する仮想情報24bを取得する。そして、制御部22は、ステップS105として、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。   Subsequently, in step S104, the control unit 22 acquires virtual information 24b corresponding to the shooting range of the shooting unit 40 based on the position and posture of the own device. In step S105, the control unit 22 causes the display unit 2 to display the AR tag corresponding to the acquired virtual information 24b on the image P.

続いて、制御部22は、ステップS106として、画像Pに含まれる手を検出する。手が検出されない場合(ステップS107,No)、制御部22は、ステップS108として、監視フラグをオフに設定し、ステップS102以降を再実行する。一方、画像Pに含まれる手が検出された場合(ステップS107,Yes)、制御部22は、ステップS109として、監視フラグがオンであるかを判定する。監視フラグがオンでない場合(ステップS109,No)、制御部22は、ステップS110として、手が開状態であるかを判定する。手が開状態であることは、例えば、指に相当する形状が含まれることに基づいて判定される。   Subsequently, the control unit 22 detects a hand included in the image P as step S106. When a hand is not detected (step S107, No), the control part 22 sets a monitoring flag to OFF as step S108, and performs again after step S102. On the other hand, when the hand contained in the image P is detected (step S107, Yes), the control part 22 determines whether the monitoring flag is ON as step S109. When the monitoring flag is not on (step S109, No), the control unit 22 determines whether the hand is in an open state as step S110. Whether the hand is in an open state is determined based on, for example, the inclusion of a shape corresponding to a finger.

手が開状態である場合(ステップS110,Yes)、制御部22は、ステップS111として、監視フラグをオンに設定する。そして制御部22は、ステップS112として、その時点での手の領域に基づいて選択開始領域を設定し、ステップS102以降を再実行する。一方、手が開いた形状になっていない場合(ステップS110,No)、制御部22は、監視フラグを変更することなく、ステップS102以降を再実行する。   When the hand is in the open state (step S110, Yes), the control unit 22 sets the monitoring flag to ON as step S111. In step S112, the control unit 22 sets a selection start area based on the hand area at that time, and re-executes step S102 and subsequent steps. On the other hand, if the hand is not open (step S110, No), the control unit 22 re-executes step S102 and subsequent steps without changing the monitoring flag.

ステップS109で監視フラグがオンであった場合、すなわち、手が開いた形状に変化していた場合(ステップS109,Yes)、制御部22は、ステップS113として、手が閉じた形状になっているかを判定する。手が閉じた形状になっていることは、例えば、指に相当する突部が形状に含まれなくなったことに基づいて判定される。手が閉じた形状に変化していない場合(ステップS113,No)、制御部22は、ステップS102以降を再実行する。   If the monitoring flag is turned on in step S109, that is, if the hand has changed to an open shape (step S109, Yes), the control unit 22 determines whether the hand is in a closed shape as step S113. Determine. Whether the hand is in a closed shape is determined based on, for example, that a protrusion corresponding to a finger is not included in the shape. When the hand has not changed to the closed shape (No at Step S113), the control unit 22 re-executes Step S102 and the subsequent steps.

手が閉じた形状に変化していた場合(ステップS113,Yes)、制御部22は、ステップS114として、その時点での手の領域に基づいて選択完了領域を設定する。なお、選択完了領域は、閉じた形状の手の領域に基づいて設定してもよいし、閉じた手が開いているときの形状を仮定し、仮定した手の領域に基づいて設定してもよい。   When the hand has changed to a closed shape (step S113, Yes), the control unit 22 sets a selection completion region based on the region of the hand at that time as step S114. The selection completion area may be set based on the hand area of the closed shape, or may be set based on the assumed hand area assuming the shape when the closed hand is open. Good.

続いて、制御部22は、ステップS115として、選択開始領域から選択完了領域への軌跡上に位置する全てのARタグを選択する。なお、ここでいう軌跡とは、選択開始領域から選択完了領域へ直線的に移動した場合の軌跡であってもよいし、実際に手が通った経路に沿って設定された軌跡であってもよい。そして、制御部22は、ステップS116として、選択したARタグに対応する仮想情報24bを一覧表示する。   Subsequently, in step S115, the control unit 22 selects all AR tags located on the locus from the selection start area to the selection completion area. The trajectory here may be a trajectory when moving linearly from the selection start area to the selection completion area, or may be a trajectory set along a path that the hand has actually reached. Good. Then, the control unit 22 displays a list of virtual information 24b corresponding to the selected AR tag as step S116.

続いて、制御部22は、ステップS117として、一覧表示した仮想情報24bに対する利用者の選択動作が検出されたかを判定する。選択動作が検出されない場合(ステップS117,No)、制御部22は、ステップS117の判定を再実行する。選択動作が検出された場合(ステップS117,Yes)、制御部22は、ステップS118として、選択動作が行われた仮想情報24bに対応する動作を実行する。仮想情報24bに対応する動作とは、例えば、仮想情報24bに含まれるURLにアクセスしてWEBページを表示する動作である。   Subsequently, in step S117, the control unit 22 determines whether a user selection operation for the virtual information 24b displayed as a list is detected. When the selection operation is not detected (No at Step S117), the control unit 22 re-executes the determination at Step S117. When the selection operation is detected (step S117, Yes), the control unit 22 executes an operation corresponding to the virtual information 24b on which the selection operation is performed as step S118. The operation corresponding to the virtual information 24b is, for example, an operation of accessing a URL included in the virtual information 24b and displaying a WEB page.

上述してきたように、本実施例では、手で掴むような動作が検出された位置に表示されているARタグをまとめて選択可能にしたので、画像に付加された複数のARタグを容易に選択することができる。   As described above, in the present embodiment, since the AR tags displayed at the position where the hand-gripping operation is detected can be selected together, a plurality of AR tags added to the image can be easily selected. You can choose.

なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例では、ARタグの選択に関する処理を携帯電話端末1が実行することとしたが、この処理を携帯電話端末1と通信可能なサーバ装置が実行することとしてもよい。この場合、携帯電話端末1は、撮影部40によって取得された画像Pと、位置・姿勢検出部36によって検出された携帯電話端末1の位置および姿勢とをサーバ装置に送信し、サーバ装置から応答された処理済みの画像を表示部2に表示する。   In addition, the aspect of this invention shown by said Example can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, in the above embodiment, the mobile phone terminal 1 executes the process related to the selection of the AR tag. However, the server apparatus that can communicate with the mobile phone terminal 1 may execute this process. In this case, the mobile phone terminal 1 transmits the image P acquired by the photographing unit 40 and the position and posture of the mobile phone terminal 1 detected by the position / posture detection unit 36 to the server device, and responds from the server device. The processed image is displayed on the display unit 2.

また、上記の実施例では、手を閉じる動作の検出にともなって選択されたARタグを一覧表示することとしたが、手を閉じる動作の検出にともなって選択されたARタグの表示の仕方は、個々のARタグを容易に選択可能な方式であればよい。例えば、図8に示すメニューM3のように、選択されたARタグをカテゴリ分けし、カテゴリごとにタブC1〜C3等のタブを設けて、ARタグがカテゴリごとに表示されるようにしてもよい。   In the above embodiment, a list of AR tags selected in accordance with the detection of the hand closing operation is displayed. However, how to display the AR tags selected in accordance with the detection of the hand closing operation is as follows. Any method can be used as long as each AR tag can be easily selected. For example, as in the menu M3 shown in FIG. 8, the selected AR tags may be classified into categories, and tabs such as tabs C1 to C3 may be provided for each category so that the AR tags are displayed for each category. .

また、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することとしてもよい。図9から図11を参照しながら、自装置との奥行き方向の距離を考慮してARタグを選択する例について説明する。図9は、手がARタグと初めて重なった場面の一例を示す図である。図10は、基準距離と換算係数について説明するための図である。図11は、ARタグを選択するための閾値の一例を示す図である。   Further, when the AR tag is selected in accordance with the detection of the hand closing operation, the distance between the device itself and the AR tag in the depth direction may be taken into consideration. An example of selecting an AR tag in consideration of the distance in the depth direction with the own device will be described with reference to FIGS. 9 to 11. FIG. 9 is a diagram illustrating an example of a scene where the hand first overlaps the AR tag. FIG. 10 is a diagram for explaining the reference distance and the conversion coefficient. FIG. 11 is a diagram illustrating an example of a threshold value for selecting an AR tag.

図4に示したステップS11の場面で手が上方に移動すると、図9に示すように、手の一部がARタグA3の端部と重なった状態となる。このように、手がいずれかのARタグに初めて重なると、制御部22は、その時点での携帯電話端末1と手との距離を測定し、測定された距離を基準距離としてメモリに記憶させる。携帯電話端末1と手との距離の測定は、撮影部40が焦点を対象物に合わせるために用いる合焦機能によって実現される。なお、携帯電話端末1と手との距離は、例えば、赤外線や音波等を用いて距離を測定する測距センサを用いて測定してもよいし、予め所定の距離と対応付けて形状情報24cに保持されている手の大きさと画像P中の手の大きさの比率に基づいて算出してもよい。   If the hand moves upward in the scene of step S11 shown in FIG. 4, as shown in FIG. 9, a part of the hand overlaps the end of the AR tag A3. As described above, when the hand first overlaps any one of the AR tags, the control unit 22 measures the distance between the mobile phone terminal 1 and the hand at that time and stores the measured distance in the memory as a reference distance. . The measurement of the distance between the mobile phone terminal 1 and the hand is realized by a focusing function used by the photographing unit 40 to focus on the object. The distance between the mobile phone terminal 1 and the hand may be measured using, for example, a distance measuring sensor that measures the distance using infrared rays, sound waves, or the like, or the shape information 24c is associated with a predetermined distance in advance. May be calculated based on the ratio between the size of the hand held in the image P and the size of the hand in the image P.

続いて、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置とARタグA3に対応する仮想情報24bが示す位置との距離を算出する。そして、制御部22は、求めた2つの距離に基づいて、ARタグA3に対応する仮想情報24bが示す位置と他の仮想情報24bが示す位置との奥行き方向の距離を手の移動距離に換算するための換算係数を算出する。   Subsequently, the control unit 22 calculates the distance between the position of the mobile phone terminal 1 detected by the position / posture detection unit 36 and the position indicated by the virtual information 24b corresponding to the AR tag A3. Then, the control unit 22 converts the distance in the depth direction between the position indicated by the virtual information 24b corresponding to the AR tag A3 and the position indicated by the other virtual information 24b into the movement distance of the hand based on the obtained two distances. A conversion coefficient for calculating the value is calculated.

図10に示すように、基準距離がDSであり、ARタグA3に対応する仮想情報24bが示す位置P3と携帯電話端末1との距離がD3であるとすると、換算係数はDS/D3となる。この換算係数を用いることにより、ARタグA3を基準とした各ARタグの奥行き方向の相対位置を手の位置と対応させることができる。   As shown in FIG. 10, when the reference distance is DS and the distance between the position P3 indicated by the virtual information 24b corresponding to the AR tag A3 and the mobile phone terminal 1 is D3, the conversion coefficient is DS / D3. . By using this conversion coefficient, the relative position in the depth direction of each AR tag based on the AR tag A3 can be made to correspond to the position of the hand.

例えば、DSが10[cm]、すなわち、0.1[m]であり、D3が100[m]であるとすると、換算係数は、0.001となる。この場合、ARタグA2に対応する仮想情報24bが示す位置P2が位置P3から50[m]手前にあるとすると、50×0.001[m]、すなわち、手を5cm手前に移動させた位置がARタグA2の奥行き方向の位置となる。   For example, if DS is 10 [cm], that is, 0.1 [m], and D3 is 100 [m], the conversion coefficient is 0.001. In this case, if the position P2 indicated by the virtual information 24b corresponding to the AR tag A2 is 50 [m] before the position P3, 50 × 0.001 [m], that is, the position where the hand is moved 5 cm before Is the position of the AR tag A2 in the depth direction.

同様に、ARタグA1に対応する仮想情報24bが示す位置P1が位置P3から10[m]手前にあるとすると、10×0.001[m]、すなわち、手を1cm手前に移動させた位置がARタグA1の奥行き方向の位置となる。また、ARタグA4に対応する仮想情報24bが示す位置P4が位置P3から10[m]奥にあるとすると、10×0.001[m]、すなわち、手を1cm奥に移動させた位置がARタグA4の奥行き方向の位置となる。   Similarly, if the position P1 indicated by the virtual information 24b corresponding to the AR tag A1 is 10 [m] before the position P3, 10 × 0.001 [m], that is, the position where the hand is moved 1 cm before Is the position of the AR tag A1 in the depth direction. Also, assuming that the position P4 indicated by the virtual information 24b corresponding to the AR tag A4 is 10 [m] behind the position P3, 10 × 0.001 [m], that is, the position where the hand is moved 1 cm behind. This is the position in the depth direction of the AR tag A4.

このように、ARタグの奥行き方向の相対位置を手の位置と対応させることにより、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することが可能になる。すなわち、手を閉じる動作が検出された場合に、開いた手の領域に含まれるARタグであっても、手でつかめる範囲外に位置するARタグについては選択しないという制御を行うことが可能なる。   In this way, by associating the relative position of the AR tag in the depth direction with the position of the hand, when selecting the AR tag along with the detection of the closing operation of the hand, the distance between the own device and the AR tag in the depth direction is determined. It becomes possible to consider. That is, when an operation of closing the hand is detected, it is possible to perform control such that an AR tag located outside the range that can be grasped by the hand is not selected even if the AR tag is included in the open hand region. .

手でつかめる範囲内であるかについては、例えば、図11に示すように、閾値を設定して判定してもよい。図11に示す例では、手を開く動作が検出された位置PSおよび手を閉じる動作が検出された位置PEから奥行き方向に閾値DT離れた位置までの範囲Sが手でつかめる範囲と判定される。図11に示す例では、範囲Sの外に位置するARタグA2は、開いた手の範囲に重なっていたとしても選択されない。   Whether it is within a range that can be grasped by hand may be determined by setting a threshold as shown in FIG. 11, for example. In the example illustrated in FIG. 11, the position PS where the hand opening motion is detected and the range S from the position PE where the hand closing motion is detected to the position away from the threshold DT in the depth direction are determined to be grasped by the hand. . In the example shown in FIG. 11, the AR tag A2 positioned outside the range S is not selected even if it overlaps the range of the open hand.

1 携帯電話端末
2 表示部
13 操作部
22 制御部
24 記憶部
24a 仮想情報表示プログラム
24b 仮想情報
24c 形状情報
26 通信部
30 音声処理部
36 位置・姿勢検出部
40 撮影部
DESCRIPTION OF SYMBOLS 1 Cellular phone terminal 2 Display part 13 Operation part 22 Control part 24 Storage part 24a Virtual information display program 24b Virtual information 24c Shape information 26 Communication part 30 Voice processing part 36 Position and attitude | position detection part 40 Imaging | photography part

Claims (10)

撮影部と、
前記撮影部によって取得された画像を表示する表示部と、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、
前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理することを特徴とする撮影装置。
A shooting section;
A display unit for displaying an image acquired by the photographing unit;
A control unit that causes the display unit to display an object related to the image acquired by the imaging unit so as to overlap the image;
The control unit performs a selection process on an object that overlaps a display area of a predetermined object included in the image among the objects.
前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことを特徴とする請求項1に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the control unit performs the selection process when a display mode of the predetermined object is changed. 前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むことを特徴とする請求項2に記載の撮影装置。   The imaging apparatus according to claim 2, wherein the change in the display mode of the predetermined object includes a disappearance of a protrusion included in the predetermined object. 前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することを特徴とする請求項1から3のいずれか1項に記載の撮影装置。   4. The photographing apparatus according to claim 1, wherein the control unit displays a list of the objects selected by the selection process on the display unit. 5. 前記制御部は、前記選択されたオブジェクトの一覧表示を、自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示することを特徴とする請求項4に記載の撮影装置。   The imaging apparatus according to claim 4, wherein the control unit displays a list display of the selected objects by rearranging the selected objects according to a distance from the own apparatus. 前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示することを特徴とする請求項4または5に記載の撮影装置。   The imaging apparatus according to claim 4 or 5, wherein the control unit classifies and displays the objects selected by the selection process for each category. 前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことを特徴とする請求項1から6のいずれか1項に記載の撮影装置。   7. The display device according to claim 1, wherein the display area of the predetermined object includes an inner side of an area where ends of a plurality of protrusions constituting the predetermined object are connected to each other. Shooting device. 前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することを特徴とする請求項1から7のいずれか1項に記載の撮影装置。   When the display area of the predetermined object moves before the display mode of the predetermined object changes, the control unit further performs a selection process on the object displayed on the movement trajectory. The imaging device according to any one of claims 1 to 7. 撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を含むことを特徴とする制御方法。
Displaying an image acquired by the imaging unit;
Causing the display unit to display an object related to the image acquired by the photographing unit on the image;
And a step of selecting an object that overlaps a display area of a predetermined object included in the image among the objects.
情報処理装置に、
撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を実行させることを特徴とする仮想情報表示プログラム。
In the information processing device,
Displaying an image acquired by the imaging unit;
Causing the display unit to display an object related to the image acquired by the photographing unit on the image;
A virtual information display program that executes a process of selecting an object that overlaps a display area of a predetermined object included in the image among the objects.
JP2011068969A 2011-03-25 2011-03-25 Imaging apparatus, control method, and virtual information display program Active JP5685464B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011068969A JP5685464B2 (en) 2011-03-25 2011-03-25 Imaging apparatus, control method, and virtual information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011068969A JP5685464B2 (en) 2011-03-25 2011-03-25 Imaging apparatus, control method, and virtual information display program

Publications (2)

Publication Number Publication Date
JP2012205153A true JP2012205153A (en) 2012-10-22
JP5685464B2 JP5685464B2 (en) 2015-03-18

Family

ID=47185633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011068969A Active JP5685464B2 (en) 2011-03-25 2011-03-25 Imaging apparatus, control method, and virtual information display program

Country Status (1)

Country Link
JP (1) JP5685464B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103888695A (en) * 2012-12-19 2014-06-25 柯尼卡美能达株式会社 Image processing terminal and image processing system
EP2799978A1 (en) * 2013-04-30 2014-11-05 Konica Minolta, Inc. Image processing system, image processing apparatus, portable information terminal, program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152713A (en) * 2000-11-10 2002-05-24 Sony Corp Apparatus and method for processing object information
JP2002290529A (en) * 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd Portable communication terminal, information display device, control input device and control input method
JP2010238098A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, information presentation system, and terminal screen display method
JP2011198150A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Head-mounted augmented reality video presentation device and virtual display object operation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152713A (en) * 2000-11-10 2002-05-24 Sony Corp Apparatus and method for processing object information
JP2002290529A (en) * 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd Portable communication terminal, information display device, control input device and control input method
JP2010238098A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, information presentation system, and terminal screen display method
JP2011198150A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Head-mounted augmented reality video presentation device and virtual display object operation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103888695A (en) * 2012-12-19 2014-06-25 柯尼卡美能达株式会社 Image processing terminal and image processing system
EP2747404A1 (en) * 2012-12-19 2014-06-25 Konica Minolta, Inc. Image processing terminal, image processing system, and computer-readable storage medium storing control program of image processing terminal
EP2799978A1 (en) * 2013-04-30 2014-11-05 Konica Minolta, Inc. Image processing system, image processing apparatus, portable information terminal, program

Also Published As

Publication number Publication date
JP5685464B2 (en) 2015-03-18

Similar Documents

Publication Publication Date Title
US9891070B2 (en) Mobile terminal and control method for the mobile terminal
KR102359550B1 (en) Flexible display device and operating method thereof
JP5734700B2 (en) Portable information device and virtual information display program
JP5370259B2 (en) Portable electronic devices
JP5785753B2 (en) Electronic device, control method, and control program
KR20170069103A (en) Flexible display device
KR20160150533A (en) Deformable display device and operating method thereof
KR20090111459A (en) Terminal and method of recognizing image therein
US20110319130A1 (en) Mobile terminal and method of operation
US9823709B2 (en) Context awareness based on angles and orientation
KR102077677B1 (en) Mobile terminal and method for controlling the same
EP3247170B1 (en) Mobile terminal
KR20110123098A (en) Mobile terminal and control method thereof
KR20120001941A (en) Mobile terminal and control method for mobile terminal
JP5684618B2 (en) Imaging apparatus and virtual information display program
CN113253908A (en) Key function execution method, device, equipment and storage medium
JP5685464B2 (en) Imaging apparatus, control method, and virtual information display program
KR102019119B1 (en) Terminal and method for controlling the same
US20140015859A1 (en) Mobile terminal and control method thereof
KR20120000175A (en) Mobile terminal and object information display method thereof
KR101452765B1 (en) Mobile terminal using promixity touch and information input method therefore
KR101721874B1 (en) Mobile terminal and image display method thereof
KR20090112454A (en) A mobile telecommunication device and a method of controlling characters relatively using the same
KR20150048575A (en) Mobile terminal and method for controlling of the same
KR20150012232A (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5685464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150