JP2012205153A - Photographing device, control method, and virtual information display program - Google Patents
Photographing device, control method, and virtual information display program Download PDFInfo
- Publication number
- JP2012205153A JP2012205153A JP2011068969A JP2011068969A JP2012205153A JP 2012205153 A JP2012205153 A JP 2012205153A JP 2011068969 A JP2011068969 A JP 2011068969A JP 2011068969 A JP2011068969 A JP 2011068969A JP 2012205153 A JP2012205153 A JP 2012205153A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- image
- hand
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
Description
本発明は、撮影装置、制御方法および仮想情報表示プログラムに関する。 The present invention relates to a photographing apparatus, a control method, and a virtual information display program.
近年、現実空間の画像をコンピュータで処理して更なる情報を付加する拡張現実(AR:Augmented reality)技術が注目されている(例えば、特許文献1参照)。また、現実空間の画像に付加された情報を選択してより詳細な情報を表示させる技術も知られている。 In recent years, augmented reality (AR) technology that adds an additional information by processing a real-space image with a computer has attracted attention (for example, see Patent Document 1). There is also known a technique for displaying more detailed information by selecting information added to an image in the real space.
しかしながら、従来は、現実空間の画像に付加された複数の情報をまとめて選択可能な操作方式が提供されていなかった。このため、利用者は、現実空間の画像に付加されている複数の情報のうちどれが所望の情報であるか分からない場合には、情報を1つずつ選択して関連づけられた詳細情報を確認していかなければならなかった。 However, conventionally, there has not been provided an operation method capable of selecting a plurality of pieces of information added to an image in the real space collectively. For this reason, when the user does not know which of a plurality of pieces of information added to the real space image is the desired information, the user selects information one by one and confirms the associated detailed information. I had to do it.
本発明は、画像に付加された複数の情報を容易に選択することができる撮影装置、制御方法および仮想情報表示プログラムを提供することを目的とする。 An object of the present invention is to provide a photographing apparatus, a control method, and a virtual information display program that can easily select a plurality of information added to an image.
本発明に係る撮影装置は、撮影部と、前記撮影部によって取得された画像を表示する表示部と、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理する。 An imaging apparatus according to the present invention includes an imaging unit, a display unit that displays an image acquired by the imaging unit, and an object related to the image acquired by the imaging unit that is superimposed on the image on the display unit. A control unit for displaying, and the control unit selects an object that overlaps a display area of a predetermined object included in the image among the objects.
ここで、前記制御部は、前記所定の物体の表示態様が変化したことを契機として前記選択処理を行うことが好ましい。なお、前記所定の物体の表示態様の変化は、前記所定の物体に含まれる突部が消滅したことを含むこととしてもよい。 Here, it is preferable that the control unit performs the selection process in response to a change in display mode of the predetermined object. Note that the change in the display mode of the predetermined object may include the disappearance of the protrusion included in the predetermined object.
また、前記制御部は、前記選択処理によって選択した前記オブジェクトを前記表示部に一覧表示することが好ましい。なお、前記制御部は、前記選択されたオブジェクトの一覧表示を自装置からの距離に応じて前記選択されたオブジェクトを並べ替えて表示してもよい。また、前記制御部は、前記選択処理によって選択した前記オブジェクトをカテゴリごとに分類して表示してもよい。 Moreover, it is preferable that the said control part displays the said object selected by the said selection process as a list on the said display part. The control unit may display the list of the selected objects by rearranging the selected objects according to the distance from the own device. The control unit may classify and display the objects selected by the selection process for each category.
また、前記所定の物体の前記表示領域は、前記所定の物体を構成する複数の突部における端が互いに結ばれた領域の内側を含むことが好ましい。 Further, it is preferable that the display area of the predetermined object includes an inner side of an area where ends of a plurality of protrusions constituting the predetermined object are connected to each other.
また、前記制御部は、前記所定の物体の表示態様が変化するまでに前記所定の物体の表示領域が移動した場合、当該移動の軌跡上に表示されているオブジェクトをさらに選択処理することが好ましい。 In addition, when the display area of the predetermined object moves before the display mode of the predetermined object changes, the control unit preferably further performs a selection process on the object displayed on the movement locus. .
また、上述した課題を解決し、目的を達成するために、本発明に係る制御方法は、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを含む。 In order to solve the above-described problems and achieve the object, the control method according to the present invention includes a step of displaying an image acquired by the imaging unit, and an object related to the image acquired by the imaging unit. Over the image and displayed on the display unit, and among the objects, a step of selecting an object that overlaps a display area of a predetermined object included in the image.
また、上述した課題を解決し、目的を達成するために、本発明に係る仮想情報表示プログラムは、情報処理装置に、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップとを実行させる。 In order to solve the above-described problems and achieve the object, a virtual information display program according to the present invention is obtained by a step of displaying an image acquired by an imaging unit on an information processing apparatus and the imaging unit. A step of causing the display unit to display an object related to the image on the image and a step of selecting an object that overlaps a display area of a predetermined object included in the image. .
本発明は、画像に付加された複数の情報を容易に選択することができるという効果を奏する。 The present invention has an effect that a plurality of information added to an image can be easily selected.
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、撮影装置の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等の各種情報処理装置に対しても本発明は適用できる。 Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of a photographing device. However, the application target of the present invention is not limited to a mobile phone terminal. For example, a PHS (Personal Handyphone System), a PDA, a portable navigation device, a notebook The present invention can also be applied to various information processing apparatuses such as personal computers and game machines.
まず、図1を参照しながら、本実施例に係る携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す正面図である。図1に示すように、携帯電話端末1の筐体1Cは、ヒンジ機構8によって開閉可能に連結された第1筐体1CAと第2筐体1CBとを備える。すなわち、携帯電話端末1は、折り畳み式の筐体を有する。
First, the external appearance of the
なお、携帯電話端末1の筐体は、このような構造に限定されるものではない。例えば、携帯電話端末1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して2つの筐体を連結したものでもよい。また、携帯電話端末1の筐体は、1つの筐体からなるいわゆるストレート式(スレート式)の筐体でもよい。
Note that the casing of the
第1筐体1CAは、表示部2と、レシーバ16と、撮影部40とを有する。表示部2は、液晶ディスプレイ(Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、文字、図形、画像等の各種情報を表示する。表示部2は、撮影部40によって取得された画像を表示することもできる。レシーバ16は、通話時に通話相手の音声を出力する。
1st housing | casing 1CA has the
撮影部40は、撮像センサ等の撮影手段によって画像を撮影する。撮影部40の撮影手段に外部の光を導く撮影窓は、第1筐体1CAの表示部2が設けられている面と反対側の面に設けられている。すなわち、第1筐体1CAは、利用者が表示部2を正面から見ると、撮影部40によって取得された第1筐体1CAとは反対側の画像が表示部2に表示されるように構成されている。
The
第2筐体1CBは、テンキーや機能キー等からなる操作キー13Aと、メニューの選択および決定や画面のスクロール等を実行するための方向および決定キー13Bと、通話時に音声を取得する音声取得手段であるマイク15とを有する。操作キー13Aと、方向および決定キー13Bとは、携帯電話端末1の操作部13を構成する。なお、操作部13は、操作キー13A等に代えて、または、操作キー13A等に加えて、表示部2に重畳されたタッチセンサを備えていてもよい。
The second casing 1CB includes an
次に、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように、携帯電話端末1は、通信部26と、操作部13と、音声処理部30と、表示部2と、撮影部40と、位置・姿勢検出部36と、制御部22と、記憶部24とを備える。
Next, a functional configuration of the
通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局を通じて他の装置との間で電話通信および情報通信を行う。操作部13は、操作キー13A、または、方向および決定キー13Bがユーザによって操作されると、その操作内容に対応する信号を制御部22へ出力する。
The communication unit 26 includes an
音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から出力されるデジタル信号を復号してレシーバ16へ出力する。表示部2は、制御部22から入力される制御信号に従って各種情報を表示する。撮影部40は、取得した画像をデジタル信号に変換して制御部22へ出力する。
The sound processing unit 30 converts the sound input from the
位置・姿勢検出部36は、携帯電話端末1の位置と姿勢を検出し、検出結果を制御部22へ出力する。位置・姿勢検出部36は、携帯電話端末1の位置を、例えば、GPS(Global Positioning System)受信機や通信部26が無線信号回線を確立している基地局に基づいて検出する。また、位置・姿勢検出部36は、携帯電話端末1の姿勢を、例えば、3軸加速度センサ、方位センサ、ジャイロセンサに基づいて検出する。
The position / posture detection unit 36 detects the position and posture of the
制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部2等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや位置・姿勢検出部36等から入力される信号がパラメータとして利用される。
The control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the
記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムおよびデータには、仮想情報表示プログラム24aと、1ないし複数の仮想情報24bと、形状情報24cとが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、記憶部24に記憶されていることとしたプログラムおよびデータは、可搬の記憶媒体に記憶される。また、記憶部24に記憶されていることとしたプログラムおよびデータは、通信部26による無線通信によってサーバ装置等の他の装置から取得されることとしてもよい。
The
仮想情報表示プログラム24aは、拡張現実(AR:Augmented reality)技術に基づいて、撮影部40によって取得された画像に現実の施設や物品に対応した仮想的な情報を重ねて表示部2に表示する機能を提供する。具体的には、仮想情報表示プログラム24aは、位置・姿勢検出部36によって検出される位置と姿勢等に基づいて撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを制御部22に取得させる。そして、仮想情報表示プログラム24aは、取得した仮想情報24bに対応するARタグと呼ばれるオブジェクトを画像に重ねて表示させる。
Based on augmented reality (AR) technology, the virtual information display program 24a superimposes virtual information corresponding to actual facilities and articles on the image acquired by the
また、仮想情報表示プログラム24aは、利用者に任意のARタグを選択させる機能と、選択されたARタグに関連づけられた動作を実行する機能を提供する。仮想情報表示プログラム24aは、複数のARタグが重なっている場合でも、任意のARタグを利用者が選択することを可能にする。 Further, the virtual information display program 24a provides a function that allows the user to select an arbitrary AR tag and a function that executes an operation associated with the selected AR tag. The virtual information display program 24a enables the user to select an arbitrary AR tag even when a plurality of AR tags are overlapped.
仮想情報24bは、撮影部40によって取得された画像に重ねて表示されるARタグに関する情報を保持する。図3は、仮想情報24bの一例を示す図である。図3に示すように、仮想情報24bは、緯度、経度、高さ、画像、コメント、URL(Uniform Resource Locator)等の分類項目の情報を有する。緯度、経度、高さは、仮想情報24bに対応する現実の施設や物品の位置を示す。画像は、ARタグとして表示されるオブジェクトの実体を示す。コメントは、仮想情報24bに対応する現実の施設や物品に関する説明文である。URLは、ARタグに関連づけられた情報を示す。なお、仮想情報24bが有する分類項目は、上記分類項目に限らず、高さやコメントはなくてもよい。
The
なお、表示対象の仮想情報24bの全てを予め記憶部24に記憶させるのではなく、携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲およびその周辺に存在する施設や物品に対応する仮想情報24bをサーバ装置から随時取得してもよい。この場合、所定量または所定件数の仮想情報24bを記憶部24にキャッシュするようにしてもよい。なお、ここでいうサーバ装置とは、例えば、ARサービスを提供する業者によって運営される装置である。
In addition, not all the
形状情報24cは、撮影部40によって取得された画像の中から、ARタグを選択するために用いられる所定の物体を検出するための情報を保持する。本実施例においては、ARタグを選択するために用いられる所定の物体は、人間の手であるものとする。そして、形状情報24cには人間の手の形状が登録されているものとする。なお、ここでいう人間の手の形状とは、例えば、所定数以上の突部を有する形状とする。また、形状情報24cに登録された手の形状として、撮影された若しくは予め登録されている手の画像、又は手の形状の特徴情報等、いずれにも限られない。
The shape information 24c holds information for detecting a predetermined object used for selecting an AR tag from the image acquired by the photographing
次に、図4から図6を参照しながら、仮想情報表示プログラム24aが提供する機能に基づいて制御部22によって実行されるARタグの選択処理について説明する。図4は、ARタグの選択の一例を示す図である。図5は、選択領域について説明するための図である。図6は、ARタグの選択の他の例を示す図である。 Next, an AR tag selection process executed by the control unit 22 based on the function provided by the virtual information display program 24a will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of selection of an AR tag. FIG. 5 is a diagram for explaining the selected region. FIG. 6 is a diagram illustrating another example of selection of an AR tag.
図4に示すように、撮影部40が画像Pを取得すると、制御部22は、画像Pを表示部2に表示させるとともに、画像Pを形状情報24cと照合して手の形状の検出を試みる。手の形状が検出されると、制御部22は、二値化等によって手の輪郭を抽出する。なお、手の形状の検出は、例えば、特開2003−346162号公報にて開示されている技術等を用いて実現してもよい。また、手の認識方法としては、上記の方法に限らず、例えば、予め記憶された手の画像と画像Pとをマッチング処理して同一の手の形状を検出してもよい。また、同様の方法で、予め手の開かれた状態(開状態)および閉じられた状態(閉状態)の2パターンの画像を記憶しておき、当該2パターンの画像と画像Pに含まれる手の形状を対比することによって、画像Pに含まれる手の形状の検出を行ってもよい。
As shown in FIG. 4, when the photographing
また、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを取得し、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
Further, the control unit 22 acquires
具体的には、制御部22は、取得した仮想情報24bの示す位置が、撮影部40によって取得される画像Pのどの位置に対応するかを算出し、算出した位置に仮想情報24bに対応するARタグを表示させる。仮想情報24bの示す位置が画像Pのどこに対応するかは、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢、仮想情報24bに含まれる位置情報、撮影部40の撮像面のサイズおよび画角等に基づいて算出される。
Specifically, the control unit 22 calculates which position of the image P acquired by the
また、画像Pにおいて、一部でも他のARタグが重なる領域があるARタグは、対応する仮想情報24bの示す位置が携帯電話端末1に近いほど前面に位置するように重ねて表示される。
In addition, in the image P, an AR tag having a region where at least a part of another AR tag overlaps is displayed so that the position indicated by the corresponding
図4に示すステップS11では、画像Pには手Hが写っているので、画像Pを形状情報24cと照合することによって、画像Pに含まれる手Hの形状が検出される。また、ステップS11では、撮影部40の撮影範囲にある施設や物品に対応するARタグA1〜ARタグA4の4つのARタグが画像Pに重ねて表示されている。ARタグA2〜A4は、それぞれ、対応する仮想情報24bの示す位置が撮影部40の焦点からみて互いに近いために重なり合って表示される。
In step S11 shown in FIG. 4, since the hand H is shown in the image P, the shape of the hand H included in the image P is detected by comparing the image P with the shape information 24c. In step S11, four AR tags A1 to AR4 A4 corresponding to facilities and articles in the photographing range of the photographing
この場面では、手Hは、閉状態であり、手Hの表示領域は、いずれのARタグの表示位置とも重なっていない。このように検出された手Hが閉状態であり、いずれのARタグの表示位置とも表示領域が重なっていない場合、どのARタグも選択されず、未選択状態を維持する。 In this scene, the hand H is in a closed state, and the display area of the hand H does not overlap with the display position of any AR tag. When the hand H detected in this way is in the closed state and the display area does not overlap with the display position of any AR tag, no AR tag is selected and the unselected state is maintained.
続いて、ステップS12では、手Hが、ARタグA2〜A4の表示位置を含む表示領域に対応する位置へ実際に移動した後に、開状態へ移行している。そして、ステップS13では、手Hが、表示領域を維持した状態で閉状態へ移行している。このように、手Hが開状態から閉状態へ移行すると、制御部22は、開いていたときの手Hの表示領域を選択領域に設定し、表示位置が選択領域に含まれるARタグを選択状態にする。この例では、ステップS13において、ARタグA2〜A4の3つのARタグが選択状態となる。 Subsequently, in step S12, the hand H has moved to the open state after actually moving to a position corresponding to the display area including the display positions of the AR tags A2 to A4. In step S13, the hand H shifts to the closed state while maintaining the display area. As described above, when the hand H shifts from the open state to the closed state, the control unit 22 sets the display area of the hand H when it is open as the selection area, and selects the AR tag whose display position is included in the selection area. Put it in a state. In this example, in step S13, the three AR tags A2 to A4 are selected.
このように、手Hを開いて閉じる動作が検出された場合に開いていたときの手Hの表示領域に表示位置が含まれるARタグを選択状態とすることにより、利用者は、複数のARタグを容易に選択することができる。また、手Hを開いて閉じる動作は、欲しいものを掴む動作と同一であるため、このような動作によってARタグを選択する方式は、利用者にとって非常に直感的で分かりやすい。 As described above, when an operation of opening and closing the hand H is detected, the user can select a plurality of AR tags by selecting the AR tag including the display position in the display area of the hand H when the hand H is open. Tags can be easily selected. In addition, since the operation of opening and closing the hand H is the same as the operation of grasping the desired thing, the method of selecting the AR tag by such an operation is very intuitive and easy for the user to understand.
なお、選択領域は、実際の手Hの形状に沿った領域であってもよいし、図5に示す領域R1のように指の先端(突端)を結んだ内側の領域であってもよいし、図5に示す領域R2のように手Hの形状を含む最小矩形であってもよい。領域R1を選択領域とすることにより、指の間に表示されていたARタグも選択されることとなり、利用者の意図に合った選択範囲を設定することができる。領域R2を選択領域とすることにより、領域を算出するための演算量を少なくすることができる。 Note that the selected region may be a region along the shape of the actual hand H, or may be an inner region where the tips (protrusions) of fingers are connected as in the region R1 shown in FIG. 5 may be a minimum rectangle including the shape of the hand H as in a region R2 shown in FIG. By setting the region R1 as the selection region, the AR tag displayed between the fingers is also selected, and a selection range suitable for the user's intention can be set. By setting the region R2 as the selected region, the amount of calculation for calculating the region can be reduced.
また、手Hの表示領域にARタグの表示位置が含まれる場合、ステップS12およびステップS13に示すように、手Hの形状をARタグよりも前面に表示することが好ましい。このように制御することにより、手Hの位置が明確になり、どのARタグが選択されるかを利用者が把握しやすくなる。また、表意位置の一部分のみが選択領域に含まれるARタグについては、選択状態にしてもよいし、選択状態にしなくてもよい。 When the display position of the AR tag is included in the display area of the hand H, it is preferable to display the shape of the hand H in front of the AR tag as shown in steps S12 and S13. By controlling in this way, the position of the hand H becomes clear and the user can easily understand which AR tag is selected. In addition, an AR tag in which only a part of the ideographic position is included in the selection area may be selected or not selected.
こうしてARタグが選択されると、制御部22は、選択されたARタグをメニューM1として表示部2に一覧表示する。図4に示すステップS14では、選択状態となったARタグが、対応する仮想情報24bに含まれるコメントと対応付けて一覧表示されている。このように、ARタグを一覧表示することにより、重なり合っていたARタグを所定の間隔で配列して表示させることができる。ARタグを所定の間隔で配列して表示させることにより、利用者は、個々のARタグをはっきりと識別することができるとともに、それらのARタグの1つを容易に選択することができるようになる。
When the AR tag is selected in this way, the control unit 22 displays the selected AR tag as a menu M1 on the
なお、選択状態となったARタグを配列する順序は、例えば、対応する仮想情報が示す位置が携帯電話端末1に近い順であってもよいし、対応する仮想情報の更新日時が新しい順であってもよい。対応する仮想情報が示す位置が携帯電話端末1に近い順にARタグを配列することにより、ARタグの配列順序が、対応する施設や物品が見える順序と一致するため、利用者が、ARタグと施設や物品との対応を把握し易くなる。
The order in which the AR tags in the selected state are arranged may be, for example, the order in which the position indicated by the corresponding virtual information is closer to the
続いて、ステップS15に示すように、利用者がメニューM1上のARタグの1つを選択すると、制御部22は、ステップS16に示すように、選択されたARタグに対応する動作を実行する。図4に示す例では、制御部22は、選択されたARタグA2に対応する動作として、ARタグA2に対応する仮想情報24bに含まれるURLにアクセスしてWEBページW1を表示部2に表示させる動作を実行している。
Subsequently, as shown in step S15, when the user selects one of the AR tags on the menu M1, the control unit 22 executes an operation corresponding to the selected AR tag as shown in step S16. . In the example shown in FIG. 4, the control unit 22 accesses the URL included in the
なお、利用者は、操作部13を操作することによってメニューM1上のARタグの選択を実行してもよいし、撮影部40によって取得される画像中で所定の動作を行うことによってメニューM1上のARタグの選択を実行してもよい。ここでいう所定の動作とは、例えば、タップするようにARタグの表示領域内で指を上下させる動作や、ARタグをはじくように指を動かす動作や、ARタグの表示領域内で指を一定時間以上静止させる動作である。なお、指の認識方法については、手の形状の検出方法と同様の検出方法によって実現されてもよい。
Note that the user may select an AR tag on the menu M1 by operating the
また、メニューM1を表示するに際しては、ARタグを選択する手の位置を利用者が確認しやすいように、メニューM1を手の形状の背面に表示することが好ましい。あるいは、メニューM1を半透明に表示して、背後の手の位置を利用者が確認できるようにしてもよい。 Further, when displaying the menu M1, it is preferable to display the menu M1 on the back of the hand shape so that the user can easily confirm the position of the hand selecting the AR tag. Alternatively, the menu M1 may be displayed translucently so that the user can confirm the position of the hand behind.
図4では、開状態の手を表示領域を維持したままで閉状態へ移行してARタグを選択する例を示したが、利用者は、開状態の手を移動させることによって、より広範囲のARタグを選択することができる。例えば、図6に示すように、ステップS13において開状態へ移行した手Hが、ステップS17において、表示領域にARタグA1の表示位置が含まれる位置まで左下方向へ移動し、その後に閉状態へ移行したものとする。この場合、制御部22は、ARタグA2〜A4に加えて、ARタグA1も選択状態にする。そして、制御部22は、ステップS18に示すように、選択されたARタグA1〜A4をメニューM2として表示部2に一覧表示する。
FIG. 4 shows an example in which the AR tag is selected by moving the open hand to the closed state while maintaining the display area. However, the user can move to a wider range by moving the open hand. An AR tag can be selected. For example, as shown in FIG. 6, the hand H that has shifted to the open state in step S13 moves in the lower left direction to a position in which the display position of the AR tag A1 is included in the display area in step S17, and then enters the closed state. Assume that it has migrated. In this case, the control unit 22 places the AR tag A1 in a selected state in addition to the AR tags A2 to A4. Then, as shown in step S18, the control unit 22 displays the selected AR tags A1 to A4 as a menu M2 on the
このように、制御部22は、開状態の手Hが移動した場合、移動の軌跡を監視し、移動前の選択開始領域R3から移動後の選択完了領域R4への軌跡上に表示位置が含まれる全てのARタグを選択状態にする。このように制御することにより、利用者は、離れた位置に表示されている複数のARタグを一度に選択することができる。なお、ここでいう開状態の手Hが移動した場合には、手Hが開状態から閉状態へ移行しながら移動した場合も含まれる。 As described above, when the hand H in the open state moves, the control unit 22 monitors the movement trajectory, and the display position is included on the trajectory from the selection start area R3 before the movement to the selection completion area R4 after the movement. All AR tags to be selected are selected. By controlling in this way, the user can select a plurality of AR tags displayed at distant positions at a time. Here, the case where the hand H in the open state moves includes the case where the hand H moves while shifting from the open state to the closed state.
次に、図7を参照しながら、携帯電話端末1の動作について説明する。図7は、携帯電話端末1によるARタグ選択処理の処理手順を示す図である。図7に示す処理手順は、仮想情報表示プログラム24aが起動された後、利用者が所定の終了操作を行うまで繰り返して実行される。なお、ARタグ選択処理は、制御部22が仮想情報表示プログラム24aを実行することによって実現される。
Next, the operation of the
図7に示すように、制御部22は、まず、ステップS101として、メモリに設けられた監視フラグをオフに設定する。監視フラグは、開状態に変化した手の移動を監視すべき場合にオンに設定されるフラグである。続いて、制御部22は、ステップS102として、撮影部40で取得された画像Pを表示部2に表示させる。そして、制御部22は、ステップS103として、位置・姿勢検出部36に自装置の位置と姿勢を取得させる。
As shown in FIG. 7, the control unit 22 first sets a monitoring flag provided in the memory to OFF in step S101. The monitoring flag is a flag that is set to ON when the movement of the hand that has changed to the open state should be monitored. Then, the control part 22 displays the image P acquired by the imaging |
続いて、制御部22は、ステップS104として、自装置の位置と姿勢等に基づいて、撮影部40の撮影範囲に対応する仮想情報24bを取得する。そして、制御部22は、ステップS105として、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
Subsequently, in step S104, the control unit 22 acquires
続いて、制御部22は、ステップS106として、画像Pに含まれる手を検出する。手が検出されない場合(ステップS107,No)、制御部22は、ステップS108として、監視フラグをオフに設定し、ステップS102以降を再実行する。一方、画像Pに含まれる手が検出された場合(ステップS107,Yes)、制御部22は、ステップS109として、監視フラグがオンであるかを判定する。監視フラグがオンでない場合(ステップS109,No)、制御部22は、ステップS110として、手が開状態であるかを判定する。手が開状態であることは、例えば、指に相当する形状が含まれることに基づいて判定される。 Subsequently, the control unit 22 detects a hand included in the image P as step S106. When a hand is not detected (step S107, No), the control part 22 sets a monitoring flag to OFF as step S108, and performs again after step S102. On the other hand, when the hand contained in the image P is detected (step S107, Yes), the control part 22 determines whether the monitoring flag is ON as step S109. When the monitoring flag is not on (step S109, No), the control unit 22 determines whether the hand is in an open state as step S110. Whether the hand is in an open state is determined based on, for example, the inclusion of a shape corresponding to a finger.
手が開状態である場合(ステップS110,Yes)、制御部22は、ステップS111として、監視フラグをオンに設定する。そして制御部22は、ステップS112として、その時点での手の領域に基づいて選択開始領域を設定し、ステップS102以降を再実行する。一方、手が開いた形状になっていない場合(ステップS110,No)、制御部22は、監視フラグを変更することなく、ステップS102以降を再実行する。 When the hand is in the open state (step S110, Yes), the control unit 22 sets the monitoring flag to ON as step S111. In step S112, the control unit 22 sets a selection start area based on the hand area at that time, and re-executes step S102 and subsequent steps. On the other hand, if the hand is not open (step S110, No), the control unit 22 re-executes step S102 and subsequent steps without changing the monitoring flag.
ステップS109で監視フラグがオンであった場合、すなわち、手が開いた形状に変化していた場合(ステップS109,Yes)、制御部22は、ステップS113として、手が閉じた形状になっているかを判定する。手が閉じた形状になっていることは、例えば、指に相当する突部が形状に含まれなくなったことに基づいて判定される。手が閉じた形状に変化していない場合(ステップS113,No)、制御部22は、ステップS102以降を再実行する。 If the monitoring flag is turned on in step S109, that is, if the hand has changed to an open shape (step S109, Yes), the control unit 22 determines whether the hand is in a closed shape as step S113. Determine. Whether the hand is in a closed shape is determined based on, for example, that a protrusion corresponding to a finger is not included in the shape. When the hand has not changed to the closed shape (No at Step S113), the control unit 22 re-executes Step S102 and the subsequent steps.
手が閉じた形状に変化していた場合(ステップS113,Yes)、制御部22は、ステップS114として、その時点での手の領域に基づいて選択完了領域を設定する。なお、選択完了領域は、閉じた形状の手の領域に基づいて設定してもよいし、閉じた手が開いているときの形状を仮定し、仮定した手の領域に基づいて設定してもよい。 When the hand has changed to a closed shape (step S113, Yes), the control unit 22 sets a selection completion region based on the region of the hand at that time as step S114. The selection completion area may be set based on the hand area of the closed shape, or may be set based on the assumed hand area assuming the shape when the closed hand is open. Good.
続いて、制御部22は、ステップS115として、選択開始領域から選択完了領域への軌跡上に位置する全てのARタグを選択する。なお、ここでいう軌跡とは、選択開始領域から選択完了領域へ直線的に移動した場合の軌跡であってもよいし、実際に手が通った経路に沿って設定された軌跡であってもよい。そして、制御部22は、ステップS116として、選択したARタグに対応する仮想情報24bを一覧表示する。
Subsequently, in step S115, the control unit 22 selects all AR tags located on the locus from the selection start area to the selection completion area. The trajectory here may be a trajectory when moving linearly from the selection start area to the selection completion area, or may be a trajectory set along a path that the hand has actually reached. Good. Then, the control unit 22 displays a list of
続いて、制御部22は、ステップS117として、一覧表示した仮想情報24bに対する利用者の選択動作が検出されたかを判定する。選択動作が検出されない場合(ステップS117,No)、制御部22は、ステップS117の判定を再実行する。選択動作が検出された場合(ステップS117,Yes)、制御部22は、ステップS118として、選択動作が行われた仮想情報24bに対応する動作を実行する。仮想情報24bに対応する動作とは、例えば、仮想情報24bに含まれるURLにアクセスしてWEBページを表示する動作である。
Subsequently, in step S117, the control unit 22 determines whether a user selection operation for the
上述してきたように、本実施例では、手で掴むような動作が検出された位置に表示されているARタグをまとめて選択可能にしたので、画像に付加された複数のARタグを容易に選択することができる。 As described above, in the present embodiment, since the AR tags displayed at the position where the hand-gripping operation is detected can be selected together, a plurality of AR tags added to the image can be easily selected. You can choose.
なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例では、ARタグの選択に関する処理を携帯電話端末1が実行することとしたが、この処理を携帯電話端末1と通信可能なサーバ装置が実行することとしてもよい。この場合、携帯電話端末1は、撮影部40によって取得された画像Pと、位置・姿勢検出部36によって検出された携帯電話端末1の位置および姿勢とをサーバ装置に送信し、サーバ装置から応答された処理済みの画像を表示部2に表示する。
In addition, the aspect of this invention shown by said Example can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, in the above embodiment, the
また、上記の実施例では、手を閉じる動作の検出にともなって選択されたARタグを一覧表示することとしたが、手を閉じる動作の検出にともなって選択されたARタグの表示の仕方は、個々のARタグを容易に選択可能な方式であればよい。例えば、図8に示すメニューM3のように、選択されたARタグをカテゴリ分けし、カテゴリごとにタブC1〜C3等のタブを設けて、ARタグがカテゴリごとに表示されるようにしてもよい。 In the above embodiment, a list of AR tags selected in accordance with the detection of the hand closing operation is displayed. However, how to display the AR tags selected in accordance with the detection of the hand closing operation is as follows. Any method can be used as long as each AR tag can be easily selected. For example, as in the menu M3 shown in FIG. 8, the selected AR tags may be classified into categories, and tabs such as tabs C1 to C3 may be provided for each category so that the AR tags are displayed for each category. .
また、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することとしてもよい。図9から図11を参照しながら、自装置との奥行き方向の距離を考慮してARタグを選択する例について説明する。図9は、手がARタグと初めて重なった場面の一例を示す図である。図10は、基準距離と換算係数について説明するための図である。図11は、ARタグを選択するための閾値の一例を示す図である。 Further, when the AR tag is selected in accordance with the detection of the hand closing operation, the distance between the device itself and the AR tag in the depth direction may be taken into consideration. An example of selecting an AR tag in consideration of the distance in the depth direction with the own device will be described with reference to FIGS. 9 to 11. FIG. 9 is a diagram illustrating an example of a scene where the hand first overlaps the AR tag. FIG. 10 is a diagram for explaining the reference distance and the conversion coefficient. FIG. 11 is a diagram illustrating an example of a threshold value for selecting an AR tag.
図4に示したステップS11の場面で手が上方に移動すると、図9に示すように、手の一部がARタグA3の端部と重なった状態となる。このように、手がいずれかのARタグに初めて重なると、制御部22は、その時点での携帯電話端末1と手との距離を測定し、測定された距離を基準距離としてメモリに記憶させる。携帯電話端末1と手との距離の測定は、撮影部40が焦点を対象物に合わせるために用いる合焦機能によって実現される。なお、携帯電話端末1と手との距離は、例えば、赤外線や音波等を用いて距離を測定する測距センサを用いて測定してもよいし、予め所定の距離と対応付けて形状情報24cに保持されている手の大きさと画像P中の手の大きさの比率に基づいて算出してもよい。
If the hand moves upward in the scene of step S11 shown in FIG. 4, as shown in FIG. 9, a part of the hand overlaps the end of the AR tag A3. As described above, when the hand first overlaps any one of the AR tags, the control unit 22 measures the distance between the
続いて、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置とARタグA3に対応する仮想情報24bが示す位置との距離を算出する。そして、制御部22は、求めた2つの距離に基づいて、ARタグA3に対応する仮想情報24bが示す位置と他の仮想情報24bが示す位置との奥行き方向の距離を手の移動距離に換算するための換算係数を算出する。
Subsequently, the control unit 22 calculates the distance between the position of the
図10に示すように、基準距離がDSであり、ARタグA3に対応する仮想情報24bが示す位置P3と携帯電話端末1との距離がD3であるとすると、換算係数はDS/D3となる。この換算係数を用いることにより、ARタグA3を基準とした各ARタグの奥行き方向の相対位置を手の位置と対応させることができる。
As shown in FIG. 10, when the reference distance is DS and the distance between the position P3 indicated by the
例えば、DSが10[cm]、すなわち、0.1[m]であり、D3が100[m]であるとすると、換算係数は、0.001となる。この場合、ARタグA2に対応する仮想情報24bが示す位置P2が位置P3から50[m]手前にあるとすると、50×0.001[m]、すなわち、手を5cm手前に移動させた位置がARタグA2の奥行き方向の位置となる。
For example, if DS is 10 [cm], that is, 0.1 [m], and D3 is 100 [m], the conversion coefficient is 0.001. In this case, if the position P2 indicated by the
同様に、ARタグA1に対応する仮想情報24bが示す位置P1が位置P3から10[m]手前にあるとすると、10×0.001[m]、すなわち、手を1cm手前に移動させた位置がARタグA1の奥行き方向の位置となる。また、ARタグA4に対応する仮想情報24bが示す位置P4が位置P3から10[m]奥にあるとすると、10×0.001[m]、すなわち、手を1cm奥に移動させた位置がARタグA4の奥行き方向の位置となる。
Similarly, if the position P1 indicated by the
このように、ARタグの奥行き方向の相対位置を手の位置と対応させることにより、手を閉じる動作の検出にともなってARタグを選択する際に、自装置とARタグの奥行き方向の距離を考慮することが可能になる。すなわち、手を閉じる動作が検出された場合に、開いた手の領域に含まれるARタグであっても、手でつかめる範囲外に位置するARタグについては選択しないという制御を行うことが可能なる。 In this way, by associating the relative position of the AR tag in the depth direction with the position of the hand, when selecting the AR tag along with the detection of the closing operation of the hand, the distance between the own device and the AR tag in the depth direction is determined. It becomes possible to consider. That is, when an operation of closing the hand is detected, it is possible to perform control such that an AR tag located outside the range that can be grasped by the hand is not selected even if the AR tag is included in the open hand region. .
手でつかめる範囲内であるかについては、例えば、図11に示すように、閾値を設定して判定してもよい。図11に示す例では、手を開く動作が検出された位置PSおよび手を閉じる動作が検出された位置PEから奥行き方向に閾値DT離れた位置までの範囲Sが手でつかめる範囲と判定される。図11に示す例では、範囲Sの外に位置するARタグA2は、開いた手の範囲に重なっていたとしても選択されない。 Whether it is within a range that can be grasped by hand may be determined by setting a threshold as shown in FIG. 11, for example. In the example illustrated in FIG. 11, the position PS where the hand opening motion is detected and the range S from the position PE where the hand closing motion is detected to the position away from the threshold DT in the depth direction are determined to be grasped by the hand. . In the example shown in FIG. 11, the AR tag A2 positioned outside the range S is not selected even if it overlaps the range of the open hand.
1 携帯電話端末
2 表示部
13 操作部
22 制御部
24 記憶部
24a 仮想情報表示プログラム
24b 仮想情報
24c 形状情報
26 通信部
30 音声処理部
36 位置・姿勢検出部
40 撮影部
DESCRIPTION OF
Claims (10)
前記撮影部によって取得された画像を表示する表示部と、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、
前記制御部は、前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理することを特徴とする撮影装置。 A shooting section;
A display unit for displaying an image acquired by the photographing unit;
A control unit that causes the display unit to display an object related to the image acquired by the imaging unit so as to overlap the image;
The control unit performs a selection process on an object that overlaps a display area of a predetermined object included in the image among the objects.
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を含むことを特徴とする制御方法。 Displaying an image acquired by the imaging unit;
Causing the display unit to display an object related to the image acquired by the photographing unit on the image;
And a step of selecting an object that overlaps a display area of a predetermined object included in the image among the objects.
撮影部によって取得された画像を表示するステップと、
前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
前記オブジェクトのうち、前記画像に含まれる所定の物体の表示領域と重なるオブジェクトを選択処理するステップと
を実行させることを特徴とする仮想情報表示プログラム。 In the information processing device,
Displaying an image acquired by the imaging unit;
Causing the display unit to display an object related to the image acquired by the photographing unit on the image;
A virtual information display program that executes a process of selecting an object that overlaps a display area of a predetermined object included in the image among the objects.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068969A JP5685464B2 (en) | 2011-03-25 | 2011-03-25 | Imaging apparatus, control method, and virtual information display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068969A JP5685464B2 (en) | 2011-03-25 | 2011-03-25 | Imaging apparatus, control method, and virtual information display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012205153A true JP2012205153A (en) | 2012-10-22 |
JP5685464B2 JP5685464B2 (en) | 2015-03-18 |
Family
ID=47185633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011068969A Active JP5685464B2 (en) | 2011-03-25 | 2011-03-25 | Imaging apparatus, control method, and virtual information display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5685464B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888695A (en) * | 2012-12-19 | 2014-06-25 | 柯尼卡美能达株式会社 | Image processing terminal and image processing system |
EP2799978A1 (en) * | 2013-04-30 | 2014-11-05 | Konica Minolta, Inc. | Image processing system, image processing apparatus, portable information terminal, program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002152713A (en) * | 2000-11-10 | 2002-05-24 | Sony Corp | Apparatus and method for processing object information |
JP2002290529A (en) * | 2001-03-28 | 2002-10-04 | Matsushita Electric Ind Co Ltd | Portable communication terminal, information display device, control input device and control input method |
JP2010238098A (en) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | Terminal device, information presentation system, and terminal screen display method |
JP2011198150A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Head-mounted augmented reality video presentation device and virtual display object operation method |
-
2011
- 2011-03-25 JP JP2011068969A patent/JP5685464B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002152713A (en) * | 2000-11-10 | 2002-05-24 | Sony Corp | Apparatus and method for processing object information |
JP2002290529A (en) * | 2001-03-28 | 2002-10-04 | Matsushita Electric Ind Co Ltd | Portable communication terminal, information display device, control input device and control input method |
JP2010238098A (en) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | Terminal device, information presentation system, and terminal screen display method |
JP2011198150A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Head-mounted augmented reality video presentation device and virtual display object operation method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888695A (en) * | 2012-12-19 | 2014-06-25 | 柯尼卡美能达株式会社 | Image processing terminal and image processing system |
EP2747404A1 (en) * | 2012-12-19 | 2014-06-25 | Konica Minolta, Inc. | Image processing terminal, image processing system, and computer-readable storage medium storing control program of image processing terminal |
EP2799978A1 (en) * | 2013-04-30 | 2014-11-05 | Konica Minolta, Inc. | Image processing system, image processing apparatus, portable information terminal, program |
Also Published As
Publication number | Publication date |
---|---|
JP5685464B2 (en) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9891070B2 (en) | Mobile terminal and control method for the mobile terminal | |
KR102359550B1 (en) | Flexible display device and operating method thereof | |
JP5734700B2 (en) | Portable information device and virtual information display program | |
JP5370259B2 (en) | Portable electronic devices | |
JP5785753B2 (en) | Electronic device, control method, and control program | |
KR20170069103A (en) | Flexible display device | |
KR20160150533A (en) | Deformable display device and operating method thereof | |
KR20090111459A (en) | Terminal and method of recognizing image therein | |
US20110319130A1 (en) | Mobile terminal and method of operation | |
US9823709B2 (en) | Context awareness based on angles and orientation | |
KR102077677B1 (en) | Mobile terminal and method for controlling the same | |
EP3247170B1 (en) | Mobile terminal | |
KR20110123098A (en) | Mobile terminal and control method thereof | |
KR20120001941A (en) | Mobile terminal and control method for mobile terminal | |
JP5684618B2 (en) | Imaging apparatus and virtual information display program | |
CN113253908A (en) | Key function execution method, device, equipment and storage medium | |
JP5685464B2 (en) | Imaging apparatus, control method, and virtual information display program | |
KR102019119B1 (en) | Terminal and method for controlling the same | |
US20140015859A1 (en) | Mobile terminal and control method thereof | |
KR20120000175A (en) | Mobile terminal and object information display method thereof | |
KR101452765B1 (en) | Mobile terminal using promixity touch and information input method therefore | |
KR101721874B1 (en) | Mobile terminal and image display method thereof | |
KR20090112454A (en) | A mobile telecommunication device and a method of controlling characters relatively using the same | |
KR20150048575A (en) | Mobile terminal and method for controlling of the same | |
KR20150012232A (en) | Mobile terminal and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141014 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5685464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |