JP6805375B2 - Information processing equipment, information processing methods and information processing programs - Google Patents

Information processing equipment, information processing methods and information processing programs Download PDF

Info

Publication number
JP6805375B2
JP6805375B2 JP2020002579A JP2020002579A JP6805375B2 JP 6805375 B2 JP6805375 B2 JP 6805375B2 JP 2020002579 A JP2020002579 A JP 2020002579A JP 2020002579 A JP2020002579 A JP 2020002579A JP 6805375 B2 JP6805375 B2 JP 6805375B2
Authority
JP
Japan
Prior art keywords
image
positional relationship
related information
orientation
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020002579A
Other languages
Japanese (ja)
Other versions
JP2020074150A (en
Inventor
和範 井本
和範 井本
梓帆美 高橋
梓帆美 高橋
山口 修
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020002579A priority Critical patent/JP6805375B2/en
Publication of JP2020074150A publication Critical patent/JP2020074150A/en
Application granted granted Critical
Publication of JP6805375B2 publication Critical patent/JP6805375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 Embodiments of the present invention relate to information processing devices, information processing methods and information processing programs.

実空間に設けられた対象物に関する関連情報を、画像に重畳して表示するAR(Augmented Reality)アプリケーションがある。ARアプリケーションは、情報処理装置にインストールして用いられる。この情報処理装置においては、関連情報を見易く表示できることが望まれている。 There is an AR (Augmented Reality) application that superimposes and displays related information about an object provided in real space on an image. The AR application is installed and used in an information processing device. In this information processing device, it is desired that related information can be displayed in an easy-to-read manner.

特開2014−206904号公報Japanese Unexamined Patent Publication No. 2014-206904

本発明の実施形態は、対象物の関連情報を見易く表示可能な情報処理装置、情報処理方法及び情報処理プログラムを提供する。 An embodiment of the present invention provides an information processing device, an information processing method, and an information processing program capable of displaying information related to an object in an easy-to-see manner.

本発明の実施形態によれば、取得部と、処理部と、を含む情報処理装置が提供される。前記取得部は、第1時刻における第1画像と、前記第1時刻の後の第2時刻における第2画像と、を取得する。前記第1画像は、第1対象物の第1像及び第2対象物の第2像を含む。前記第2画像は、前記第1対象物の第3像及び前記第3像とは異なる第4像を含む。前記処理部は、第1動作と、第2動作と、を実施する。前記第1動作は、前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する。前記第2動作は、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化の状態が第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成する。 According to an embodiment of the present invention, an information processing device including an acquisition unit and a processing unit is provided. The acquisition unit acquires a first image at the first time and a second image at the second time after the first time. The first image includes a first image of the first object and a second image of the second object. The second image includes a third image of the first object and a fourth image different from the third image. The processing unit carries out the first operation and the second operation. The first operation generates first data in which the first related information associated with the first image is superimposed and displayed on the first image. The second operation is the relative first positional relationship of the second image with respect to the first image and the relative second position of the fourth image with respect to the third image. When the state of change between the positional relationship and the state of change is the first state, the second data for displaying the first related information superimposed on the second image is generated.

第1の実施形態に係る情報処理装置を例示するブロック図である。It is a block diagram which illustrates the information processing apparatus which concerns on 1st Embodiment. 対象物と画像との関係を例示する模式図である。It is a schematic diagram which illustrates the relationship between an object and an image. 図3(a)及び図3(b)は、第1の実施形態に係る情報処理装置の適用例を示す模式図である。3A and 3B are schematic views showing an application example of the information processing apparatus according to the first embodiment. 図4(a)及び図4(b)は、第1の実施形態に係る検出部21の動作を例示する図である。4 (a) and 4 (b) are diagrams illustrating the operation of the detection unit 21 according to the first embodiment. 図5(a)及び図5(b)は、第1の実施形態に係る対応部22の動作を例示する図である。5 (a) and 5 (b) are diagrams illustrating the operation of the corresponding unit 22 according to the first embodiment. 図6(a)〜図6(d)は、第1の実施形態に係る算出部23の動作を例示する図である。6 (a) to 6 (d) are diagrams illustrating the operation of the calculation unit 23 according to the first embodiment. 図7(a)及び図7(b)は、第1の実施形態に係る表示制御部24の動作を例示する図である。7 (a) and 7 (b) are diagrams illustrating the operation of the display control unit 24 according to the first embodiment. 図8(a)〜図8(c)は、第1の実施形態に係る関連情報の表示結果を例示する模式図である。8 (a) to 8 (c) are schematic views illustrating the display result of the related information according to the first embodiment. 第2の実施形態に係る情報処理装置を例示するブロック図である。It is a block diagram which illustrates the information processing apparatus which concerns on 2nd Embodiment. 図10(a)及び図10(b)は、第2の実施形態に係る情報処理装置の適用例を示す模式図である。10 (a) and 10 (b) are schematic views showing an application example of the information processing apparatus according to the second embodiment. 図11(a)及び図11(b)は、第2の実施形態に係る設定部25の動作を例示する図である。11 (a) and 11 (b) are diagrams illustrating the operation of the setting unit 25 according to the second embodiment. 図12(a)〜図12(c)は、第2の実施形態に係る関連情報の表示結果を例示する模式図である。12 (a) to 12 (c) are schematic views illustrating the display result of the related information according to the second embodiment. 図13(a)及び図13(b)は、第3の実施形態に係る情報処理装置の適用例を示す模式図である。13 (a) and 13 (b) are schematic views showing an application example of the information processing apparatus according to the third embodiment. 図14(a)及び図14(b)は、第3の実施形態に係る算出部23の動作を例示する図である。14 (a) and 14 (b) are diagrams illustrating the operation of the calculation unit 23 according to the third embodiment. 図15(a)及び図15(b)は、第3の実施形態に係る表示制御部24の動作を例示する図である。15 (a) and 15 (b) are diagrams illustrating the operation of the display control unit 24 according to the third embodiment. 図16(a)〜図16(c)は、第3の実施形態に係る関連情報の表示結果を例示する模式図である。16 (a) to 16 (c) are schematic views illustrating the display result of the related information according to the third embodiment. 図17(a)及び図17(b)は、第4の実施形態に係る情報処理装置の適用例を示す模式図である。17 (a) and 17 (b) are schematic views showing an application example of the information processing apparatus according to the fourth embodiment. 図18(a)及び図18(b)は、第4の実施形態に係る検出部21の動作を例示する図である。18 (a) and 18 (b) are diagrams illustrating the operation of the detection unit 21 according to the fourth embodiment. 図19(a)及び図19(b)は、第4の実施形態に係る対応部22の動作を例示する図である。19 (a) and 19 (b) are diagrams illustrating the operation of the corresponding unit 22 according to the fourth embodiment. 第4の実施形態に係る関連情報の表示結果を例示する模式図である。It is a schematic diagram which illustrates the display result of the related information which concerns on 4th Embodiment. 第5の実施形態に係る情報処理装置を例示するブロック図である。It is a block diagram which illustrates the information processing apparatus which concerns on 5th Embodiment. 図22(a)〜図22(c)は、第5の実施形態に係る情報処理装置の適用例を示す図である。22 (a) to 22 (c) are diagrams showing an application example of the information processing apparatus according to the fifth embodiment. 図23(a)〜図23(c)は、第5の実施形態に係る関連情報の表示結果を例示する模式図である。23 (a) to 23 (c) are schematic views illustrating the display results of the related information according to the fifth embodiment. 第6の実施形態に係る情報処理装置を例示するブロック図である。It is a block diagram which illustrates the information processing apparatus which concerns on 6th Embodiment.

以下に、本発明の各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The drawings are schematic or conceptual, and the relationship between the thickness and width of each part, the ratio of the sizes between the parts, and the like are not necessarily the same as the actual ones. Further, even when the same parts are represented, the dimensions and ratios may be different from each other depending on the drawings.
In addition, in the present specification and each figure, the same elements as those described above with respect to the above-mentioned figures are designated by the same reference numerals, and detailed description thereof will be omitted as appropriate.

(第1の実施形態)
図1は、第1の実施形態に係る情報処理装置を例示するブロック図である。
図1に表すように、実施形態に係る画像処理装置110は、取得部10と、処理部20と、表示部30と、第1記憶部40と、第2記憶部50と、を含む。取得部10には、例えば、入出力端子が用いられる。取得部10は、有線または無線を介して外部と通信する入出力インターフェイスを含む。処理部20には、例えば、CPU(Central Processing Unit)やメモリなどを含む演算装置が用いられる。処理部20の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
(First Embodiment)
FIG. 1 is a block diagram illustrating an information processing apparatus according to the first embodiment.
As shown in FIG. 1, the image processing device 110 according to the embodiment includes an acquisition unit 10, a processing unit 20, a display unit 30, a first storage unit 40, and a second storage unit 50. For example, an input / output terminal is used for the acquisition unit 10. The acquisition unit 10 includes an input / output interface that communicates with the outside via wired or wireless. For the processing unit 20, for example, an arithmetic unit including a CPU (Central Processing Unit), a memory, and the like is used. An integrated circuit such as an LSI (Large Scale Integration) or an IC (Integrated Circuit) chipset can be used for a part or all of each block of the processing unit 20. An individual circuit may be used for each block, or a circuit in which a part or the whole is integrated may be used. Each block may be provided integrally, or some blocks may be provided separately. In addition, a part of each block may be provided separately. For integration, not only LSI but also a dedicated circuit or a general-purpose processor may be used.

処理部20には、検出部21と、対応部22と、算出部23と、表示制御部24と、が設けられる。これらの各部は、例えば、画像処理プログラムとして実現される。すなわち、画像処理装置110は、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現される。画像処理装置110に含まれる各部の機能は、上記のコンピュータ装置に搭載されたプロセッサに画像処理プログラムを実行させることにより実現することができる。このとき、画像処理装置110は、上記の画像処理プログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記の画像処理プログラムを配布して、この画像処理プログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、処理部20は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。 The processing unit 20 is provided with a detection unit 21, a corresponding unit 22, a calculation unit 23, and a display control unit 24. Each of these parts is realized as, for example, an image processing program. That is, the image processing device 110 can also be realized by using a general-purpose computer device as basic hardware. The functions of each part included in the image processing device 110 can be realized by causing the processor mounted on the computer device to execute the image processing program. At this time, the image processing device 110 may be realized by installing the above image processing program in the computer device in advance, storing the above image in a storage medium such as a CD-ROM, or via a network. It may be realized by distributing a processing program and appropriately installing this image processing program on a computer device. Further, the processing unit 20 is realized by appropriately using a memory, a hard disk or a storage medium such as a CD-R, a CD-RW, a DVD-RAM, or a DVD-R built in or externally to the above-mentioned computer device. Can be done.

この例においては、第1記憶部40と第2記憶部50とを別々に表しているが、第1記憶部40と第2記憶部50とを一つの記憶部として構成してもよい。 In this example, the first storage unit 40 and the second storage unit 50 are represented separately, but the first storage unit 40 and the second storage unit 50 may be configured as one storage unit.

図2は、対象物と画像との関係を例示する模式図である。
図2に表すように、画像処理装置110には、デジタルスチルカメラなどの撮像部60が一体で設けられている。撮像部60は、画像処理装置110とは別体で設けられていてもよい。撮像部60は、実空間RSに設けられた第1対象物71及び第2対象物72を撮像して、第1画像61及び第2画像62を生成する。取得部10は、第1画像61及び第2画像62を取得する。第1画像61及び第2画像62は、動画または静止画のいずれでもよい。
FIG. 2 is a schematic diagram illustrating the relationship between the object and the image.
As shown in FIG. 2, the image processing device 110 is integrally provided with an imaging unit 60 such as a digital still camera. The image pickup unit 60 may be provided separately from the image processing device 110. The imaging unit 60 images the first object 71 and the second object 72 provided in the real space RS to generate the first image 61 and the second image 62. The acquisition unit 10 acquires the first image 61 and the second image 62. The first image 61 and the second image 62 may be either a moving image or a still image.

第1画像61は、第1時刻t1における画像である。第1画像61は、第1対象物71の第1像81と、第2対象物72の第2像82と、を含む。第2画像62は、第1時刻t1よりも後の第2時刻t2における画像である。第2画像62は、第1対象物71の第3像83と、第3像83とは異なる第4像84と、を含む。本例においては、第1像81及び第3像83は共に、第1対象物71の像である。第2像82及び第4像84は共に、第2対象物72の像である。 The first image 61 is an image at the first time t1. The first image 61 includes a first image 81 of the first object 71 and a second image 82 of the second object 72. The second image 62 is an image at the second time t2 after the first time t1. The second image 62 includes a third image 83 of the first object 71 and a fourth image 84 different from the third image 83. In this example, both the first image 81 and the third image 83 are images of the first object 71. Both the second image 82 and the fourth image 84 are images of the second object 72.

本実施形態において、処理部20は、第1動作Op1と、第2動作Op2と、を実施する。第1動作Op1は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第1データd1を生成する。第2動作Op2は、第1位置関係51と第2位置関係52との間の変化の状態が第1状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第2データd2を生成する。第1位置関係51は、第1像81を基準としたときの第2像82の相対的な位置関係である。第2位置関係52は、第3像83を基準としたときの第4像84の相対的な位置関係である。第1状態とは、例えば、第1位置関係51と第2位置関係52との間の変化がない、または、変化が小さい状態を含む。すなわち、第1状態とは、第1位置関係51と第2位置関係52とが実質的に変化しない状態を含む。 In the present embodiment, the processing unit 20 implements the first operation Op1 and the second operation Op2. The first operation Op1 generates the first data d1 in which the first related information 41 associated with the first image 81 is superimposed and displayed on the first image 61. In the second operation Op2, when the state of change between the first positional relationship 51 and the second positional relationship 52 is the first state, the first related information 41 is superimposed and displayed on the second image 62. 2 Generate data d2. The first positional relationship 51 is a relative positional relationship of the second image 82 with respect to the first image 81. The second positional relationship 52 is a relative positional relationship of the fourth image 84 with respect to the third image 83. The first state includes, for example, a state in which there is no change or a small change between the first positional relationship 51 and the second positional relationship 52. That is, the first state includes a state in which the first positional relationship 51 and the second positional relationship 52 do not substantially change.

より具体的には、検出部21は、第1検出処理を実施する。第1検出処理では、第1画像61から第1像81及び第2像82を検出する。対応部22は、対応付け処理を実施する。対応付け処理では、第1対象物71に関する第1関連情報41を、第1像81に対応付ける。算出部23は、第1算出処理を実施する。第1算出処理では、第1像81を基準としたときの第2像82の相対的な第1位置関係51を算出する。表示制御部24は、第1表示制御処理を実施する。第1表示制御処理では、第1関連情報41を、第1画像62に重畳して表示させる第1データd1を生成する。 More specifically, the detection unit 21 carries out the first detection process. In the first detection process, the first image 81 and the second image 82 are detected from the first image 61. Correspondence unit 22 carries out association processing. In the associative processing, the first related information 41 regarding the first object 71 is associated with the first image 81. The calculation unit 23 carries out the first calculation process. In the first calculation process, the relative first positional relationship 51 of the second image 82 with respect to the first image 81 is calculated. The display control unit 24 executes the first display control process. In the first display control process, the first data d1 in which the first related information 41 is superimposed and displayed on the first image 62 is generated.

さらに、検出部21は、第2検出処理を実施する。第2検出処理では、第2画像62から第3像83及び第4像84を検出する。算出部23は、第2算出処理を実施する。第2算出処理では、第3像83を基準としたときの第4像84の相対的な第2位置関係52を算出する。表示制御部24は、第2表示制御処理を実施する。第2表示制御処理では、第1位置関係51と第2位置関係52との間に変化の状態が第1状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第2データd2を生成する。第1画像61及び第2画像62の表示は、表示部30が行う。 Further, the detection unit 21 carries out the second detection process. In the second detection process, the third image 83 and the fourth image 84 are detected from the second image 62. The calculation unit 23 executes the second calculation process. In the second calculation process, the relative second positional relationship 52 of the fourth image 84 with respect to the third image 83 is calculated. The display control unit 24 executes the second display control process. In the second display control process, when the state of change between the first positional relationship 51 and the second positional relationship 52 is the first state, the first related information 41 is superimposed and displayed on the second image 62. The second data d2 is generated. The display unit 30 displays the first image 61 and the second image 62.

このように、実施形態によれば、第1画像61において、関連情報を表示させる対象像(第1像81、以下、注目対象像ともいう)を基準として、その周囲の対象像(第2像82)との相対的な位置関係(第1位置関係51)を求める。さらに、第2画像62において、第3像83を基準として、その周囲の対象像(第4像84)との相対的な位置関係(第2位置関係52)を求める。これらの位置関係が実質的に変化しなければ、注目対象像の関連情報(第1関連情報41)の表示を継続する。 As described above, according to the embodiment, in the first image 61, the target image (second image) around the target image (first image 81, hereinafter also referred to as a attention target image) for displaying related information is used as a reference. The relative positional relationship with 82) (first positional relationship 51) is obtained. Further, in the second image 62, the relative positional relationship (second positional relationship 52) with the target image (fourth image 84) around the third image 83 is obtained as a reference. If these positional relationships do not substantially change, the display of the related information (first related information 41) of the target image of interest is continued.

実施形態に係る画像処理装置110は、実空間に存在する対象物をカメラ等で撮影し、撮影した画像に、対象物に関する関連情報を重畳して表示するARアプリケーションソフトウェアに適用される。関連情報とは、対象物に関する多種多様な情報であり、例えば、対象物に対する作業手順、及び、インターネット等を介して入手できる付随情報などが含まれる。 The image processing device 110 according to the embodiment is applied to AR application software in which an object existing in a real space is photographed by a camera or the like, and related information about the object is superimposed and displayed on the photographed image. The related information is a wide variety of information about the object, and includes, for example, work procedures for the object and incidental information that can be obtained via the Internet or the like.

ここで、多くの対象物の対象像を含む画像の場合、対象像のそれぞれに関連情報を重畳して表示すると、非常に見難くなる。これに対して、カメラの画角の中心(画像の中心)またはユーザの視線に対応する部分に最も近い対象像を注目対象像として、注目対象像についてのみ関連情報を表示する参考例がある。 Here, in the case of an image including an object image of many objects, if related information is superimposed and displayed on each of the object images, it becomes very difficult to see. On the other hand, there is a reference example in which the target image closest to the center of the angle of view (center of the image) of the camera or the portion corresponding to the line of sight of the user is set as the target image of interest, and related information is displayed only for the target image of interest.

しかしながら、上記の参考例においては、連続的に撮像された複数の画像に対して、関連情報を表示するときに、ユーザの移動等に伴い、カメラの画角の中心またはユーザの視線が頻繁に移動することが起こり得る。このため、注目対象像が刻一刻と変化し、表示される関連情報が頻繁に切り替わり、見難くなる。 However, in the above reference example, when displaying related information for a plurality of images continuously captured, the center of the angle of view of the camera or the line of sight of the user frequently occurs due to the movement of the user or the like. It can happen to move. For this reason, the image of interest changes from moment to moment, and the related information displayed is frequently switched, making it difficult to see.

これに対して、実施形態によれば、複数の画像について、注目対象像とその周囲の対象像との間の相対的な位置関係を求め、これらの位置関係が実質的に変化しなければ、注目対象像の関連情報が継続して表示される。このため、ユーザの移動等に伴い表示される関連情報が頻繁に切り替わることがなく、関連情報を見易く表示することができる。 On the other hand, according to the embodiment, for a plurality of images, the relative positional relationship between the target image of interest and the surrounding target image is obtained, and if these positional relationships do not substantially change, Information related to the image of interest is continuously displayed. Therefore, the related information displayed does not change frequently due to the movement of the user, and the related information can be displayed in an easy-to-read manner.

すなわち、図1及び図2に表すように、取得部10は、実空間RSに存在する対象物を撮影した複数の画像(例えば、第1画像61及び第2画像62)を取得し、取得した複数の画像を検出部21に出力する。取得部10は、デジタルスチルカメラなどの撮像部60からリアルタイムで画像を取得してもよい。取得部10は、HDD(Hard Disk Drive)などの記憶媒体に記録された画像データを読み込んで取得しても良い。記憶媒体には、例えば、撮像部60から入力される画像を変換したデジタル画像データが記録されている。 That is, as shown in FIGS. 1 and 2, the acquisition unit 10 acquires and acquires a plurality of images (for example, the first image 61 and the second image 62) of an object existing in the real space RS. A plurality of images are output to the detection unit 21. The acquisition unit 10 may acquire an image in real time from an image pickup unit 60 such as a digital still camera. The acquisition unit 10 may read and acquire image data recorded on a storage medium such as an HDD (Hard Disk Drive). For example, digital image data obtained by converting an image input from the imaging unit 60 is recorded in the storage medium.

検出部21は、取得部10から入力された第1画像61を解析して、第1画像61中に含まれる対象像を検出し、対象像の位置を算出部23に出力し、対象像の種別を対応部22にそれぞれ出力する。ここで、対象像とは、例えば、看板、ロゴ、標識、銘板などの文字情報を含むものでもよい。対象像とは、例えば、店舗に配置された商品、街中に立っている建物、工場に設置された機械などの物体の形状情報を含むものでもよい。さらに、対象像とは、例えば、人の顔や人物に関する情報を含むものでもよい。 The detection unit 21 analyzes the first image 61 input from the acquisition unit 10, detects the target image included in the first image 61, outputs the position of the target image to the calculation unit 23, and outputs the position of the target image to the calculation unit 23. The type is output to the corresponding unit 22 respectively. Here, the target image may include, for example, character information such as a signboard, a logo, a signboard, and a name plate. The target image may include, for example, shape information of an object such as a product placed in a store, a building standing in the city, or a machine installed in a factory. Further, the target image may include, for example, information about a person's face or a person.

検出部21により出力される対象像の位置は、画像中で対象像が位置する座標情報として表現される。このときの対象物の座標情報は、厳密に対象像を囲うように設定してもよいし、外接矩形や重心座標などを用いて簡略化しても良い。検出部21により出力される対象像の種別は、他の対象像と区別するための情報である。例えば、文字情報を含む対象像を文字認識し、得られた文字列を対象像の種別としてもよい。物体の形状情報を含む対象像を形状認識し、得られた物体形状を対象像の種別としてもよい。さらには、対象像から切り出した画像部分そのものを種別としてもよい。 The position of the target image output by the detection unit 21 is expressed as coordinate information on which the target image is located in the image. The coordinate information of the object at this time may be set so as to strictly surround the object image, or may be simplified by using an circumscribing rectangle, coordinates of the center of gravity, or the like. The type of the target image output by the detection unit 21 is information for distinguishing it from other target images. For example, the target image including the character information may be character-recognized, and the obtained character string may be used as the type of the target image. The object image including the shape information of the object may be shape-recognized, and the obtained object shape may be used as the type of the object image. Furthermore, the image portion itself cut out from the target image may be used as a type.

対応部22は、検出部21から入力された各対象像の種別に基づいて、各対象像の種別に対応する関連情報を、第1記憶部40に格納されている関連情報40aの中から選択し、選択した関連情報を表示制御部24に出力する。例えば、第1関連情報41が第1像81に対応付けられる。関連情報40aとは、対象物(対象像)に対応する文字などの情報である。例えば、日本語文字を英語文字に翻訳するARアプリケーションにおいては、翻訳結果の英語文字が関連情報に相当する。また、機器に対する作業手順を表示するARアプリケーションにおいては、機器の操作手順を説明する作業手順書や操作の概略を表した画像などが関連情報に相当する。なお、関連情報40aについて、特に限定はなく、対象物に関連して取得した画像に重畳表示できるものであれば良い。 The corresponding unit 22 selects related information corresponding to each target image type from the related information 40a stored in the first storage unit 40, based on the type of each target image input from the detection unit 21. Then, the selected related information is output to the display control unit 24. For example, the first related information 41 is associated with the first image 81. The related information 40a is information such as characters corresponding to the object (object image). For example, in an AR application that translates Japanese characters into English characters, the English characters in the translation result correspond to related information. Further, in an AR application that displays a work procedure for a device, a work procedure manual explaining the operation procedure of the device, an image showing an outline of the operation, and the like correspond to related information. The related information 40a is not particularly limited as long as it can be superimposed and displayed on the image acquired in relation to the object.

算出部23は、検出部21から入力された複数の対象像の位置に基づいて、複数の対象像の相対的な位置関係50aを算出し、算出した位置関係50aを第2記憶部50に記録する。例えば、位置関係50aには、第1画像61に含まれる第1像81と第2像82との間の相対的な第1位置関係51が含まれる。ここでは、第1像81が注目対象像として設定されている。第1位置関係51は、第1像81を基準としたときの第2像82の相対的な位置関係である。 The calculation unit 23 calculates the relative positional relationship 50a of the plurality of target images based on the positions of the plurality of target images input from the detection unit 21, and records the calculated positional relationship 50a in the second storage unit 50. To do. For example, the positional relationship 50a includes a relative first positional relationship 51 between the first image 81 and the second image 82 included in the first image 61. Here, the first image 81 is set as the target image of interest. The first positional relationship 51 is a relative positional relationship of the second image 82 with respect to the first image 81.

表示制御部24は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第1データd1を生成する。そして、表示制御部24は、表示部30を制御して、第1データd1を表示部30に表示させる。 The display control unit 24 generates the first data d1 in which the first related information 41 associated with the first image 81 is superimposed and displayed on the first image 61. Then, the display control unit 24 controls the display unit 30 to display the first data d1 on the display unit 30.

検出部21、対応部22、及び算出部23は、第2画像62に含まれる複数の対象像に対して同様の処理を繰り返し、第2画像62に含まれる第3像83と第4像84との間の相対的な第2位置関係52を算出する。 The detection unit 21, the corresponding unit 22, and the calculation unit 23 repeat the same processing for the plurality of target images included in the second image 62, and the third image 83 and the fourth image 84 included in the second image 62. The relative second positional relationship 52 with and from is calculated.

表示制御部24は、第1位置関係51と、第2位置関係52と、を比較し、相対的な位置関係の変化の状態が第1状態であるか否かを判定する。第1状態であれば、第1関連情報41を第2画像62に重畳して表示させる。このとき、対象像の位置を起点として、どの位置に関連情報を表示するのか、表示位置を決定してもよい。一方、第1状態とは異なる第2状態であれば、第1関連情報41を第2画像62に表示させない。または、第2画像62に、第1関連情報41とは異なる別の関連情報を表示させてもよい。別の関連情報としては、例えば、第2対象物72に関する第2関連情報を表示させることができる。ここで、第2状態とは、第2位置関係52が第1位置関係51に対して変化している状態である。 The display control unit 24 compares the first positional relationship 51 with the second positional relationship 52, and determines whether or not the state of change in the relative positional relationship is the first state. In the first state, the first related information 41 is superimposed and displayed on the second image 62. At this time, the display position may be determined from the position of the target image as the starting point to which position the related information is to be displayed. On the other hand, if the second state is different from the first state, the first related information 41 is not displayed on the second image 62. Alternatively, the second image 62 may display another related information different from the first related information 41. As another related information, for example, the second related information regarding the second object 72 can be displayed. Here, the second state is a state in which the second positional relationship 52 is changed with respect to the first positional relationship 51.

このように、画像に含まれる複数の対象像の相対的な位置関係に基づいて、同じ関連情報を連続して表示するか、または、切り替えて別の関連情報を表示するか、を制御することができる。このため、連続して複数の画像が入力された場合にも、関連情報が頻繁に切り替わることがなく、ユーザにとって見易い関連情報を表示することができる。 In this way, it is possible to control whether the same related information is displayed continuously or switched to display another related information based on the relative positional relationship of a plurality of target images included in the image. Can be done. Therefore, even when a plurality of images are continuously input, the related information is not frequently switched, and the related information that is easy for the user to see can be displayed.

図3(a)及び図3(b)は、第1の実施形態に係る情報処理装置の適用例を示す模式図である。
図3(a)は、複数の対象物を例示する模式図である。
図3(b)は、作業者80が情報処理装置110を持って複数の対象物を撮像しながら地点Xから地点Zまで移動する様子を例示する模式図である。
3A and 3B are schematic views showing an application example of the information processing apparatus according to the first embodiment.
FIG. 3A is a schematic diagram illustrating a plurality of objects.
FIG. 3B is a schematic view illustrating how the worker 80 moves from the point X to the point Z while taking an image of a plurality of objects with the information processing device 110.

図3(a)に表すように、実空間RSには、第1対象物71、第2対象物72、及び第3対象物73が存在する。図3(b)に表すように、情報処理装置110は、例えば、カメラ(撮像部60)を備えたタブレット端末である。情報処理装置110には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80はこの第1関連情報41を見ながら第1〜第3対象物71〜73に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、第1〜第3対象物71〜73に対して、情報処理装置110をかざしながら、移動している。第1画像61(地点X)は、第1像81、第2像82に加え、さらに、第3対象物73の第5像85を含む。第2画像62(地点Z)は、第3像83、第4像84に加え、第3対象物73の第6像86を含む。 As shown in FIG. 3A, there are a first object 71, a second object 72, and a third object 73 in the real space RS. As shown in FIG. 3B, the information processing device 110 is, for example, a tablet terminal provided with a camera (imaging unit 60). For example, the information processing device 110 displays the first related information 41 relating to the first object 71, and the worker 80 displays the first related information 41 on the first to third objects 71 to 73 while looking at the first related information 41. approach. The worker 80 moves in the order of point X, point Y, and point Z. The worker 80 is moving while holding the information processing device 110 over the first to third objects 71 to 73. The first image 61 (point X) includes the fifth image 85 of the third object 73 in addition to the first image 81 and the second image 82. The second image 62 (point Z) includes the sixth image 86 of the third object 73 in addition to the third image 83 and the fourth image 84.

本例においては、第1動作Op1は、第1像81に対応付けられた第1関連情報41を、第1画像61に重畳して表示させる第3データd3を生成する。第2動作Op2は、第1位置関係51と第2位置関係52との間の変化の状態が第1状態であり、第1像81を基準としたときの第5像85の相対的な第3位置関係53と、第3像を基準としたときの第6像86の相対的な第4位置関係54と、の間の変化の状態が第3状態のときに、第1関連情報41を、第2画像62に重畳して表示させる第4データd4を生成する。第3状態とは、第1状態と同様に、例えば、第3位置関係53と第4位置関係54との間の変化がない、または、変化が小さい状態を含む。すなわち、第3状態とは、第3位置関係53と第4位置関係54とが実質的に変化しない状態を含む。 In this example, the first operation Op1 generates the third data d3 in which the first related information 41 associated with the first image 81 is superimposed and displayed on the first image 61. In the second operation Op2, the state of change between the first positional relationship 51 and the second positional relationship 52 is the first state, and the relative first of the fifth image 85 when the first image 81 is used as a reference. When the state of change between the three positional relationships 53 and the relative fourth positional relationship 54 of the sixth image 86 with respect to the third image is the third state, the first related information 41 is provided. , The fourth data d4 to be superimposed and displayed on the second image 62 is generated. Similar to the first state, the third state includes, for example, a state in which there is no change or a small change between the third positional relationship 53 and the fourth positional relationship 54. That is, the third state includes a state in which the third positional relationship 53 and the fourth positional relationship 54 do not substantially change.

図4(a)及び図4(b)は、第1の実施形態に係る検出部21の動作を例示する図である。
図4(a)は、第1画像61を例示する模式図である。
図4(b)は、検出部21の動作例を説明するフローチャート図である。
4 (a) and 4 (b) are diagrams illustrating the operation of the detection unit 21 according to the first embodiment.
FIG. 4A is a schematic diagram illustrating the first image 61.
FIG. 4B is a flowchart illustrating an operation example of the detection unit 21.

図4(a)に表すように、情報処理装置110は、地点Xにおいて第1対象物71、第2対象物72、及び第3対象物73を撮像し、それぞれ第1像81、第2像82、及び第5像85を含む第1画像61を取得して画面に表示する。ここで、第1対象物71には文字ラベル「Type B」、第2対象物72には文字ラベル「Type A」、第3対象物73には文字ラベル「Type C」がそれぞれ付与されている。本例においては、第1画像61から文字ラベルを文字認識し、これに基づいて、各対象像(第1像81、第2像82、及び第5像85)の位置を算出すると共に、各対象像の種別を認識する。 As shown in FIG. 4A, the information processing apparatus 110 images the first object 71, the second object 72, and the third object 73 at the point X, and images the first image 81 and the second image, respectively. The first image 61 including the 82 and the fifth image 85 is acquired and displayed on the screen. Here, the first object 71 is given a character label "Type B", the second object 72 is given a character label "Type A", and the third object 73 is given a character label "Type C". .. In this example, the character label is recognized as a character from the first image 61, the position of each target image (first image 81, second image 82, and fifth image 85) is calculated based on the character label, and each of them is calculated. Recognize the type of target image.

図4(b)に表すように、検出部21は、第1画像61から複数の対象像(第1像81、第2像82、及び第5像85)を検出する(ステップS1)。例えば、第1画像61において文字認識を行い、文字を含む像を対象像として検出する。画像から文字を検出する技術は、情景文字検出と呼ばれ様々な方法がある。例えば、画像を複数の小領域に分割し、分割した小領域毎に多次元ベクトルで構成される特徴量を抽出する。特徴量としては、例えば、SIFT(Scale-Invariant Feature Transform)などの局所特徴量を利用することができる。例えば、典型的な文字画像のパターン(大文字または小文字の英数字)を登録したデータベースにあるパターンと局所特徴量によって対応付けて、一定数の対応が取れた小領域に対象像が存在すると判断することができる。これにより、第1画像61から、「Type B」を含む第1像81と、「Type A」を含む第2像82と、「Type C」を含む第5像85と、を検出する。 As shown in FIG. 4B, the detection unit 21 detects a plurality of target images (first image 81, second image 82, and fifth image 85) from the first image 61 (step S1). For example, character recognition is performed on the first image 61, and an image including characters is detected as an object image. The technique for detecting characters from an image is called scene character detection, and there are various methods. For example, the image is divided into a plurality of small areas, and a feature amount composed of a multidimensional vector is extracted for each of the divided small areas. As the feature amount, for example, a local feature amount such as SIFT (Scale-Invariant Feature Transform) can be used. For example, it is determined that the target image exists in a small area with a certain number of correspondences by associating a typical character image pattern (uppercase or lowercase alphanumeric characters) with the pattern in the registered database by the local feature amount. be able to. As a result, the first image 81 including "Type B", the second image 82 including "Type A", and the fifth image 85 including "Type C" are detected from the first image 61.

次に、検出部21は、各対象像(第1像81、第2像82、及び第5像85)の位置を算出する(ステップS2)。ここでは、複数の文字群に基づき各対象像の位置を算出する。例えば、隣接する文字の固まりを文字列として検出し、検出した文字列を内包する外接矩形の重心を対象像の位置として算出する。 Next, the detection unit 21 calculates the position of each target image (first image 81, second image 82, and fifth image 85) (step S2). Here, the position of each target image is calculated based on a plurality of character groups. For example, a mass of adjacent characters is detected as a character string, and the center of gravity of the circumscribing rectangle containing the detected character string is calculated as the position of the target image.

次に、検出部21は、各対象像(第1像81、第2像82、及び第5像85)の種別を認識する(ステップS3)。局所特徴量によって対応付けた文字パターンにより、各対象像の種別、すなわち、第1像81の「Type B」、第2像82の「Type A」、及び第5像85の「Type C」をそれぞれ認識する。 Next, the detection unit 21 recognizes the type of each target image (first image 81, second image 82, and fifth image 85) (step S3). The type of each target image, that is, "Type B" of the first image 81, "Type A" of the second image 82, and "Type C" of the fifth image 85 is determined by the character pattern associated with the local feature amount. Recognize each.

図5(a)及び図5(b)は、第1の実施形態に係る対応部22の動作を例示する図である。
図5(a)は、関連情報40aを例示する図である。
図5(b)は、対応部22の動作例を説明するフローチャート図である。
5 (a) and 5 (b) are diagrams illustrating the operation of the corresponding unit 22 according to the first embodiment.
FIG. 5A is a diagram illustrating related information 40a.
FIG. 5B is a flowchart illustrating an operation example of the corresponding unit 22.

図5(a)に表すように、各対象像(第1像81、第2像82、第5像85)の種別(「Type B」、「Type A」、「Type C」)と、関連情報40a(第1関連情報41、第2関連情報42、第3関連情報43)と、を対応付けるデータベースを保持する。このデータベースは、第1記憶部40に予め格納されている。この例においては、第1像81の「Type B」には、第1対象物71に関する「最初に点検する機器です」(第1関連情報41)が対応する。第2像82の「Type A」には、第2対象物72に関する「メーターが正常範囲かを確認して下さい」(第2関連情報42)が対応する。第5像85の「Type C」には、第3対象物73に関する「スイッチがついているか確認して下さい」(第3関連情報43)が対応する。 As shown in FIG. 5A, it is related to the type (“Type B”, “Type A”, “Type C”) of each target image (first image 81, second image 82, fifth image 85). A database for associating information 40a (first related information 41, second related information 42, third related information 43) is held. This database is stored in advance in the first storage unit 40. In this example, "Type B" of the first image 81 corresponds to "the first device to be inspected" (first related information 41) regarding the first object 71. "Type A" of the second image 82 corresponds to "Please confirm whether the meter is in the normal range" (second related information 42) regarding the second object 72. "Type C" of the fifth image 85 corresponds to "Please check if the switch is on" (third related information 43) regarding the third object 73.

図5(b)に表すように、対応部22は、各対象像の種別に基づいて、データベース(第1記憶部40)を検索し(ステップS11)、各対象像に関連情報を対応付ける(ステップS12)。例えば、第1画像61から検出した第2像82には、「Type A」という種別が付与されている。このため、第2関連情報42、すなわち、「メーターが正常範囲かを確認して下さい」が対応付けられる。同様に、第1像81には、「Type B」という種別が付与されている。このため、第1関連情報41、すなわち、「最初に点検する機器です」が対応付けられる。第5像85には、「Type C」という種別が付与されている。このため、第3関連情報43、すなわち、「スイッチがついているか確認して下さい」が対応付けられる。 As shown in FIG. 5B, the corresponding unit 22 searches the database (first storage unit 40) based on the type of each target image (step S11), and associates related information with each target image (step). S12). For example, the second image 82 detected from the first image 61 is given a type called "Type A". Therefore, the second related information 42, that is, "Please confirm whether the meter is in the normal range" is associated. Similarly, the first image 81 is given a type called "Type B". Therefore, the first related information 41, that is, "the device to be inspected first" is associated. The fifth image 85 is given a type called "Type C". Therefore, the third related information 43, that is, "Please check if the switch is on" is associated.

なお、ここでは、第1像81が、関連情報を表示させる注目対象像として予め設定されている。このため、第1像81に対応付けられた第1関連情報41が、第1画像61に重畳して表示される。 Here, the first image 81 is preset as a target image of interest for displaying related information. Therefore, the first related information 41 associated with the first image 81 is superimposed and displayed on the first image 61.

図3(b)に表すように、地点Zにおける第2画像62に対しても同様の処理が実施される。すなわち、検出部21は、第2画像62から複数の対象像(第3像83、第4像84、及び第6像86)を検出する。検出部21は、各対象像の位置を算出し、各対象像の種別を認識する。対応部22は、各対象像の種別に基づいて、データベース(第1記憶部40)を検索し、各対象像に関連情報を対応付ける。例えば、第2画像62から検出した第4像84には、「Type A」という種別が付与されている。このため、第2関連情報42、すなわち、「メーターが正常範囲かを確認して下さい」が対応付けられる。同様に、第3像83には、「Type B」という種別が付与されている。このため、第1関連情報41、すなわち、「最初に点検する機器です」が対応付けられる。第6像86には、「Type C」という種別が付与されている。このため、第3関連情報43、すなわち、「スイッチがついているか確認して下さい」が対応付けられる。 As shown in FIG. 3B, the same processing is performed on the second image 62 at the point Z. That is, the detection unit 21 detects a plurality of target images (third image 83, fourth image 84, and sixth image 86) from the second image 62. The detection unit 21 calculates the position of each target image and recognizes the type of each target image. The corresponding unit 22 searches the database (first storage unit 40) based on the type of each target image, and associates related information with each target image. For example, the fourth image 84 detected from the second image 62 is given a type called “Type A”. Therefore, the second related information 42, that is, "Please confirm whether the meter is in the normal range" is associated. Similarly, the third image 83 is given a type called "Type B". Therefore, the first related information 41, that is, "the device to be inspected first" is associated. The sixth image 86 is given a type called "Type C". Therefore, the third related information 43, that is, "Please check if the switch is on" is associated.

図6(a)〜図6(d)は、第1の実施形態に係る算出部23の動作を例示する図である。
図6(a)は、算出部23の動作例を説明するフローチャート図である。
図6(b)は、第1相対座標系を例示する模式図である。
図6(c)は、第2相対座標系を例示する模式図である。
図6(d)は、第1〜第4位置関係の算出結果を例示する図である。
6 (a) to 6 (d) are diagrams illustrating the operation of the calculation unit 23 according to the first embodiment.
FIG. 6A is a flowchart illustrating an operation example of the calculation unit 23.
FIG. 6B is a schematic diagram illustrating the first relative coordinate system.
FIG. 6C is a schematic diagram illustrating a second relative coordinate system.
FIG. 6D is a diagram illustrating the calculation results of the first to fourth positional relationships.

図6(a)に表すように、算出部23は、地点Xにおいて第1画像61に含まれる複数の対象像(第1像81、第2像82、第5像85)それぞれの座標を取得する(ステップS21)。そして、算出部23は、これら複数の対象像の相対位置関係を算出するため、相対座標系における中心点を決定する(ステップS22)。例えば、図6(b)に表すように、地点Xにおいて画角の中心に最も近い文字列「Type B」を含む第1像81中の第1位置b1を中心点とする第1相対座標系c1を設定する。そして、算出部23は、第1相対座標系c1に基づいて、図6(d)に表すように、第1位置関係51及び第3位置関係53を算出する(ステップS23)。 As shown in FIG. 6A, the calculation unit 23 acquires the coordinates of each of the plurality of target images (first image 81, second image 82, fifth image 85) included in the first image 61 at the point X. (Step S21). Then, the calculation unit 23 determines the center point in the relative coordinate system in order to calculate the relative positional relationship of these plurality of target images (step S22). For example, as shown in FIG. 6B, a first relative coordinate system centered on the first position b1 in the first image 81 including the character string “Type B” closest to the center of the angle of view at the point X. Set c1. Then, the calculation unit 23 calculates the first positional relationship 51 and the third positional relationship 53 based on the first relative coordinate system c1 as shown in FIG. 6D (step S23).

ここで、第1相対座標系c1は、第1軸a1と、第2軸a2と、を含む。第1軸a1は、第1位置b1を通り第1方向D1に延びる。第2軸a2は、第1位置b1を通り第1方向D1と交差する第2方向D2に延びる。第1方向D1は、例えば、第1画像61のX軸方向である。第2方向D2は、例えば、第1画像61のY軸方向である。 Here, the first relative coordinate system c1 includes the first axis a1 and the second axis a2. The first axis a1 passes through the first position b1 and extends in the first direction D1. The second axis a2 extends in the second direction D2 through the first position b1 and intersecting the first direction D1. The first direction D1 is, for example, the X-axis direction of the first image 61. The second direction D2 is, for example, the Y-axis direction of the first image 61.

第1位置関係51は、第1向きhd1と、第2向きhd2と、を含む。第1向きhd1は、第3方向D3の第1軸a1に沿う向きである。第3方向D3は、第1像81から第2像82に向かう方向である。第2向きhd2は、第3方向D3の第2軸a2に沿う向きである。すなわち、第2像82が第2軸a2よりも右側にあれば、第1向きhd1は右向きとなる。第1向きhd1が右向きの状態を「+」で表す。第2像82が第2軸a2よりも左側にあれば、第1向きhd1は左向きとなる。第1向きhd1が左向きの状態を「−」で表す。また、第2像82が第1軸a1よりも上側にあれば、第2向きhd2は上向きとなる。第2向きhd2が上向きの状態を「+」で表す。第2像82が第1軸a1よりも下側にあれば、第2向きhd2は下向きとなる。第2向きhd2が下向きの状態を「−」で表す。図6(b)の例の場合、第1像81(Type B)と第2像82(Type A)との間の位置関係は、(左側、上側)となるため、(第1向きhd1、第2向きhd2)は、(−、+)と表される。 The first positional relationship 51 includes a first-direction hd1 and a second-direction hd2. The first direction hd1 is a direction along the first axis a1 in the third direction D3. The third direction D3 is a direction from the first image 81 to the second image 82. The second direction hd2 is a direction along the second axis a2 in the third direction D3. That is, if the second image 82 is on the right side of the second axis a2, the first orientation hd1 is to the right. The state in which the first direction hd1 is facing right is represented by "+". If the second image 82 is to the left of the second axis a2, the first orientation hd1 is to the left. The state in which the first direction hd1 is facing left is represented by "-". Further, if the second image 82 is above the first axis a1, the second orientation hd2 is upward. The state in which the second direction hd2 is upward is represented by "+". If the second image 82 is below the first axis a1, the second orientation hd2 is downward. The state in which the second direction hd2 is downward is represented by "-". In the case of the example of FIG. 6B, the positional relationship between the first image 81 (Type B) and the second image 82 (Type A) is (left side, upper side), so (first direction hd1, The second orientation hd2) is represented by (-, +).

第3位置関係53は、第5向きhd5と、第6向きhd6と、を含む。第5向きhd5は、第5方向D5の第1軸a1に沿う向きである。第5方向D5は、第1像81から第5像85に向かう方向である。第6向きhd6は、第5方向D5の第2軸a2に沿う向きである。すなわち、第5像85が第2軸a2よりも右側にあれば、第5向きhd5は右向きとなる。第5向きhd5が右向きの状態を「+」で表す。第5像85が第2軸a2よりも左側にあれば、第5向きhd5は左向きとなる。第5向きhd5が左向きの状態を「−」で表す。また、第5像85が第1軸a1よりも上側にあれば、第6向きhd6は上向きとなる。第6向きhd6が上向きの状態を「+」で表す。第5像85が第1軸a1よりも下側にあれば、第6向きhd6は下向きとなる。第6向きhd6が下向きの状態を「−」で表す。図6(b)の例の場合、第1像81(Type B)と第5像85(Type C)との間の位置関係は、(右側、上側)となるため、(第5向きhd5、第6向きhd6)は、(+、+)と表される。 The third positional relationship 53 includes a fifth orientation hd5 and a sixth orientation hd6. The fifth direction hd5 is a direction along the first axis a1 in the fifth direction D5. The fifth direction D5 is a direction from the first image 81 to the fifth image 85. The sixth direction hd6 is a direction along the second axis a2 in the fifth direction D5. That is, if the fifth image 85 is on the right side of the second axis a2, the fifth orientation hd5 is to the right. The state in which the fifth direction hd5 is facing right is represented by "+". If the fifth image 85 is on the left side of the second axis a2, the fifth orientation hd5 is to the left. The state in which the fifth direction hd5 is facing left is represented by "-". Further, if the fifth image 85 is above the first axis a1, the sixth orientation hd6 is upward. The state in which the sixth direction hd6 is upward is represented by "+". If the fifth image 85 is below the first axis a1, the sixth orientation hd6 is downward. The state in which the sixth direction hd6 is downward is represented by "-". In the case of the example of FIG. 6B, the positional relationship between the first image 81 (Type B) and the fifth image 85 (Type C) is (right side, upper side), so (fifth direction hd5, The sixth orientation hd6) is represented as (+, +).

算出部23は、地点Zにおいて第2画像62に対して同様の処理を実施する。つまり、算出部23は、第2画像62に含まれる複数の対象像(第3像83、第4像84、第6像86)それぞれの座標を取得する(ステップS21)。そして、算出部23は、これら複数の対象像の相対位置関係を算出するため、相対座標系における中心点を決定する(ステップS22)。例えば、図6(c)に表すように、地点Zにおいて画角の中心に最も近い文字列「Type B」を含む第3像83の第2位置b2を中心点とする第2相対座標系c2を設定する。そして、算出部23は、第2相対座標系c2に基づいて、図6(d)に表すように、第2位置関係52及び第4位置関係54を算出する(ステップS23)。 The calculation unit 23 performs the same processing on the second image 62 at the point Z. That is, the calculation unit 23 acquires the coordinates of each of the plurality of target images (third image 83, fourth image 84, sixth image 86) included in the second image 62 (step S21). Then, the calculation unit 23 determines the center point in the relative coordinate system in order to calculate the relative positional relationship of these plurality of target images (step S22). For example, as shown in FIG. 6 (c), the second relative coordinate system c2 centered on the second position b2 of the third image 83 including the character string “Type B” closest to the center of the angle of view at the point Z. To set. Then, the calculation unit 23 calculates the second positional relationship 52 and the fourth positional relationship 54 based on the second relative coordinate system c2, as shown in FIG. 6D (step S23).

ここで、第2相対座標系c2は、第3軸a3と、第4軸a4と、を含む。第3軸a3は、第2位置b2を通り第1方向D1に延びる。第4軸a4は、第2位置b2を通り第1方向D2と交差する第2方向D2に延びる。第1方向D1は、例えば、第2画像62のX軸方向である。第2方向D2は、例えば、第2画像62のY軸方向である。 Here, the second relative coordinate system c2 includes the third axis a3 and the fourth axis a4. The third axis a3 passes through the second position b2 and extends in the first direction D1. The fourth axis a4 extends in the second direction D2 through the second position b2 and intersecting the first direction D2. The first direction D1 is, for example, the X-axis direction of the second image 62. The second direction D2 is, for example, the Y-axis direction of the second image 62.

第2位置関係52は、第3向きhd3と、第4向きhd4と、を含む。第3向きhd3は、第4方向D4の第3軸a3に沿う向きである。第4方向D4は、第3像83から第4像84に向かう方向である。第4向きhd4は、第4方向D4の第4軸a4に沿う向きである。すなわち、第4像84が第4軸a4よりも右側にあれば、第3向きhd3は右向きとなる。第3向きhd3が右向きの状態を「+」で表す。第4像84が第4軸a4よりも左側にあれば、第3向きhd3は左向きとなる。第3向きhd3が左向きの状態を「−」で表す。また、第4像84が第3軸a3よりも上側にあれば、第4向きhd4は上向きとなる。第4向きhd4が上向きの状態を「+」で表す。第4像84が第3軸a3よりも下側にあれば、第4向きhd4は下向きとなる。第4向きhd4が下向きの状態を「−」で表す。図6(c)の例の場合、第3像83(Type B)と第4像84(Type A)との間の位置関係は、(左側、上側)となるため、(第3向きhd3、第4向きhd4)は、(−、+)と表される。 The second positional relationship 52 includes a third orientation hd3 and a fourth orientation hd4. The third direction hd3 is a direction along the third axis a3 in the fourth direction D4. The fourth direction D4 is a direction from the third image 83 to the fourth image 84. The fourth direction hd4 is a direction along the fourth axis a4 in the fourth direction D4. That is, if the fourth image 84 is on the right side of the fourth axis a4, the third orientation hd3 is to the right. The state in which the third direction hd3 is facing right is represented by "+". If the fourth image 84 is on the left side of the fourth axis a4, the third orientation hd3 is to the left. The state in which the third direction hd3 is facing left is represented by "-". Further, if the fourth image 84 is above the third axis a3, the fourth orientation hd4 is upward. The state in which the fourth direction hd4 is upward is represented by "+". If the fourth image 84 is below the third axis a3, the fourth orientation hd4 is downward. The state in which the fourth direction hd4 is downward is represented by "-". In the case of the example of FIG. 6 (c), the positional relationship between the third image 83 (Type B) and the fourth image 84 (Type A) is (left side, upper side), so (third direction hd3, The fourth orientation hd4) is represented by (-, +).

第4位置関係54は、第7向きhd7と、第8向きhd8と、を含む。第7向きhd7は、第6方向D6の第3軸a3に沿う向きである。第6方向D6は、第3像83から第6像86に向かう方向である。第8向きhd8は、第6方向D6の第4軸a4に沿う向きである。すなわち、第6像86が第4軸a4よりも右側にあれば、第7向きhd7は右向きとなる。第7向きhd7が右向きの状態を「+」で表す。第6像86が第4軸a4よりも左側にあれば、第7向きhd7は左向きとなる。第7向きhd7が左向きの状態を「−」で表す。また、第6像86が第3軸a3よりも上側にあれば、第8向きhd8は上向きとなる。第8向きhd8が上向きの状態を「+」で表す。第6像86が第3軸a3よりも下側にあれば、第8向きhd8は下向きとなる。第8向きhd8が下向きの状態を「−」で表す。図6(c)の例の場合、第3像83(Type B)と第6像86(Type C)との間の位置関係は、(右側、上側)となるため、(第7向きhd7、第8向きhd8)は、(+、+)と表される。 The fourth positional relationship 54 includes a seventh orientation hd7 and an eighth orientation hd8. The seventh direction hd7 is a direction along the third axis a3 in the sixth direction D6. The sixth direction D6 is a direction from the third image 83 to the sixth image 86. The eighth direction hd8 is a direction along the fourth axis a4 in the sixth direction D6. That is, if the sixth image 86 is on the right side of the fourth axis a4, the seventh orientation hd7 is to the right. The state in which the 7th direction hd7 is facing right is represented by "+". If the sixth image 86 is on the left side of the fourth axis a4, the seventh orientation hd7 is leftward. The state in which the 7th direction hd7 is facing left is represented by "-". Further, if the sixth image 86 is above the third axis a3, the eighth orientation hd8 is upward. The state in which the eighth direction hd8 is upward is represented by "+". If the sixth image 86 is below the third axis a3, the eighth orientation hd8 is downward. The state in which the eighth direction hd8 is downward is represented by "-". In the case of the example of FIG. 6 (c), the positional relationship between the third image 83 (Type B) and the sixth image 86 (Type C) is (right side, upper side), so (7th direction hd7, The eighth direction hd8) is represented by (+, +).

図7(a)及び図7(b)は、第1の実施形態に係る表示制御部24の動作を例示する図である。
図7(a)は、表示制御部24の動作例を説明するフローチャート図である。
図7(b)は、注目対象像の決定結果を例示する図である。
7 (a) and 7 (b) are diagrams illustrating the operation of the display control unit 24 according to the first embodiment.
FIG. 7A is a flowchart illustrating an operation example of the display control unit 24.
FIG. 7B is a diagram illustrating the determination result of the target image of interest.

図7(a)及び図7(b)に表すように、表示制御部24は、第1位置関係51と第2位置関係52との間、及び、第3位置関係53と第4位置関係54との間、のそれぞれに実質的な変化があるか否かを判定し(ステップS31)、判定結果に基づいて、表示する関連情報を決定し(ステップS32)、関連情報の表示位置を決定する(ステップS33)。 As shown in FIGS. 7 (a) and 7 (b), the display control unit 24 has a display control unit 24 between the first positional relationship 51 and the second positional relationship 52, and the third positional relationship 53 and the fourth positional relationship 54. It is determined whether or not there is a substantial change in each of the above (step S31), the related information to be displayed is determined based on the determination result (step S32), and the display position of the related information is determined. (Step S33).

本例においては、第1方向hd1と第3方向hd3とが同じであり、第2方向hd2と第4方向hd4とが同じである。このため、第1位置関係51と第2位置関係52との間の変化の状態は、第1状態と判定される。また、第5方向hd5と第7方向hd7とが同じであり、第6方向hd6と第8方向hd8とが同じである。このため、第3位置関係53と第4位置関係54との間の変化の状態は、第3状態と判定される。この場合、表示制御部24は、地点Zにおいて位置関係に実質的な変化がないと判定し、地点Xで表示していた関連情報を継続して表示する。一方、地点Zにおいて位置関係が変化していると判定したときは、注目対象像を再度設定し、表示する関連情報を別の関連情報に切り替える。 In this example, the first direction hd1 and the third direction hd3 are the same, and the second direction hd2 and the fourth direction hd4 are the same. Therefore, the state of change between the first positional relationship 51 and the second positional relationship 52 is determined to be the first state. Further, the fifth direction hd5 and the seventh direction hd7 are the same, and the sixth direction hd6 and the eighth direction hd8 are the same. Therefore, the state of change between the third positional relationship 53 and the fourth positional relationship 54 is determined to be the third state. In this case, the display control unit 24 determines that there is no substantial change in the positional relationship at the point Z, and continuously displays the related information displayed at the point X. On the other hand, when it is determined that the positional relationship has changed at the point Z, the target image of interest is set again, and the related information to be displayed is switched to another related information.

地点X、地点Yにおいては、「Type B」の対象像が注目対象像として決定されていたものとする。地点Zに到着した際に、相対的な位置関係が実質的に変化したか否かを判定する。地点X(及び地点Y)での位置関係と、地点Zでの位置関係と、を比較すると、これらの位置関係は実質的に変化していないことがわかる。そのため、注目対象像は、地点X(及び地点Y)と同じく「Type B」の対象像であると判定できる。この場合、表示すべき関連情報は、第1関連情報41、すなわち、「最初に点検する機器です」と決定できる。 At points X and Y, it is assumed that the target image of "Type B" has been determined as the target image of interest. When arriving at the point Z, it is determined whether or not the relative positional relationship has substantially changed. Comparing the positional relationship at the point X (and the point Y) with the positional relationship at the point Z, it can be seen that these positional relationships have not changed substantially. Therefore, it can be determined that the target image of interest is a “Type B” target image like the point X (and the point Y). In this case, the related information to be displayed can be determined as the first related information 41, that is, "the device to be inspected first".

表示制御部24においては、関連情報の表示位置を適応的に決定してもよい。例えば、注目対象像の周辺で、かつ検出された他の対象像に重ならない位置を表示位置として決定することができる。 The display control unit 24 may adaptively determine the display position of the related information. For example, a position around the target image of interest and not overlapping with other detected target images can be determined as a display position.

図8(a)〜図8(c)は、第1の実施形態に係る関連情報の表示結果を例示する模式図である。
図8(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図8(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図8(c)は、地点Zにおける関連情報の表示結果を例示する図である。
8 (a) to 8 (c) are schematic views illustrating the display result of the related information according to the first embodiment.
FIG. 8A is a diagram illustrating a display result of related information at the point X.
FIG. 8B is a diagram illustrating the display result of the related information at the point Y.
FIG. 8C is a diagram illustrating a display result of related information at the point Z.

図3(a)に表したように、実空間RSには、第1対象物71、第2対象物72、及び第3対象物73が存在する。情報処理装置110には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第3対象物71〜73に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置110をかざしながら、移動している。 As shown in FIG. 3A, the real space RS has a first object 71, a second object 72, and a third object 73. For example, the information processing device 110 displays the first related information 41 regarding the first object 71, and the worker 80 displays the first related information 41 on the first to third objects 71 to 73 while looking at the first related information 41. approach. The worker 80 moves in the order of point X, point Y, and point Z. The worker 80 is moving while holding the information processing device 110 over these plurality of objects.

図8(a)に表すように、第1画像61(地点X)は、第1像81、第2像82に加え、さらに、第3対象物73の第5像85を含む。図8(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84に加え、さらに、第3対象物73の第6像86を含む。地点Xと地点Zとにおいて、複数の対象像の相対的な位置関係に実質的な変化はない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41が継続して表示される。 As shown in FIG. 8A, the first image 61 (point X) includes the fifth image 85 of the third object 73 in addition to the first image 81 and the second image 82. As shown in FIG. 8C, the second image 62 (point Z) further includes the sixth image 86 of the third object 73 in addition to the third image 83 and the fourth image 84. There is no substantial change in the relative positional relationship between the plurality of object images at the points X and Z. Therefore, at the point Z, the first related information 41 displayed at the point X is continuously displayed.

なお、上記の実施例では、地点Xの第1画像、地点Yの第2画像、地点Zの第3画像において対象物が正確に検出された状況を想定している。しかし、連続する、ある画像で対象物が一瞬検出されなかった場合でも、前後の画像により未検出の対象物を補完することによって、相対的な位置関係が変化したかどうかを判断すれば良い。例えば、ユーザから見た風景中に複数の建物を撮像する場合、撮像機器を保持したユーザ自身が移動するために、画像がぼけたり、障害物等によって対象となる建物が一瞬だけ隠れることがある。この場合、前後の画像の検出対象物を補完して対応してもよいし、撮像画像のすべてを処理対象とせず、所定のフレーム間隔で処理してもよい。さらに、例えば、所定のコースを移動する車や荷物など、対象物が動く場合でも同様である。これらは、所定の状況によって切り替える手段を別途用意して、ユーザの指示によって処理を付け加えてもよい。 In the above embodiment, it is assumed that the object is accurately detected in the first image of the point X, the second image of the point Y, and the third image of the point Z. However, even if an object is not detected for a moment in a continuous image, it is sufficient to determine whether or not the relative positional relationship has changed by complementing the undetected object with the images before and after. For example, when a plurality of buildings are imaged in a landscape seen by the user, the image may be blurred or the target building may be hidden for a moment due to an obstacle or the like because the user holding the imaging device moves. .. In this case, the detection objects of the preceding and following images may be complemented and dealt with, or all the captured images may not be processed and may be processed at predetermined frame intervals. Further, the same applies when an object moves, for example, a car or luggage moving on a predetermined course. For these, a means for switching according to a predetermined situation may be separately prepared, and processing may be added according to a user's instruction.

このように、実施形態によれば、作業者の移動によって画像におさまる複数の対象像の位置が変化しても、これら複数の対象像の相対的な位置関係が変化しなければ、同じ関連情報を継続して表示することができる。このため、関連情報を見易く表示することが可能となる。 As described above, according to the embodiment, even if the positions of the plurality of target images that fit in the image change due to the movement of the worker, the same related information does not change as long as the relative positional relationship of the plurality of target images does not change. Can be displayed continuously. Therefore, it is possible to display the related information in an easy-to-read manner.

(第2の実施形態)
図9は、第2の実施形態に係る情報処理装置を例示するブロック図である。
図9に表すように、実施形態に係る情報処理装置111は、さらに、設定部25が設けられている。
(Second Embodiment)
FIG. 9 is a block diagram illustrating an information processing apparatus according to the second embodiment.
As shown in FIG. 9, the information processing apparatus 111 according to the embodiment is further provided with a setting unit 25.

処理部20は、第1位置関係51を導出する動作をさらに実施する。導出の動作は、第1像81の中心と第1画像61の中心との距離が、第2像82の中心と第1画像61の中心との距離よりも短い状態が所定時間継続したときに、第1位置関係51を導出することを含む。第1位置関係51は、第1像81を基準としたときに第2像82の相対的な位置関係である。設定部25は、第1像81を基準に設定する。つまり、第1像81を、注目対象像に設定する。 The processing unit 20 further performs an operation of deriving the first positional relationship 51. The derivation operation is performed when the distance between the center of the first image 81 and the center of the first image 61 is shorter than the distance between the center of the second image 82 and the center of the first image 61 for a predetermined time. , Including deriving the first positional relationship 51. The first positional relationship 51 is a relative positional relationship of the second image 82 with respect to the first image 81. The setting unit 25 sets the first image 81 as a reference. That is, the first image 81 is set as the target image of interest.

図10(a)及び図10(b)は、第2の実施形態に係る情報処理装置の適用例を示す模式図である。
図10(a)は、複数の対象物を例示する模式図である。
図10(b)は、作業者80が情報処理装置111を持って複数の対象物を撮像した様子を例示する模式図である。
10 (a) and 10 (b) are schematic views showing an application example of the information processing apparatus according to the second embodiment.
FIG. 10A is a schematic diagram illustrating a plurality of objects.
FIG. 10B is a schematic view illustrating a state in which the worker 80 holds the information processing device 111 and images a plurality of objects.

図10(a)に表すように、実空間RSには、複数の対象物として、文字列「Type B」を含む第1対象物71と、文字列「Type A」を含む第2対象物72と、文字列「Type C」を含む第3対象物73と、文字列「Type D」を含む第4対象物74と、文字列「Type E」を含む第5対象物75と、が設けられている。 As shown in FIG. 10A, in the real space RS, as a plurality of objects, a first object 71 including the character string “Type B” and a second object 72 including the character string “Type A” A third object 73 including the character string "Type C", a fourth object 74 including the character string "Type D", and a fifth object 75 including the character string "Type E" are provided. ing.

図10(b)に表すように、情報処理装置111は、第1〜第5対象物71〜75を撮像した第1画像61を表示する。第1画像61は、第1対象物71の第1像81と、第2対象物72の第2像82と、第3対象物73の第5像85と、第4対象物74の第7像87と、第5対象物75の第8像88と、を含む。 As shown in FIG. 10B, the information processing apparatus 111 displays the first image 61 in which the first to fifth objects 71 to 75 are captured. The first image 61 is the first image 81 of the first object 71, the second image 82 of the second object 72, the fifth image 85 of the third object 73, and the seventh image of the fourth object 74. Includes image 87 and eighth image 88 of the fifth object 75.

情報処理装置111は、例えば、カメラ(撮像部60)を備えたタブレット端末である。このように、実空間RSに複数の対象物が存在し、作業者80が複数の対象物に対して情報処理装置111をかざしている状況を想定する。本実施形態においては、注目対象像を設定する設定部25が追加される。この設定部25の動作例について以下に説明する。 The information processing device 111 is, for example, a tablet terminal provided with a camera (imaging unit 60). As described above, it is assumed that a plurality of objects exist in the real space RS and the worker 80 holds the information processing device 111 over the plurality of objects. In the present embodiment, a setting unit 25 for setting an image of interest is added. An operation example of the setting unit 25 will be described below.

図11(a)及び図11(b)は、第2の実施形態に係る設定部25の動作を例示する図である。
図11(a)は、設定部25の動作例を説明するフローチャート図である。
図11(b)は、設定部25の動作を例示する模式図である。
11 (a) and 11 (b) are diagrams illustrating the operation of the setting unit 25 according to the second embodiment.
FIG. 11A is a flowchart illustrating an operation example of the setting unit 25.
FIG. 11B is a schematic diagram illustrating the operation of the setting unit 25.

図11(a)に表すように、設定部25は、第1画像61に対して注目対象像の位置を推定するための座標を指定する(ステップS41)。例えば、表示部30に座標入力のためのタッチパネル等を搭載して入力しても良い。または、画角に存在する特定の領域を座標として指定しても良い。ここでは、図11(b)に表すように、画角の中心座標61aを指定する。第1〜第5対象物71〜75に対応する5つの像81、82、85、87、88のうち、「Type B」の第1像81が最も中心座標61aに近い。このため、「Type B」の第1像81を、候補対象像として決定する(ステップS42)。 As shown in FIG. 11A, the setting unit 25 specifies the coordinates for estimating the position of the image of interest with respect to the first image 61 (step S41). For example, a touch panel or the like for inputting coordinates may be mounted on the display unit 30 for input. Alternatively, a specific area existing at the angle of view may be specified as the coordinates. Here, as shown in FIG. 11B, the center coordinates 61a of the angle of view are specified. Of the five images 81, 82, 85, 87, 88 corresponding to the first to fifth objects 71 to 75, the first image 81 of "Type B" is closest to the center coordinates 61a. Therefore, the first image 81 of "Type B" is determined as a candidate target image (step S42).

設定部25は、継続時間を測定する(ステップS43)。例えば、閾値を2秒とした場合、2秒以上、情報処理装置111の画角を固定することで、第1像81を、注目対象像に設定する(ステップS44)。 The setting unit 25 measures the duration (step S43). For example, when the threshold value is set to 2 seconds, the first image 81 is set as the target image of interest by fixing the angle of view of the information processing apparatus 111 for 2 seconds or longer (step S44).

すなわち、第1像81の中心と第1画像61の中心座標61aとの距離は、第2像82の中心と第1画像61の中心座標61aとの距離よりも短い。この位置関係が所定時間継続したときに、第1像81を、注目対象像に設定する。これにより、第1位置関係51が導出される。なお、第1像81と、第5像85、第7像87及び第8像88のそれぞれと、の間のそれぞれの位置関係についても、第1像81と第2像82との間の位置関係と同様である。 That is, the distance between the center of the first image 81 and the center coordinate 61a of the first image 61 is shorter than the distance between the center of the second image 82 and the center coordinate 61a of the first image 61. When this positional relationship continues for a predetermined time, the first image 81 is set as the target image of interest. As a result, the first positional relationship 51 is derived. Regarding the positional relationship between the first image 81 and each of the fifth image 85, the seventh image 87, and the eighth image 88, the position between the first image 81 and the second image 82 is also obtained. Similar to a relationship.

さらに、表示制御部24においては、作業者80が明示的に注目対象像を設定した後は、相対位置関係が変化しない限り、注目対象像に関する関連情報の表示を継続するように制御する。 Further, the display control unit 24 controls so that after the worker 80 explicitly sets the target image of interest, the display of the related information regarding the target image of interest is continued unless the relative positional relationship changes.

図12(a)〜図12(c)は、第2の実施形態に係る関連情報の表示結果を例示する模式図である。
図12(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図12(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図12(c)は、地点Zにおける関連情報の表示結果を例示する図である。
12 (a) to 12 (c) are schematic views illustrating the display result of the related information according to the second embodiment.
FIG. 12A is a diagram illustrating the display result of the related information at the point X.
FIG. 12B is a diagram illustrating the display result of the related information at the point Y.
FIG. 12C is a diagram illustrating the display result of the related information at the point Z.

図10(a)に表したように、実空間RSには、第1〜第5対象物71〜75が存在する。本例における地点X、Y、Zは、図3(b)に示す地点X、Y、Zと同様である。情報処理装置111には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置111をかざしながら、移動している。 As shown in FIG. 10A, there are 71st to 5th objects 71 to 75 in the real space RS. The points X, Y, and Z in this example are the same as the points X, Y, and Z shown in FIG. 3 (b). For example, the information processing device 111 displays the first related information 41 regarding the first object 71, and the worker 80 displays the first related information 41 on the first to fifth objects 71 to 75 while looking at the first related information 41. approach. The worker 80 moves in the order of point X, point Y, and point Z. The worker 80 is moving while holding the information processing device 111 over these plurality of objects.

図12(a)に表すように、第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。図12(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84及び第6像86に加え、さらに、第4対象物74の第9像89、第5対象物75の第10像90を含む。地点Xと地点Zとにおいて、複数の対象像の相対的な位置関係に実質的な変化はない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41が継続して表示される。 As shown in FIG. 12A, the first image 61 (point X) includes the first image 81, the second image 82, the fifth image 85, and the seventh image 87 of the fourth object 74. Includes the eighth image 88 of the fifth object 75. As shown in FIG. 12 (c), the second image 62 (point Z) includes the third image 83, the fourth image 84, the sixth image 86, and the ninth image 89 of the fourth object 74. The tenth image 90 of the fifth object 75 is included. There is no substantial change in the relative positional relationship between the plurality of object images at the points X and Z. Therefore, at the point Z, the first related information 41 displayed at the point X is continuously displayed.

このように、実施形態によれば、設定部を設けることで、作業者が所望の注目対象像を設定することができる、さらに、設定した注目対象像に関する関連情報の表示を継続できるため、関連情報を見易く提供することが可能となる。 As described above, according to the embodiment, by providing the setting unit, the operator can set the desired target image of interest, and further, the display of the related information regarding the set target image of interest can be continued. It is possible to provide information in an easy-to-read manner.

(第3の実施形態)
図13(a)及び図13(b)は、第3の実施形態に係る情報処理装置の適用例を示す模式図である。
図13(a)は、複数の対象物を例示する模式図である。
図13(b)は、作業者80が情報処理装置112を持って複数の対象物を撮像しながら地点Xから地点Zまで移動する様子を例示する模式図である。
(Third Embodiment)
13 (a) and 13 (b) are schematic views showing an application example of the information processing apparatus according to the third embodiment.
FIG. 13A is a schematic diagram illustrating a plurality of objects.
FIG. 13B is a schematic view illustrating how the worker 80 moves from the point X to the point Z while taking an image of a plurality of objects with the information processing device 112.

図13(a)に表すように、実空間RSには、第1〜第5対象物71〜75が存在する。図13(b)に表すように、情報処理装置112は、例えば、カメラ(撮像部60)を備えたタブレット端末である。情報処理装置112には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置112をかざしながら、移動している。第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。第2画像62(地点Z)は、第3像83、第4像84及び第6像86に加え、さらに、第4対象物74の第9像89、第5対象物75の第10像90を含む。 As shown in FIG. 13A, there are 71st to 5th objects 71 to 75 in the real space RS. As shown in FIG. 13B, the information processing device 112 is, for example, a tablet terminal provided with a camera (imaging unit 60). For example, the information processing apparatus 112 displays the first related information 41 regarding the first object 71, and the worker 80 displays the first related information 41 on the first to fifth objects 71 to 75 while looking at the first related information 41. approach. The worker 80 moves in the order of point X, point Y, and point Z. The worker 80 is moving while holding the information processing device 112 over these plurality of objects. In the first image 61 (point X), in addition to the first image 81, the second image 82, and the fifth image 85, the seventh image 87 of the fourth object 74 and the eighth image 88 of the fifth object 75 are obtained. including. In the second image 62 (point Z), in addition to the third image 83, the fourth image 84, and the sixth image 86, the ninth image 89 of the fourth object 74 and the tenth image 90 of the fifth object 75 including.

図14(a)及び図14(b)は、第3の実施形態に係る算出部23の動作を例示する図である。
図14(a)は、算出部23の動作例を説明するフローチャート図である。
図14(b)は、対象像の位置関係の算出結果を例示する図である。
14 (a) and 14 (b) are diagrams illustrating the operation of the calculation unit 23 according to the third embodiment.
FIG. 14A is a flowchart illustrating an operation example of the calculation unit 23.
FIG. 14B is a diagram illustrating the calculation result of the positional relationship of the target image.

本実施形態においては、第1画像61に表示される全ての対象像の中から、注目対象像と距離の近い対象像を選択的に抽出し、抽出した対象像のみを用いて相対位置関係の変化を判定する。 In the present embodiment, a target image having a close distance to the target image of interest is selectively extracted from all the target images displayed on the first image 61, and only the extracted target image is used to establish a relative positional relationship. Judge the change.

すなわち、算出部23は、第1画像61(地点X)に含まれる複数の対象像、すなわち、第1像81、第2像82、第5像85、第7像87、及び第8像88のそれぞれの座標を取得する(ステップS51)。算出部23は、複数の対象像間の相対的な位置関係を算出する。これにより、相対座標系の中心点を決定する(ステップS52)。例えば、地点Xにおいて画角の中心に最も近い「Type B」の第1像81を注目対象像として決定し、第1像81の位置を、相対座標系の中心点として決定する。 That is, the calculation unit 23 has a plurality of target images included in the first image 61 (point X), that is, the first image 81, the second image 82, the fifth image 85, the seventh image 87, and the eighth image 88. (Step S51). The calculation unit 23 calculates the relative positional relationship between the plurality of target images. As a result, the center point of the relative coordinate system is determined (step S52). For example, at the point X, the first image 81 of "Type B" closest to the center of the angle of view is determined as the target image of interest, and the position of the first image 81 is determined as the center point of the relative coordinate system.

「Type B」の第1像81を基準としたときに、「Type A」の第2像82と、「Type C」の第5像85と、「Type D」の第7像87と、「Type E」の第8像88と、のそれぞれについて、相対的な位置関係を算出する。この位置関係の算出方法は、前述の図6(a)〜図6(d)で説明した通りである。そしてさらに、第1像81の大きさなどに基づいて基準距離を設定し、第1像81と、他の像それぞれ(第2像82、第5像85、第7像87、第8像88)との距離を求める。 Based on the first image 81 of "Type B", the second image 82 of "Type A", the fifth image 85 of "Type C", the seventh image 87 of "Type D", and " The relative positional relationship is calculated for each of the 8th image 88 of "Type E". The method of calculating this positional relationship is as described in FIGS. 6 (a) to 6 (d) described above. Further, a reference distance is set based on the size of the first image 81 and the like, and the first image 81 and the other images (second image 82, fifth image 85, seventh image 87, eighth image 88, respectively) are set. ) To find the distance.

図14(b)に表すように、「Type B」の第1像81と、「Type A」の第2像82との関係においては、第2像82は、第1像81の(左側、上側)に位置する。さらに、第1像81と第2像82との間の距離は、例えば、基準距離の5倍である。このため、これを(−、+、5)と表現する。同様に、「Type B」の第1像81と、「Type C」の第5像85との関係においては、(+、+、5)と表現できる。「Type B」の第1像81と、「Type D」の第7像87との関係においては、(−、+、15)と表現できる。「Type B」の第1像81と、「Type E」の第8像88との関係においては、(+、+、15)と表現できる。 As shown in FIG. 14B, in the relationship between the first image 81 of "Type B" and the second image 82 of "Type A", the second image 82 is the (left side, left side, Located on the upper side). Further, the distance between the first image 81 and the second image 82 is, for example, five times the reference distance. Therefore, this is expressed as (-, +5). Similarly, in the relationship between the first image 81 of "Type B" and the fifth image 85 of "Type C", it can be expressed as (+, +5). In the relationship between the first image 81 of "Type B" and the seventh image 87 of "Type D", it can be expressed as (-, +, 15). In the relationship between the first image 81 of "Type B" and the eighth image 88 of "Type E", it can be expressed as (+, +, 15).

ここで、算出部23は、第1像81の位置から一定の範囲内に位置する対象像(ここでは、第2像82、第5像85)のみを選択的に抽出し、抽出した対象像による相対的な位置関係のみを、比較の対象とする。例えば、距離の閾値を、「10」と設定した場合、「Type D」の第7像87の相対的な位置関係と、「Type E」の第8像88の相対的な位置関係とは、比較対象として考慮されない。つまり、「Type D」と「Type E」とは無視される。従って、第2画像62(地点Z)においては、「Type D」の第9像89の相対的な位置関係と、「Type E」の第10像90の相対的な位置関係とは、算出されず、比較対象として考慮されない。 Here, the calculation unit 23 selectively extracts only the target images (here, the second image 82 and the fifth image 85) located within a certain range from the position of the first image 81, and the extracted target images. Only the relative positional relationship by is the target of comparison. For example, when the distance threshold is set to "10", the relative positional relationship of the 7th image 87 of "Type D" and the relative positional relationship of the 8th image 88 of "Type E" are Not considered for comparison. That is, "Type D" and "Type E" are ignored. Therefore, in the second image 62 (point Z), the relative positional relationship of the ninth image 89 of "Type D" and the relative positional relationship of the tenth image 90 of "Type E" are calculated. It is not considered as a comparison target.

図15(a)及び図15(b)は、第3の実施形態に係る表示制御部24の動作を例示する図である。
図15(a)は、表示制御部24の動作例を説明するフローチャート図である。
図15(b)は、注目対象像の決定結果を例示する図である。
15 (a) and 15 (b) are diagrams illustrating the operation of the display control unit 24 according to the third embodiment.
FIG. 15A is a flowchart illustrating an operation example of the display control unit 24.
FIG. 15B is a diagram illustrating the determination result of the target image of interest.

図15(a)に表すように、表示制御部24は、地点X(及び地点Y)における位置関係と、地点Zにおける位置関係と、の間に実質的な変化があるか否かを判定し(ステップS61)、判定結果に基づいて、表示する関連情報を決定し(ステップS62)、関連情報の表示位置を決定する(ステップS63)。 As shown in FIG. 15A, the display control unit 24 determines whether or not there is a substantial change between the positional relationship at the point X (and the point Y) and the positional relationship at the point Z. (Step S61), the related information to be displayed is determined based on the determination result (step S62), and the display position of the related information is determined (step S63).

本例においては、第1方向hd1と第3方向hd3とが同じであり、第2方向hd2と第4方向hd4とが同じである。このため、第1位置関係51と第2位置関係52との間の変化の状態は、第1状態と判定される。また、第5方向hd5と第7方向hd7とが同じであり、第6方向hd6と第8方向hd8とが同じである。このため、第3位置関係53と第4位置関係54との間の変化の状態は、第3状態と判定される。この場合、表示制御部24は、地点Zにおいて位置関係に実質的な変化がないと判定し、地点Xで表示していた関連情報を継続して表示する。一方、地点Zにおいて位置関係が変化していると判定したときは、注目対象像を再度設定し、表示する関連情報を別の関連情報に切り替える。 In this example, the first direction hd1 and the third direction hd3 are the same, and the second direction hd2 and the fourth direction hd4 are the same. Therefore, the state of change between the first positional relationship 51 and the second positional relationship 52 is determined to be the first state. Further, the fifth direction hd5 and the seventh direction hd7 are the same, and the sixth direction hd6 and the eighth direction hd8 are the same. Therefore, the state of change between the third positional relationship 53 and the fourth positional relationship 54 is determined to be the third state. In this case, the display control unit 24 determines that there is no substantial change in the positional relationship at the point Z, and continuously displays the related information displayed at the point X. On the other hand, when it is determined that the positional relationship has changed at the point Z, the target image of interest is set again, and the related information to be displayed is switched to another related information.

地点X、地点Yにおいては、「Type B」の対象像が注目対象像として決定されていたものとする。地点Zに到着した際に、相対的な位置関係が実質的に変化したか否かを判定する。地点X(及び地点Y)での位置関係と、地点Zでの位置関係と、を比較すると、これらの位置関係は実質的に変化していないことがわかる。そのため、注目対象像は、地点X(及び地点Y)と同じく「Type B」の対象像であると判定できる。この場合、表示すべき関連情報は、第1関連情報41、すなわち、「最初に点検する機器です」と決定できる。 At points X and Y, it is assumed that the target image of "Type B" has been determined as the target image of interest. When arriving at the point Z, it is determined whether or not the relative positional relationship has substantially changed. Comparing the positional relationship at the point X (and the point Y) with the positional relationship at the point Z, it can be seen that these positional relationships have not changed substantially. Therefore, it can be determined that the target image of interest is a “Type B” target image like the point X (and the point Y). In this case, the related information to be displayed can be determined as the first related information 41, that is, "the device to be inspected first".

表示制御部24においては、関連情報の表示位置を適応的に決定してもよい。例えば、注目対象像の周辺で、かつ検出された他の対象像に重ならない位置を表示位置として決定することができる。 The display control unit 24 may adaptively determine the display position of the related information. For example, a position around the target image of interest and not overlapping with other detected target images can be determined as a display position.

図16(a)〜図16(c)は、第3の実施形態に係る関連情報の表示結果を例示する模式図である。
図16(a)は、地点Xにおける関連情報の表示結果を例示する図である。
図16(b)は、地点Yにおける関連情報の表示結果を例示する図である。
図16(c)は、地点Zにおける関連情報の表示結果を例示する図である。
16 (a) to 16 (c) are schematic views illustrating the display result of the related information according to the third embodiment.
FIG. 16A is a diagram illustrating a display result of related information at the point X.
FIG. 16B is a diagram illustrating the display result of the related information at the point Y.
FIG. 16C is a diagram illustrating a display result of related information at the point Z.

図13(a)に表したように、実空間RSには、第1〜第5対象物71〜75が存在する。本例における地点X、Y、Zは、図13(b)に示す地点X、Y、Zと同様である。情報処理装置112には、例えば、第1対象物71に関する第1関連情報41が表示されており、作業者80は第1関連情報41を見ながら、第1〜第5対象物71〜75に接近する。作業者80は、地点X、地点Y、地点Zの順に移動する。作業者80は、これら複数の対象物に対して、情報処理装置112をかざしながら、移動している。 As shown in FIG. 13A, there are 71st to 5th objects 71 to 75 in the real space RS. The points X, Y, and Z in this example are the same as the points X, Y, and Z shown in FIG. 13 (b). For example, the information processing apparatus 112 displays the first related information 41 regarding the first object 71, and the worker 80 displays the first related information 41 on the first to fifth objects 71 to 75 while looking at the first related information 41. approach. The worker 80 moves in the order of point X, point Y, and point Z. The worker 80 is moving while holding the information processing device 112 over these plurality of objects.

図16(a)に表すように、第1画像61(地点X)は、第1像81、第2像82及び第5像85に加え、さらに、第4対象物74の第7像87、第5対象物75の第8像88を含む。しかしながら、第7像87と第8像88とは相対位置関係の比較の対象にはならない。点線で囲まれた第1像81、第2像82及び第5像85のみが相対位置関係の比較の対象とされる。図16(c)に表すように、第2画像62(地点Z)は、第3像83、第4像84及び第6像86のみを含む。すなわち、第2画像62には、第4対象物74の第9像89、第5対象物75の第10像90は含まれていないが、これらの対象像の相対位置関係は、比較対象として考慮されていない。このため、地点Zにおいて、地点Xで表示していた第1関連情報41がそのまま継続して表示される。 As shown in FIG. 16A, the first image 61 (point X) includes the first image 81, the second image 82, the fifth image 85, and the seventh image 87 of the fourth object 74. Includes the eighth image 88 of the fifth object 75. However, the 7th image 87 and the 8th image 88 are not subject to comparison of relative positional relationships. Only the first image 81, the second image 82, and the fifth image 85 surrounded by the dotted line are subject to the comparison of the relative positional relationship. As shown in FIG. 16 (c), the second image 62 (point Z) includes only the third image 83, the fourth image 84, and the sixth image 86. That is, the second image 62 does not include the ninth image 89 of the fourth object 74 and the tenth image 90 of the fifth object 75, but the relative positional relationship of these object images is used as a comparison target. Not considered. Therefore, at the point Z, the first related information 41 displayed at the point X is continuously displayed as it is.

このように、実施形態によれば、多くの対象像が表示されるときに、注目対象像と距離の近い対象像に絞って相対位置関係を算出、比較することができる。このため、演算処理を迅速に実施することが可能となる。 As described above, according to the embodiment, when many target images are displayed, the relative positional relationship can be calculated and compared by focusing on the target images having a short distance from the target image of interest. Therefore, the arithmetic processing can be executed quickly.

(第4の実施形態)
図17(a)及び図17(b)は、第4の実施形態に係る情報処理装置の適用例を示す模式図である。
図17(a)は、複数の対象人物を例示する模式図である。
図17(b)は、案内者80aが情報処理装置113を持って複数の対象人物を撮像した様子を例示する模式図である。
(Fourth Embodiment)
17 (a) and 17 (b) are schematic views showing an application example of the information processing apparatus according to the fourth embodiment.
FIG. 17A is a schematic diagram illustrating a plurality of target persons.
FIG. 17B is a schematic view illustrating a state in which the guide 80a holds the information processing device 113 and images a plurality of target persons.

情報処理装置113は、例えば、カメラ(撮像部60)を備えたタブレット端末である。本実施形態においては、実空間の中に複数の人物が存在している。これに対して、案内者80aが情報処理装置113をかざして、注目人物に応じた案内のインストラクションを確認する状況を想定する。 The information processing device 113 is, for example, a tablet terminal provided with a camera (imaging unit 60). In this embodiment, there are a plurality of persons in the real space. On the other hand, it is assumed that the guide 80a holds the information processing device 113 and confirms the guidance instruction according to the person of interest.

図17(a)に表すように、実空間RSには、複数の対象人物として、「10代未満女性」の第1対象人物91と、「30代女性」の第2対象人物92と、「40代男性」の第3対象人物93と、が存在する。 As shown in FIG. 17A, in the real space RS, as a plurality of target persons, a first target person 91 of a “female under teen”, a second target person 92 of a “female in her thirties”, and “ There is a third target person 93 of "male in his 40s".

図17(b)に表すように、情報処理装置113は、第1〜第3対象人物91〜93を撮像した第1画像61を表示する。第1画像61は、第1対象人物91の第1像101と、第2対象人物92の第2像102と、第3対象人物93の第3像103と、を含む。 As shown in FIG. 17B, the information processing device 113 displays the first image 61 in which the first to third target persons 91 to 93 are captured. The first image 61 includes a first image 101 of the first target person 91, a second image 102 of the second target person 92, and a third image 103 of the third target person 93.

図18(a)及び図18(b)は、第4の実施形態に係る検出部21の動作を例示する図である。
図18(a)は、第1画像61を例示する模式図である。
図18(b)は、検出部21の動作例を説明するフローチャート図である。
18 (a) and 18 (b) are diagrams illustrating the operation of the detection unit 21 according to the fourth embodiment.
FIG. 18A is a schematic diagram illustrating the first image 61.
FIG. 18B is a flowchart illustrating an operation example of the detection unit 21.

図18(a)に表すように、各対象人物の像はそれぞれ顔を含む。図18(b)に表すように、検出部21は、顔を検出する(ステップS71)。顔検出の技術には、様々な方法がある。例えば、画像において様々なサイズのウィンドウを走査させながら、顔の有無を検出する。これによれば、大小サイズの異なる顔に対応できる。個々のウィンドウに対して、顔の構造的な特徴を表現する輝度変化の共起パターンを用いて顔の有無を判断する。これにより、照明条件の変動や肌の色の違いなどの影響を抑制することが可能となる。 As shown in FIG. 18A, each target person's image includes a face. As shown in FIG. 18B, the detection unit 21 detects the face (step S71). There are various methods for face detection technology. For example, the presence or absence of a face is detected while scanning windows of various sizes in an image. According to this, it is possible to deal with faces of different sizes. For each window, the presence or absence of a face is determined using a co-occurrence pattern of luminance changes that expresses the structural features of the face. This makes it possible to suppress the effects of fluctuations in lighting conditions and differences in skin color.

検出部21は、顔の特徴点を検出する(ステップS72)。検出した顔領域から、目・鼻・口などの顔の構造的な特徴を表す位置(特徴点)を抽出する。この顔特徴点検出により、対象とする人物像の位置を合わせて取得することができる。 The detection unit 21 detects the feature points of the face (step S72). From the detected face area, positions (feature points) representing structural features of the face such as eyes, nose, and mouth are extracted. By this facial feature point detection, the position of the target person image can be aligned and acquired.

検出部21は、属性を認識する(ステップS73)。属性認識では、検出した顔の様々な属性を判定する。具体例として、性別と年齢を挙げることができる。検出した顔毎に、男性か女性かを区別し、年齢層を10代ごとにクラス分けする。性別や年齢層の識別方法としては、検出した顔の特徴点に基づいて、顔の特徴点と、参照する顔のモデルとの対応付けを行う。顔の向きを正面に補正した上で、事前にクラス毎に収集した顔のパターンから辞書を作成し、辞書との距離が近いクラスを分類結果として出力する。 The detection unit 21 recognizes the attribute (step S73). In attribute recognition, various attributes of the detected face are determined. Specific examples include gender and age. For each detected face, male or female is distinguished, and the age group is classified by teens. As a method for identifying the gender and age group, the facial feature points are associated with the referenced facial model based on the detected facial feature points. After correcting the direction of the face to the front, a dictionary is created from the face patterns collected in advance for each class, and the classes that are close to the dictionary are output as the classification result.

図19(a)及び図19(b)は、第4の実施形態に係る対応部22の動作を例示する図である。
図19(a)は、関連情報40aを例示する図である。
図19(b)は、対応部22の動作例を説明するフローチャート図である。
19 (a) and 19 (b) are diagrams illustrating the operation of the corresponding unit 22 according to the fourth embodiment.
FIG. 19A is a diagram illustrating related information 40a.
FIG. 19B is a flowchart illustrating an operation example of the corresponding unit 22.

図19(a)に表すように、対象人物像の属性種別と、関連情報40aと、を対応付けるデータベースを保持する。このデータベースは、第1記憶部40に予め格納されている。 As shown in FIG. 19A, it holds a database that associates the attribute type of the target person image with the related information 40a. This database is stored in advance in the first storage unit 40.

図19(b)に表すように、対応部22は、各対象人物像の属性種別に基づいて、データベース(第1記憶部40)を検索し(ステップS81)、各対象人物像に関連情報を対応付ける(ステップS82)。対応部22では、画像から検出した顔属性の種別と、関連情報を対応付けるデータベースを保持することができる。例えば、「10代未満女性」の第1像101が注目対象人物像として設定されていたとする。これに基づきデータベースを参照すると、「10代未満」の条件に合致するために、第4関連情報44、すなわち、「子供向け×××イベントが30分後開催されます。案内下さい。」が対応付けされる。 As shown in FIG. 19B, the corresponding unit 22 searches the database (first storage unit 40) based on the attribute type of each target person image (step S81), and provides related information to each target person image. Correspondence (step S82). Corresponding unit 22 can hold a database that associates the type of face attribute detected from the image with the related information. For example, it is assumed that the first image 101 of "a woman under teenager" is set as a person to be watched. If you refer to the database based on this, in order to meet the condition of "under teens", the fourth related information 44, that is, "The XXX event for children will be held in 30 minutes. Please guide me." Be attached.

図20は、第4の実施形態に係る関連情報の表示結果を例示する模式図である。
図20に表すように、情報処理装置113には、「10代未満の女性」の第1像101に、第4関連情報44、すなわち、「子供向け×××イベントが30分後開催されます。案内下さい。」が表示される。
FIG. 20 is a schematic diagram illustrating the display result of the related information according to the fourth embodiment.
As shown in FIG. 20, in the information processing device 113, the fourth related information 44, that is, the "XXX event for children" is held in the first image 101 of "women under teens" 30 minutes later. Please guide me. "Is displayed.

このように、顔を対象とした場合にも、人物の属性種別に合った関連情報を利用者(案内者)に提示することが可能となる。この場合においても、対象とする人物の相対的な位置関係が変わらなければ、同じ関連情報を継続して表示することができる。このため、関連情報を見易く表示することが可能となる。 In this way, even when the face is targeted, it is possible to present the related information suitable for the attribute type of the person to the user (guide). Even in this case, the same related information can be continuously displayed as long as the relative positional relationship of the target person does not change. Therefore, it is possible to display the related information in an easy-to-read manner.

(第5の実施形態)
図21は、第5の実施形態に係る情報処理装置を例示するブロック図である。
図21に表すように、実施形態に係る情報処理装置114は、さらに、操作入力部26が設けられている。
(Fifth Embodiment)
FIG. 21 is a block diagram illustrating an information processing apparatus according to a fifth embodiment.
As shown in FIG. 21, the information processing apparatus 114 according to the embodiment is further provided with an operation input unit 26.

処理部20は、相対位置関係の基準とする注目対象像を、第1像81から第2像82に変更する動作をさらに実施する。変更の動作は、第2像82に対応付けられた第2関連情報42(図5(a)参照)を、第1画像61に重畳して表示させる第5データd5を生成することを含む。処理部20は、操作入力部26により受け付けた操作入力に基づいて、変更の動作を実施する。 The processing unit 20 further performs an operation of changing the target image of interest, which is a reference of the relative positional relationship, from the first image 81 to the second image 82. The operation of the change includes generating the fifth data d5 in which the second related information 42 (see FIG. 5A) associated with the second image 82 is superimposed and displayed on the first image 61. The processing unit 20 executes the change operation based on the operation input received by the operation input unit 26.

図22(a)〜図22(c)は、第5の実施形態に係る情報処理装置の適用例を示す図である。
図22(a)は、操作入力部26を例示するブロック図である。
図22(b)は、操作領域の画面表示例を示す模式図である。
図22(c)は、操作方向と対象像との関係を例示する図である。
22 (a) to 22 (c) are diagrams showing an application example of the information processing apparatus according to the fifth embodiment.
FIG. 22A is a block diagram illustrating the operation input unit 26.
FIG. 22B is a schematic diagram showing a screen display example of the operation area.
FIG. 22C is a diagram illustrating the relationship between the operation direction and the target image.

情報処理装置114は、例えば、カメラ(撮像部60)を備えたタブレット端末である。本実施形態においては、実空間に複数の対象物が存在し、作業者80が情報処理装置114をかざしている状況を想定する。 The information processing device 114 is, for example, a tablet terminal provided with a camera (imaging unit 60). In the present embodiment, it is assumed that there are a plurality of objects in the real space and the worker 80 is holding the information processing device 114.

図22(a)に表すように、操作入力部26は、操作取得部26aと、相対座標算出部26bと、対象像変更部26cと、を含む。操作入力部26は、検出部21から入力された複数の対象像の位置と、設定部25で設定された注目対象像と、さらには、操作入力部26に入力される操作方向と、に基づいて、注目対象像を変更する。例えば、「Type B」の第1像81が注目対象像に設定されている場合、注目対象像を、「Type A」の第2像82または「Type C」の第5像85に変更する変更処理を実施する。 As shown in FIG. 22A, the operation input unit 26 includes an operation acquisition unit 26a, a relative coordinate calculation unit 26b, and a target image change unit 26c. The operation input unit 26 is based on the positions of a plurality of target images input from the detection unit 21, the target image of interest set by the setting unit 25, and the operation direction input to the operation input unit 26. And change the target image of interest. For example, when the first image 81 of "Type B" is set as the image of interest, the change of the image of interest is changed to the second image 82 of "Type A" or the fifth image 85 of "Type C". Carry out the process.

操作取得部26aは、図22(b)に表すように、情報処理装置114の表示画面上に設けられた操作領域26dにおいて、作業者80によるドラッグ方向を検知して操作方向を取得する。ここでは右上に操作したとする。 As shown in FIG. 22B, the operation acquisition unit 26a detects the drag direction by the operator 80 in the operation area 26d provided on the display screen of the information processing device 114 and acquires the operation direction. Here, it is assumed that the operation is performed on the upper right.

相対座標算出部26bは、算出部23で求めた注目対象像(第1像81)を起点とした相対座標(第1位置関係51、第3位置関係53)に基づいて、どの方向にどの対象像が存在するかを求める。本例においては、X軸及びY軸にて操作方向を分割し、4象限、つまり、(−、−)、(−、+)、(+、+)、(+、−)のそれぞれの位置に存在する対象像を特定する。図22(c)に算出結果を示す。 The relative coordinate calculation unit 26b determines which target in which direction based on the relative coordinates (first positional relationship 51, third positional relationship 53) starting from the target image of interest (first image 81) obtained by the calculation unit 23. Ask if the statue exists. In this example, the operation direction is divided along the X-axis and the Y-axis, and the positions of the four quadrants, that is, (-,-), (-, +), (+, +), (+,-), respectively. Identify the target image that exists in. The calculation result is shown in FIG. 22 (c).

対象像変更部26cは、操作取得部26aで取得した操作方向と、相対座標算出部26bで特定した対象像と、を対応付けて、注目対象像を変更する。ここでは、第1像81の右上(相対座標(+、+))に位置する「Type C」の第5像85に注目対象像が変更される。または、第1像81の左上(相対座標(−、+))に位置する「Type A」の第2像82に注目対象像が変更される。 The target image changing unit 26c changes the target image of interest by associating the operation direction acquired by the operation acquisition unit 26a with the target image specified by the relative coordinate calculation unit 26b. Here, the target image of interest is changed to the fifth image 85 of "Type C" located at the upper right (relative coordinates (+, +)) of the first image 81. Alternatively, the image of interest is changed to the second image 82 of "Type A" located at the upper left (relative coordinates (-, +)) of the first image 81.

図23(a)〜図23(c)は、第5の実施形態に係る関連情報の表示結果を例示する模式図である。
図23(a)は、操作前における関連情報の表示結果を例示する図である。
図23(b)は、操作中の画面を例示する図である。
図23(c)は、操作後における関連情報の表示結果を例示する図である。
23 (a) to 23 (c) are schematic views illustrating the display results of the related information according to the fifth embodiment.
FIG. 23A is a diagram illustrating a display result of related information before the operation.
FIG. 23B is a diagram illustrating a screen during operation.
FIG. 23 (c) is a diagram illustrating a display result of related information after the operation.

図23(a)〜図23(c)に表すように、操作入力部26により第5像85に注目対象像が変更されると、表示制御部24は、第5像85に対応付けられている第3関連情報43を、第1画像61に重畳して表示させる。 As shown in FIGS. 23 (a) to 23 (c), when the operation input unit 26 changes the image of interest to the fifth image 85, the display control unit 24 is associated with the fifth image 85. The third related information 43 is superimposed on the first image 61 and displayed.

一方、操作入力部26により第2像82に注目対象像が変更されると、表示制御部24は、第2像82に対応付けられている第2関連情報42を、第1画像61に重畳して表示させる。 On the other hand, when the operation input unit 26 changes the target image of interest to the second image 82, the display control unit 24 superimposes the second related information 42 associated with the second image 82 on the first image 61. To display.

なお、操作入力部26により注目対象像を選択する方法としては、画面上の対象像を直接タッチして注目対象像を選択する方法、トグル操作により注目対象像を選択する方法、同じ方向に複数の対象像がある場合でもドラッグ操作の長さに応じて注目対象像を選択する方法、など様々な実現手段が考えられる。 The method of selecting the target image of interest by the operation input unit 26 includes a method of directly touching the target image on the screen to select the target image of interest, a method of selecting the target image of interest by a toggle operation, and a plurality of methods in the same direction. Even if there is an target image of, various realization means such as a method of selecting the target image of interest according to the length of the drag operation can be considered.

このように、実施形態によれば、作業者が注目対象像を主体的に変更する操作入力部を備えることで、関連情報の継続表示を終了したいタイミングにおいて、関連情報の表示内容を切り替えることができる。これにより、関連情報の見易い表示が可能となる。 As described above, according to the embodiment, by providing the operation input unit for the operator to independently change the image of interest, the display content of the related information can be switched at the timing when the continuous display of the related information is desired to be completed. it can. This makes it possible to display related information in an easy-to-read manner.

(第6の実施形態)
図24は、第6の実施形態に係る情報処理装置を例示するブロック図である。
実施形態に係る情報処理装置115は、デスクトップ型またはラップトップ型の汎用計算機、携帯型の汎用計算機、その他の携帯型の情報機器、撮像デバイスを有する情報機器、スマートフォン、その他の情報処理装置など、様々なデバイスによって実現可能である。
(Sixth Embodiment)
FIG. 24 is a block diagram illustrating an information processing apparatus according to a sixth embodiment.
The information processing device 115 according to the embodiment includes a desktop or laptop type general-purpose computer, a portable general-purpose computer, other portable information devices, an information device having an imaging device, a smartphone, another information processing device, and the like. It can be realized by various devices.

図24に表すように、実施形態の情報処理装置115は、ハードウェアの構成例として、CPU201と、入力部202と、出力部203と、RAM204と、ROM205と、外部メモリインターフェイス206と、通信インターフェイス207と、を含む。 As shown in FIG. 24, the information processing apparatus 115 of the embodiment has a CPU 201, an input unit 202, an output unit 203, a RAM 204, a ROM 205, an external memory interface 206, and a communication interface as hardware configuration examples. 207 and.

上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の情報処理装置による効果と同様な効果を得ることも可能である。上述の実施形態に記載された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RWなど)、半導体メモリ、またはこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の情報処理装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合または読み込む場合はネットワークを通じて取得または読み込んでもよい。 The instructions given in the processing procedure shown in the above embodiments can be executed based on a program that is software. By storing this program in advance in a general-purpose computer system and reading this program, it is possible to obtain an effect similar to the effect of the information processing apparatus of the above-described embodiment. The instructions described in the above-described embodiments are the programs that can be executed by the computer, such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD). It is recorded on a recording medium (± R, DVD ± RW, etc.), a semiconductor memory, or a similar recording medium. The storage format may be any form as long as it is a recording medium that can be read by a computer or an embedded system. The computer can realize the same operation as the information processing apparatus of the above-described embodiment by reading the program from the recording medium and executing the instruction described in the program based on the program on the CPU. Of course, if the computer acquires or loads the program, it may acquire or load it through the network.

また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等で動作するMW(ミドルウェア)などが実施形態を実現するための各処理の一部を実行してもよい。 In addition, an OS (operating system) running on a computer based on instructions of a program installed on a computer or an embedded system from a recording medium, database management software, MW (middleware) running on a network, or the like is an embodiment. A part of each process for realizing it may be executed.

さらに、実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した記録媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。また、記録媒体は1つに限らず、複数の記録媒体から実施形態における処理が実行される場合も、実施形態における記録媒体に含まれる。記録媒体の構成は何れの構成であってもよい。 Further, the recording medium in the embodiment is not limited to a recording medium independent of a computer or an embedded system, but also includes a recording medium in which a program transmitted by a LAN, the Internet, or the like is downloaded and stored or temporarily stored. Further, the recording medium is not limited to one, and the case where the processing in the embodiment is executed from a plurality of recording media is also included in the recording medium in the embodiment. The structure of the recording medium may be any structure.

なお、実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、実施形態における各処理を実行するためのものであって、パーソナルコンピュータ、マイクロコンピュータ等の1つからなる装置、あるいは、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。 The computer or embedded system in the embodiment is for executing each process in the embodiment based on the program stored in the recording medium, and is a device including one such as a personal computer and a microcomputer, or , A system in which a plurality of devices are connected to a network, or the like may be used.

また、実施形態におけるコンピュータとは、パーソナルコンピュータに限らず、情報処理機器に含まれる演算処理装置、マイクロコンピュータ等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。 Further, the computer in the embodiment is not limited to a personal computer, but also includes an arithmetic processing device, a microcomputer, etc. included in an information processing device, and is a general term for devices and devices capable of realizing the functions in the embodiment by a program. ing.

実施形態によれば、対象物に関連する関連情報を見易く表示可能な情報処理装置、情報処理方法及び情報処理プログラムが提供できる。 According to the embodiment, it is possible to provide an information processing device, an information processing method, and an information processing program capable of easily displaying related information related to an object.

以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、取得部、処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。 The embodiments of the present invention have been described above with reference to specific examples. However, the present invention is not limited to these specific examples. For example, regarding the specific configuration of each element such as the acquisition unit and the processing unit, the present invention can be similarly carried out by appropriately selecting from a range known to those skilled in the art, and as long as the same effect can be obtained. It is included in the scope of the invention.

また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。 Further, a combination of any two or more elements of each specific example to the extent technically possible is also included in the scope of the present invention as long as the gist of the present invention is included.

その他、本発明の実施の形態として上述した情報処理装置、情報処理方法及び情報処理プログラムを基にして、当業者が適宜設計変更して実施し得る全ての情報処理装置、情報処理方法及び情報処理プログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。 In addition, based on the above-mentioned information processing device, information processing method, and information processing program as an embodiment of the present invention, all information processing devices, information processing methods, and information processing that can be appropriately designed and implemented by those skilled in the art. The program also belongs to the scope of the present invention as long as it includes the gist of the present invention.

その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。 In addition, within the scope of the idea of the present invention, those skilled in the art can come up with various modified examples and modified examples, and it is understood that these modified examples and modified examples also belong to the scope of the present invention. ..

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

10…取得部、 20…処理部、 21…検出部、 22…対応部、 23…算出部、 24…表示制御部、 25…設定部、 26…操作入力部、 26a…操作取得部、 26b…相対座標算出部、 26c…対象像変更部、 26d…操作領域、 30…表示部、 40…第1記憶部、 40a…関連情報、 41〜44…第1〜第4関連情報、 50…第2記憶部、 50a…位置関係、 51〜54…第1〜第4位置関係、 60…撮像部、 61、62…第1、第2画像、 61a…中心座標、 71〜75…第1〜第5対象物、 80…作業者、 80a…案内者、 81〜90…第1〜第10像、 91〜93…第1〜第3対象人物、 101〜103…第1〜第3像、 110〜115…情報処理装置、 201…CPU、 202…入力部、 203…出力部、 204…RAM、 205…ROM、 206…外部メモリインターフェイス、 207…通信インターフェイス、 a1〜a4…第1〜第4軸、 b1、b2…第1、第2位置、 c1、c2…第1、第2相対座標系、 d1〜d5…第1〜第5データ、 hd1〜hd8…第1〜第8向き、 t1、t2…第1、第2時刻、 RS…実空間 10 ... Acquisition unit, 20 ... Processing unit, 21 ... Detection unit, 22 ... Corresponding unit, 23 ... Calculation unit, 24 ... Display control unit, 25 ... Setting unit, 26 ... Operation input unit, 26a ... Operation acquisition unit, 26b ... Relative coordinate calculation unit, 26c ... Target image change unit, 26d ... Operation area, 30 ... Display unit, 40 ... First storage unit, 40a ... Related information, 41-44 ... First to fourth related information, 50 ... Second Storage unit, 50a ... Positional relationship, 51-54 ... 1st to 4th positional relationships, 60 ... Imaging unit, 61, 62 ... 1st and 2nd images, 61a ... Center coordinates, 71-75 ... 1st to 5th Object, 80 ... worker, 80a ... guide, 81-90 ... 1st to 10th images, 91-93 ... 1st to 3rd target persons, 101-103 ... 1st to 3rd images, 110-115 ... Information processing device, 201 ... CPU, 202 ... Input unit, 203 ... Output unit, 204 ... RAM, 205 ... ROM, 206 ... External memory interface, 207 ... Communication interface, a1 to a4 ... 1st to 4th axes, b1 , B2 ... 1st and 2nd positions, c1, c2 ... 1st and 2nd relative coordinate systems, d1 to d5 ... 1st to 5th data, hd1 to hd8 ... 1st to 8th directions, t1, t2 ... 1, 2nd time, RS ... Real space

Claims (12)

第1時刻における第1画像であって、第1対象物の第1像及び第2対象物の第2像を含む第1画像と、前記第1時刻の後の第2時刻における第2画像であって、前記第1対象物の第3像及び前記第3像とは異なり前記第2対象物の第4像を含む前記第2画像と、を取得する取得部と、
前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する第1動作と、
前記第1画像内における、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第2画像内における、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化がない、または、第2状態における前記第1位置関係と前記第2位置関係との間の変化よりも小さい第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成し、前記第1位置関係と前記第2位置関係との間の変化がある前記第2状態のときに、前記第1関連情報を前記第2画像に重畳して表示させない、または、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させる、第2動作と、
を実施する処理部と、
を備え、
前記処理部は、
前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、
前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、
をさらに実施し、
前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、
前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、
前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、
前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含み、
前記処理部は、前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作をさらに実施し、
前記第1状態では、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じであり、
前記第2状態では、前記第1向きと前記第3向きとが異なる、または、前記第2向きと前記第4向きとが異なる、情報処理装置。
The first image at the first time, the first image including the first image of the first object and the second image of the second object, and the second image at the second time after the first time. An acquisition unit for acquiring the third image of the first object and the second image including the fourth image of the second object unlike the third image.
The first operation of generating the first data in which the first related information associated with the first image is superimposed on the first image and displayed.
The relative first positional relationship of the second image when the first image is used as a reference in the first image, and the third image when the third image is used as a reference in the second image. When there is no change between the relative second positional relationships of the four images, or when the first state is smaller than the change between the first positional relationship and the second positional relationship in the second state. In the second state, where the first related information is superimposed on the second image to generate second data, and there is a change between the first positional relationship and the second positional relationship. The second operation, in which the first related information is not superimposed on the second image and displayed, or another related information different from the first related information is superimposed and displayed on the second image.
And the processing department that implements
With
The processing unit
The operation of calculating the first positional relationship based on the first relative coordinate system centered on the first position in the first image, and
The operation of calculating the second positional relationship based on the second relative coordinate system centered on the second position in the third image, and
Further implemented,
The first relative coordinate system includes a first axis that passes through the first position and extends in a first direction, and a second axis that passes through the first position and extends in a second direction that intersects the first direction.
The first positional relationship includes a first direction along the first axis in the third direction from the first image to the second image and a second direction along the second axis in the third direction. Including
The second relative coordinate system includes a third axis that passes through the second position and extends in the first direction, and a fourth axis that passes through the second position and extends in the second direction.
The second positional relationship includes a third direction along the third axis in the fourth direction from the third image to the fourth image and a fourth direction along the fourth axis in the fourth direction. Including
The processing unit further performs an operation of comparing the first direction and the third direction, comparing the second direction and the fourth direction, and determining whether or not it is in the first state.
In the first state, the first orientation and the third orientation are the same, and the second orientation and the fourth orientation are the same.
In the second state, the information processing device in which the first orientation and the third orientation are different, or the second orientation and the fourth orientation are different.
前記第1動作は、前記第1像と、前記第2像と、を認識する動作をさらに含み、
前記第2動作は、前記第3像と、前記第4像と、を認識する動作をさらに含む、
請求項1記載の情報処理装置。
The first operation further includes an operation of recognizing the first image and the second image.
The second operation further includes an operation of recognizing the third image and the fourth image.
The information processing device according to claim 1.
前記認識は、文字、物体の形状、人の顔の少なくともいずれかの認識を含む請求項2記載の情報処理装置。 The information processing device according to claim 2, wherein the recognition includes recognition of at least one of a character, an object shape, and a human face. 前記処理部は、前記第1位置関係を導出する動作をさらに実施する請求項1〜3のいずれか1つに記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, wherein the processing unit further performs an operation of deriving the first positional relationship. 前記導出の前記動作は、前記第1像の中心と前記第1画像の中心との距離が、前記第2像の中心と前記第1画像の中心との距離よりも短い状態が所定時間継続したときに、前記第1位置関係を導出することを含む請求項4記載の情報処理装置。 In the operation of the derivation, the distance between the center of the first image and the center of the first image is shorter than the distance between the center of the second image and the center of the first image for a predetermined time. The information processing apparatus according to claim 4, wherein the first positional relationship is sometimes derived. 前記第2像は、前記第1像の位置から一定の範囲内に位置し、
前記第4像は、前記第3像の位置から前記範囲内に位置する請求項1〜5のいずれか1つに記載の情報処理装置。
The second image is located within a certain range from the position of the first image.
The information processing device according to any one of claims 1 to 5, wherein the fourth image is located within the range from the position of the third image.
前記第1画像は、第3対象物の第5像をさらに含み、
前記第2画像は、前記第3像及び前記第4像とは異なり前記第3対象物の第6像をさらに含み、
前記第1動作は、前記第1関連情報を、前記第1画像に重畳して表示させる第3データを生成することをさらに含み、
前記第2動作は、前記変化の前記状態が前記第1状態であり、前記第1像を基準としたときの前記第5像の相対的な第3位置関係と、前記第3像を基準としたときの前記第6像の相対的な第4位置関係と、の間の変化の状態が第3状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第4データを生成することをさらに含む請求項1〜6のいずれか1つに記載の情報処理装置。
The first image further includes a fifth image of the third object.
The second image, unlike the third image and the fourth image, further includes a sixth image of the third object.
The first operation further includes generating third data in which the first related information is superimposed and displayed on the first image.
In the second operation, the state of the change is the first state, and the relative third positional relationship of the fifth image when the first image is used as a reference and the third image as a reference. When the relative fourth positional relationship of the sixth image and the state of change between them are the third state, the first related information is superimposed and displayed on the second image. The information processing apparatus according to any one of claims 1 to 6, further comprising generating data.
前記処理部は、前記基準を、前記第1像から前記第2像に変更する動作をさらに実施する請求項1〜7のいずれか1つに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the processing unit further performs an operation of changing the reference from the first image to the second image. 前記変更の前記動作は、前記第2像に対応付けられた第2関連情報を、前記第1画像に重畳して表示させる第5データを生成することをさらに含む請求項8記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the operation of the change further includes generating fifth data in which the second related information associated with the second image is superimposed and displayed on the first image. .. 操作入力部をさらに備え、
前記処理部は、前記操作入力部により受け付けた操作入力に基づいて、前記変更の前記動作を実施する請求項8または9に記載の情報処理装置。
Equipped with an operation input unit
The information processing device according to claim 8 or 9, wherein the processing unit executes the operation of the change based on the operation input received by the operation input unit.
第1時刻における第1画像であって、第1対象物の第1像及び第2対象物の第2像を含む第1画像と、前記第1時刻の後の第2時刻における第2画像であって、前記第1対象物の第3像及び前記第3像とは異なり前記第2対象物の第4像を含む前記第2画像と、を取得し、
前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成し、
前記第1画像内における、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第2画像内における、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化がない、または、第2状態における前記第1位置関係と前記第2位置関係との間の変化よりも小さい第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成し、前記第1位置関係と前記第2位置関係との間の変化がある前記第2状態のときに、前記第1関連情報を前記第2画像に重畳して表示させない、または、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させる、
前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、
前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、
を実施し、
前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、
前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、
前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、
前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含み、
前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作を実施し、
前記第1状態では、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じであり、
前記第2状態では、前記第1向きと前記第3向きとが異なる、または、前記第2向きと前記第4向きとが異なる、情報処理方法。
The first image at the first time, the first image including the first image of the first object and the second image of the second object, and the second image at the second time after the first time. Therefore, the third image of the first object and the second image including the fourth image of the second object, which is different from the third image, are acquired.
The first data in which the first related information associated with the first image is superimposed on the first image and displayed is generated.
The relative first positional relationship of the second image when the first image is used as a reference in the first image, and the third image when the third image is used as a reference in the second image. When there is no change between the relative second positional relationships of the four images, or when the first state is smaller than the change between the first positional relationship and the second positional relationship in the second state. In the second state, where the first related information is superimposed on the second image to generate second data, and there is a change between the first positional relationship and the second positional relationship. , The first related information is not superimposed on the second image and displayed, or another related information different from the first related information is superimposed and displayed on the second image.
The operation of calculating the first positional relationship based on the first relative coordinate system centered on the first position in the first image, and
The operation of calculating the second positional relationship based on the second relative coordinate system centered on the second position in the third image, and
And carry out
The first relative coordinate system includes a first axis that passes through the first position and extends in a first direction, and a second axis that passes through the first position and extends in a second direction that intersects the first direction.
The first positional relationship includes a first direction along the first axis in the third direction from the first image to the second image and a second direction along the second axis in the third direction. Including
The second relative coordinate system includes a third axis that passes through the second position and extends in the first direction, and a fourth axis that passes through the second position and extends in the second direction.
The second positional relationship includes a third direction along the third axis in the fourth direction from the third image to the fourth image and a fourth direction along the fourth axis in the fourth direction. Including
An operation of comparing the first direction and the third direction, comparing the second direction and the fourth direction, and determining whether or not the state is the first state is performed.
In the first state, the first orientation and the third orientation are the same, and the second orientation and the fourth orientation are the same.
In the second state, the information processing method in which the first orientation and the third orientation are different, or the second orientation and the fourth orientation are different.
第1時刻における第1画像であって、第1対象物の第1像及び第2対象物の第2像を含む第1画像と、前記第1時刻の後の第2時刻における第2画像であって、前記第1対象物
の第3像及び前記第3像とは異なり前記第2対象物の第4像を含む前記第2画像と、を取得する処理と、
前記第1像に対応付けられた第1関連情報を、前記第1画像に重畳して表示させる第1データを生成する処理と、
前記第1画像内における、前記第1像を基準としたときの前記第2像の相対的な第1位置関係と、前記第2画像内における、前記第3像を基準としたときの前記第4像の相対的な第2位置関係と、の間の変化がない、または、第2状態における前記第1位置関係と前記第2位置関係との間の変化よりも小さい第1状態のときに、前記第1関連情報を、前記第2画像に重畳して表示させる第2データを生成し、前記第1位置関係と前記第2位置関係との間の変化がある前記第2状態のときに、前記第1関連情報を前記第2画像に重畳して表示させない、または、前記第1関連情報とは異なる別の関連情報を、前記第2画像に重畳して表示させる、処理と、
前記第1像中の第1位置を中心とする第1相対座標系に基づいて前記第1位置関係を算出する動作と、前記第3像中の第2位置を中心とする第2相対座標系に基づいて前記第2位置関係を算出する動作と、を含む処理であって、前記第1相対座標系は、前記第1位置を通り第1方向に延びる第1軸と、前記第1位置を通り前記第1方向と交差する第2方向に延びる第2軸と、を含み、前記第1位置関係は、前記第1像から前記第2像に向かう第3方向の前記第1軸に沿う第1向きと、前記第3方向の前記第2軸に沿う第2向きと、を含み、前記第2相対座標系は、前記第2位置を通り前記第1方向に延びる第3軸と、前記第2位置を通り前記第2方向に延びる第4軸と、を含み、前記第2位置関係は、前記第3像から前記第4像に向かう第4方向の前記第3軸に沿う第3向きと、前記第4方向の前記第4軸に沿う第4向きと、を含む、処理と、
前記第1向きと前記第3向きとを比較し、前記第2向きと前記第4向きとを比較し、前記第1状態か否かを判定する動作を含む処理であって、前記第1状態では、前記第1向きと前記第3向きとが同じであり、前記第2向きと前記第4向きとが同じであり、前記第2状態では、前記第1向きと前記第3向きとが異なまたは、前記第2向きと前記第4向きとが異なる、処理と、
をコンピュータに実施させる情報処理プログラム。
The first image at the first time, the first image including the first image of the first object and the second image of the second object, and the second image at the second time after the first time. The process of acquiring the third image of the first object and the second image including the fourth image of the second object, which is different from the third image.
A process of generating first data in which the first related information associated with the first image is superimposed on the first image and displayed.
The relative first positional relationship of the second image when the first image is used as a reference in the first image, and the third image when the third image is used as a reference in the second image. When there is no change between the relative second positional relationships of the four images, or when the first state is smaller than the change between the first positional relationship and the second positional relationship in the second state. In the second state, where the first related information is superimposed on the second image to generate second data, and there is a change between the first positional relationship and the second positional relationship. , The process of not displaying the first related information superimposed on the second image, or displaying another related information different from the first related information superimposed on the second image.
The operation of calculating the first positional relationship based on the first relative coordinate system centered on the first position in the first image and the second relative coordinate system centered on the second position in the third image. A process including the operation of calculating the second positional relationship based on the above, wherein the first relative coordinate system has a first axis extending in the first direction through the first position and the first position. The first positional relationship includes the second axis extending in the second direction intersecting the first direction, and the first positional relationship is along the first axis in the third direction from the first image to the second image. The second relative coordinate system includes a first direction and a second direction along the second axis in the third direction, and the second relative coordinate system includes a third axis extending in the first direction through the second position and the first direction. The second positional relationship includes a fourth axis that passes through two positions and extends in the second direction, and the second positional relationship is a third direction along the third axis in the fourth direction from the third image to the fourth image. , A fourth orientation along the fourth axis of the fourth orientation, and processing.
The first state is a process including an operation of comparing the first direction and the third direction, comparing the second direction and the fourth direction, and determining whether or not the state is the first state. Then, the first orientation and the third orientation are the same, the second orientation and the fourth orientation are the same, and in the second state, the first orientation and the third orientation are different. that, or the second direction and said fourth direction are different, and processing,
An information processing program that lets a computer execute.
JP2020002579A 2020-01-10 2020-01-10 Information processing equipment, information processing methods and information processing programs Active JP6805375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002579A JP6805375B2 (en) 2020-01-10 2020-01-10 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002579A JP6805375B2 (en) 2020-01-10 2020-01-10 Information processing equipment, information processing methods and information processing programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015175827A Division JP2017054185A (en) 2015-09-07 2015-09-07 Information processor, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2020074150A JP2020074150A (en) 2020-05-14
JP6805375B2 true JP6805375B2 (en) 2020-12-23

Family

ID=70610173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002579A Active JP6805375B2 (en) 2020-01-10 2020-01-10 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP6805375B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509483B2 (en) * 2011-01-31 2013-08-13 Qualcomm Incorporated Context aware augmentation interactions
JP6056178B2 (en) * 2012-04-11 2017-01-11 ソニー株式会社 Information processing apparatus, display control method, and program
US10685487B2 (en) * 2013-03-06 2020-06-16 Qualcomm Incorporated Disabling augmented reality (AR) devices at speed
JP2014191688A (en) * 2013-03-28 2014-10-06 Sony Corp Information processor, information processing method and storage medium
US9098934B2 (en) * 2013-06-27 2015-08-04 Hcl Technologies Limited Augmented reality system with correlation among multiple markers
EP3070585A4 (en) * 2013-11-13 2017-07-05 Sony Corporation Display control device, display control method and program

Also Published As

Publication number Publication date
JP2020074150A (en) 2020-05-14

Similar Documents

Publication Publication Date Title
JP6079832B2 (en) Human computer interaction system, hand-to-hand pointing point positioning method, and finger gesture determination method
US10082879B2 (en) Head mounted display device and control method
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
JP4799105B2 (en) Information processing apparatus and control method therefor, computer program, and storage medium
JP4799104B2 (en) Information processing apparatus and control method therefor, computer program, and storage medium
JP6075110B2 (en) Image processing apparatus, image processing method, and image processing program
US10489640B2 (en) Determination device and determination method of persons included in imaging data
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP2007034525A (en) Information processor, information processing method and computer program
JP2014029656A (en) Image processor and image processing method
JP7188240B2 (en) Human detection device and human detection method
JP2011089784A (en) Device for estimating direction of object
JP6805375B2 (en) Information processing equipment, information processing methods and information processing programs
US11887331B2 (en) Information processing apparatus, control method, and non-transitory storage medium
Desai Segmentation and recognition of fingers using Microsoft Kinect
US10489921B2 (en) Behavior analysis apparatus and behavior analysis method
US10235776B2 (en) Information processing device, information processing method, and information processing program
JP6467994B2 (en) Image processing program, image processing apparatus, and image processing method
JP6858159B2 (en) A telepresence framework that uses a head-mounted device to label areas of interest
KR101844367B1 (en) Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization
JP4449483B2 (en) Image analysis apparatus, image analysis method, and computer program
Viitaniemi et al. Detecting hand-head occlusions in sign language video
WO2023017723A1 (en) Information processing device, information processing system, information processing method, and program
JP7459151B2 (en) Information processing device, information processing system, information processing method, and program
JP7376446B2 (en) Work analysis program and work analysis device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201203

R151 Written notification of patent or utility model registration

Ref document number: 6805375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151