JP6938158B2 - Information processing equipment, information processing methods, and programs - Google Patents

Information processing equipment, information processing methods, and programs Download PDF

Info

Publication number
JP6938158B2
JP6938158B2 JP2017001010A JP2017001010A JP6938158B2 JP 6938158 B2 JP6938158 B2 JP 6938158B2 JP 2017001010 A JP2017001010 A JP 2017001010A JP 2017001010 A JP2017001010 A JP 2017001010A JP 6938158 B2 JP6938158 B2 JP 6938158B2
Authority
JP
Japan
Prior art keywords
pattern
brightness
information processing
image
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017001010A
Other languages
Japanese (ja)
Other versions
JP2017168085A (en
Inventor
将由 山▲崎▼
将由 山▲崎▼
孝嗣 牧田
孝嗣 牧田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/455,291 priority Critical patent/US10685490B2/en
Publication of JP2017168085A publication Critical patent/JP2017168085A/en
Application granted granted Critical
Publication of JP6938158B2 publication Critical patent/JP6938158B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複合現実感や拡張現実感を提供する情報処理装置、情報処理方法、プログラム及び情報処理システムに関する。 The present invention relates to an information processing device, an information processing method, a program and an information processing system that provide mixed reality and augmented reality.

現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(Mixed Reality、以下、MRと表記する。)技術や拡張現実感(Augmented Reality:AR)技術が知られている。これらの技術は、現実空間とコンピュータによって作られる仮想空間を繋ぎ目なく融合する技術である。 Mixed reality (hereinafter referred to as MR) technology and expanded reality (AR) technology are known as technologies for fusing the real world and the virtual world in real time. These technologies are technologies that seamlessly fuse the real space and the virtual space created by a computer.

利用者に対し、MRを提供するための装置の一つとして、ビデオシースルー型の情報処理装置がある。これは、ビデオカメラで現実世界を撮影している画像に、仮想物体を重畳した合成画像を、リアルタイムにディスプレイ等の表示装置に表示させて利用者に提示する装置である。このような装置の一例として、頭部搭載型のビデオシースルー型ヘッドマウンテッドディスプレイ(以下、HMDと表記する。)などが知られている。MRに利用されるビデオシースルー型HMDは、内蔵されているカメラから画像が入力される毎に、その画像撮影時のカメラの現実空間における位置姿勢を計測する。そして、HMDは、そのカメラの位置姿勢と、焦点距離などのカメラの固有パラメータとに基づいて、コンピュータグラフィック(以下、CGと表記する。)を描画し、そのCG画像を、現実空間を撮影した画像上に重畳する。 As one of the devices for providing MR to users, there is a video see-through type information processing device. This is a device that displays a composite image in which a virtual object is superimposed on an image captured in the real world with a video camera on a display device such as a display in real time and presents it to the user. As an example of such a device, a head-mounted video see-through type head mounted display (hereinafter, referred to as HMD) and the like are known. The video see-through type HMD used for MR measures the position and orientation of the camera in the real space at the time of taking the image every time an image is input from the built-in camera. Then, the HMD draws a computer graphic (hereinafter referred to as CG) based on the position and orientation of the camera and the unique parameters of the camera such as the focal length, and captures the CG image in the real space. Overlay on the image.

ここで、MRを実現する上で重要な機能として、位置合わせ機能がある。仮想物体が現実空間に実在するように利用者が感じるためには、仮想物体と現実空間との間の幾何学的な整合性がとれている必要がある。すなわち、MRを体験している利用者から見て、仮想物体は、現実空間の中で存在するべき位置に存在しているように見えなければならない。このため、HMDは、内蔵したカメラの現実空間における位置姿勢を求め、仮想物体と現実空間との間の幾何学的な整合性をとるようになされている。 Here, as an important function for realizing MR, there is an alignment function. In order for the user to feel that the virtual object actually exists in the real space, it is necessary that the virtual object and the real space are geometrically consistent. That is, from the viewpoint of the user who is experiencing MR, the virtual object must appear to exist at a position where it should exist in the real space. For this reason, the HMD is designed to obtain the position and orientation of the built-in camera in the real space and to obtain the geometrical consistency between the virtual object and the real space.

カメラの位置姿勢は、HMDに内蔵されているカメラからの画像情報を基に推定することが可能である。例えば、現実空間内における3次元位置が既知となっている指標を、カメラにより撮影し、その撮影画像内の指標の位置と現実空間内の指標の3次元位置との対応を基に、カメラの位置姿勢を推定するような手法が知られている。既知の指標としては、一例として四角形マーカ、円形マーカ、点マーカなどが用いられ、それら指標が現実空間中に例えば人為的に配置される。非特許文献1には、カメラの撮像画像から検出し易い特徴を有した特徴点マーカを、指標として現実空間の環境内に付与(配置)することで、カメラの位置姿勢を推定可能とする技術が開示されている。 The position and orientation of the camera can be estimated based on the image information from the camera built in the HMD. For example, an index whose three-dimensional position in the real space is known is photographed by a camera, and based on the correspondence between the position of the index in the captured image and the three-dimensional position of the index in the real space, the camera A method for estimating the position and orientation is known. As a known index, a quadrangle marker, a circular marker, a point marker, or the like is used as an example, and these indexes are artificially arranged in the real space, for example. Non-Patent Document 1 describes a technique that enables the position and orientation of a camera to be estimated by adding (arranging) a feature point marker having a feature that is easy to detect from an image captured by the camera in a real space environment as an index. Is disclosed.

Ryuhei Tenmoku, Akito Nishigami, Fumihisa Shibata, Asako Kimura and Hideyuki Tamura: Balancing design freedom and constraints in wall posters masquerading as AR tracking markers, Proc. Human-Computer Interaction International, 2009Ryuhei Tenmoku, Akito Nishigami, Fumihisa Shibata, Asako Kimura and Hideyuki Tamura: Balancing design freedom and constraints in wall posters masquerading as AR tracking markers, Proc. Human-Computer Interaction International, 2009 D. Lowe, "Distinctive image features from scale-invariant keypoints.", International Jurnal of Computer Vision (IJCV), 2004D. Lowe, "Distinctive image features from scale-invariant keypoints.", International Jurnal of Computer Vision (IJCV), 2004 Bay, Herbert, Tinne Tuytelaars, and Luc Van Gool. "Surf: Speeded up robust features.", European Conference on Computer Vision (ECCV), 2006Bay, Herbert, Tinne Tuytelaars, and Luc Van Gool. "Surf: Speeded up robust features.", European Conference on Computer Vision (ECCV), 2006

前述した非特許文献1に記載の技術では、カメラの撮影画像から検出し易い特徴を有した特徴点マーカを指標として環境に付与することで、カメラの位置姿勢を推定できるようにしている。しかしながら、特徴点マーカを環境に付与した場合、その特徴点マーカにより現実空間の景観が損なわれてしまうという問題が生ずる。 In the technique described in Non-Patent Document 1 described above, the position and orientation of the camera can be estimated by adding a feature point marker having a feature that is easy to detect from an image captured by the camera to the environment as an index. However, when the feature point marker is attached to the environment, there arises a problem that the landscape of the real space is spoiled by the feature point marker.

そこで、本発明は、現実空間の景観を損なうことのない指標を生成可能にすることを目的とする。 Therefore, an object of the present invention is to make it possible to generate an index that does not impair the landscape of the real space.

本発明は、画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定する輝度決定手段と、前記現実空間の撮影画像の各画素の色相のヒストグラムから前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて、前記パターンの色を決定する色決定手段と、前記決定された輝度及び色で前記パターンの画像を生成する生成手段と、を有することを特徴とする。 The present invention provides a brightness determining means for determining the brightness of a pattern given as an index to an experience area in the real space based on a threshold value for detecting a feature of an image, and a hue of each pixel of the captured image in the real space. The main hue of the captured image is obtained from the histogram of the above, and the color determining means for determining the color of the pattern based on the main hue and the brightness of the pattern, and the determined brightness and color of the pattern. It is characterized by having a generation means for generating an image.

本発明によれば、現実空間の景観を損なうことのない指標を生成可能である。 According to the present invention, it is possible to generate an index that does not impair the landscape of the real space.

第1の実施形態における情報処理装置の概略構成を示す図である。It is a figure which shows the schematic structure of the information processing apparatus in 1st Embodiment. 指標パターンの元になるパターンの一例を示す図である。It is a figure which shows an example of the pattern which is the basis of the index pattern. 指標パターンの輝度差の組み合わせ例の説明に用いる図である。It is a figure used for explaining the combination example of the luminance difference of an index pattern. 第1の実施形態の情報処理装置の処理のフローチャートである。It is a flowchart of the process of the information processing apparatus of 1st Embodiment. 複数の指標パターンのサイズ例の説明に用いる図である。It is a figure used for explaining the size example of a plurality of index patterns. 複数の指標パターンの組み合わせ例の説明に用いる図である。It is a figure used for explaining the combination example of a plurality of index patterns. 第2の実施形態の情報処理装置の概略構成を示す図である。It is a figure which shows the schematic structure of the information processing apparatus of 2nd Embodiment. パターンの色の決定方法の説明に用いる図である。It is a figure used for explaining the method of determining the color of a pattern. 第2の実施形態の情報処理装置の処理のフローチャートである。It is a flowchart of the process of the information processing apparatus of 2nd Embodiment. 本実施形態をコンピュータにて実現する構成例を示す図である。It is a figure which shows the configuration example which realizes this embodiment by a computer.

以下、添付図面を参照して本発明の好適な実施形態について説明する。
以下の説明では、利用者に対して、現実世界とコンピュータグラフィック(CG)による仮想世界とをリアルタイムに融合させる複合現実感(MR)や拡張現実感(AR)を提供する例を挙げる。MR等は、例えば、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への適用が可能である。利用者に対してMRを提供する装置としては、頭部搭載型のビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)や、背面にビデオカメラを有するタブレット端末のような携帯型情報端末が用いられる。本実施形態では、ビデオシースルー型HMDを例に挙げる。ビデオシースルー型HMDの図示は省略する。本実施形態の情報処理システムは、ビデオシースルー型HMDと、後述する本実施形態の情報処理装置1000とを有して構成される。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
In the following description, an example of providing a user with mixed reality (MR) and augmented reality (AR) that fuse the real world and the virtual world by computer graphics (CG) in real time will be given. MR and the like can be applied to various fields such as assembly support for superimposing and displaying work procedures and wiring during assembly work, and surgical support for superimposing and displaying the state of the body on the body surface of a patient. As a device for providing MR to a user, a head-mounted video see-through type head mounted display (HMD) or a portable information terminal such as a tablet terminal having a video camera on the back is used. In this embodiment, a video see-through type HMD will be taken as an example. The illustration of the video see-through type HMD is omitted. The information processing system of the present embodiment includes a video see-through type HMD and an information processing device 1000 of the present embodiment described later.

本実施形態において利用者にMRを提供する場合、ビデオシースルー型HMDは、内蔵された不図示のカメラによる撮影画像に基づいて、カメラの位置姿勢を推定する。カメラの位置姿勢は、磁気センサや超音波センサ、光学式センサ等の6自由度の物理センサにより計測することもできるが、本実施形態では、物理センサを用いる場合よりも手軽且つ低コストとなる、撮影画像に基づくカメラの位置姿勢推定の手法を用いる。撮影画像に基づくカメラの位置姿勢推定を行う場合、本実施形態のHMDは、現実空間の撮影画像から、例えば、点、線、エッジ、コーナー、輝度勾配などの画像の特徴点を、自然特徴として検出し、その自然特徴に基づいて、カメラの位置姿勢を推定する。 When providing MR to the user in the present embodiment, the video see-through type HMD estimates the position and orientation of the camera based on the image taken by the built-in camera (not shown). The position and orientation of the camera can be measured by a physical sensor having 6 degrees of freedom such as a magnetic sensor, an ultrasonic sensor, and an optical sensor, but in the present embodiment, it is easier and cheaper than the case of using a physical sensor. , The method of estimating the position and orientation of the camera based on the captured image is used. When estimating the position and orientation of the camera based on the captured image, the HMD of the present embodiment uses the feature points of the image such as points, lines, edges, corners, and brightness gradients as natural features from the captured image in the real space. It detects and estimates the position and orientation of the camera based on its natural features.

ただし、現実空間の撮影画像内に自然特徴が少ない場合には、カメラの位置姿勢を推定し難くなるため、本実施形態では、自然特徴として検出可能なパターンを生成し、そのパターンの画像を指標として現実空間に付与する。本実施形態では、生成するパターンを、指標パターンと表記する。詳細は後述するが、本実施形態の指標パターンは、現実空間の撮影画像から自然特徴を検出する際に利用される閾値を基に生成されるパターンであり、撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとして生成される。以下の説明では、撮影画像から自然特徴を検出する際に利用される閾値を、特徴検出閾値と表記する。 However, if there are few natural features in the captured image in the real space, it is difficult to estimate the position and orientation of the camera. Therefore, in the present embodiment, a pattern that can be detected as a natural feature is generated, and the image of the pattern is used as an index. Is given to the real space as. In the present embodiment, the generated pattern is referred to as an index pattern. Although the details will be described later, the index pattern of the present embodiment is a pattern generated based on the threshold value used when detecting the natural feature from the captured image in the real space, and can be detected as the natural feature from the captured image. At the same time, it is generated as a pattern that is difficult for the user to see. In the following description, the threshold value used when detecting a natural feature from a captured image is referred to as a feature detection threshold value.

<第1の実施形態>
図1は、第1の実施形態の指標パターンを生成する情報処理装置1000の概略構成を示す図である。情報処理装置1000は、パターン取得部1010、情報記憶装置1020、パターンサイズ決定部1030、パターン輝度決定部1040、特徴検出閾値取得部1050、パターン出力部1060を有して構成されている。パターン取得部1010〜パターン出力部1060は、本実施形態における決定手段及び生成手段の一例である。パターンサイズ参考情報入力部100は、情報処理装置1000に接続される装置であってもよいし、情報処理装置1000に含まれていてもよい。
<First Embodiment>
FIG. 1 is a diagram showing a schematic configuration of an information processing apparatus 1000 that generates an index pattern of the first embodiment. The information processing device 1000 includes a pattern acquisition unit 1010, an information storage device 1020, a pattern size determination unit 1030, a pattern brightness determination unit 1040, a feature detection threshold acquisition unit 1050, and a pattern output unit 1060. The pattern acquisition unit 1010 to the pattern output unit 1060 are examples of the determination means and the generation means in the present embodiment. The pattern size reference information input unit 100 may be a device connected to the information processing device 1000, or may be included in the information processing device 1000.

パターンサイズ参考情報入力部100は、現実空間の体験領域に関する情報が入力され、その体験領域に関する情報を不図示のメモリ領域に保持する。体験領域に関する情報は、不図示の入力装置を介して、例えば情報処理装置1000の管理者等から入力されてもよいし、演算等により求められてもよい。なお、ここでは、MRの管理者と利用者を分けているが、管理者と利用者は同一人であってもよい。パターンサイズ参考情報入力部100のメモリ領域に保持された体験領域に関する情報は、本実施形態に係る指標パターンを生成する際に使用されるパターンサイズ参考情報の一つとして、情報処理装置1000に送られる。本実施形態において、体験領域に関する情報には、例えば、体験領域内の様々な物体とHMDのカメラとの間の最短距離と最長距離の情報が含まれる。 The pattern size reference information input unit 100 inputs information about the experience area in the real space, and holds the information about the experience area in a memory area (not shown). Information about the experience area may be input from, for example, the administrator of the information processing apparatus 1000 via an input device (not shown), or may be obtained by calculation or the like. Although the MR administrator and the user are separated here, the administrator and the user may be the same person. The information about the experience area held in the memory area of the pattern size reference information input unit 100 is sent to the information processing apparatus 1000 as one of the pattern size reference information used when generating the index pattern according to the present embodiment. Be done. In the present embodiment, the information regarding the experience area includes, for example, information on the shortest distance and the longest distance between various objects in the experience area and the camera of the HMD.

なお、体験領域内の物体には、一例として、組み立て支援や手術支援等にMRが適用される場合の作業台や患者の体だけでなく、部屋の壁や天井、床等も含まれる。また、体験領域に関する情報は、体験領域内の物体とカメラとの間の最短距離と最長距離だけでなく、例えば現実空間の体験領域の奥行き、高さ、幅などの情報を含んでいてもよい。 The objects in the experience area include, for example, not only the work table and the patient's body when MR is applied to assembly support, surgical support, etc., but also the walls, ceiling, floor, and the like of the room. Further, the information regarding the experience area may include not only the shortest distance and the longest distance between the object in the experience area and the camera, but also information such as the depth, height, and width of the experience area in the real space. ..

また、パターンサイズ参考情報には、現実空間を撮影するカメラのレンズの画角、焦点距離、レンズの光学特性、映像撮影時の露出、撮影される画像の解像度などの情報をも含んでいる。これらカメラにおける画角、焦点距離、光学特性、露出、解像度などの情報は、管理者等により入力されてもよいし、パターンサイズ参考情報入力部100が算出してもよい。 The pattern size reference information also includes information such as the angle of view of the lens of the camera that shoots the real space, the focal length, the optical characteristics of the lens, the exposure at the time of video shooting, and the resolution of the captured image. Information such as the angle of view, focal length, optical characteristics, exposure, and resolution of these cameras may be input by an administrator or the like, or may be calculated by the pattern size reference information input unit 100.

情報処理装置1000のパターン取得部1010は、パターンサイズ参考情報入力部100からパターンサイズ参考情報を取得する。また、パターン取得部1010は、情報記憶装置1020から、指標パターンの元になる元パターンの情報を取得する。なお、元パターンは、予め決められているパターンでもよいし、パターン取得部1010から要求がなされる度に生成されるパターンでもよい。パターン取得部1010から要求がなされる度に元パターンが生成される場合には、例えば図示しない元パターン生成部により元パターンが生成される。パターン取得部1010にて取得されたパターンサイズ参考情報と元パターン情報は、パターンサイズ決定部1030に送られる。 The pattern acquisition unit 1010 of the information processing apparatus 1000 acquires pattern size reference information from the pattern size reference information input unit 100. Further, the pattern acquisition unit 1010 acquires the information of the original pattern, which is the source of the index pattern, from the information storage device 1020. The original pattern may be a predetermined pattern or a pattern generated every time a request is made from the pattern acquisition unit 1010. When the original pattern is generated every time a request is made from the pattern acquisition unit 1010, for example, the original pattern is generated by the original pattern generation unit (not shown). The pattern size reference information and the original pattern information acquired by the pattern acquisition unit 1010 are sent to the pattern size determination unit 1030.

情報記憶装置1020は、少なくとも、元パターンの情報と特徴検出閾値の情報とを、記憶している。情報記憶装置1020は、パターン取得部1010からの要求に応じて元パターンの情報をパターン取得部1010に送り、特徴検出閾値取得部1050からの要求に応じて特徴検出閾値の情報を特徴検出閾値取得部1050に送る。特徴検出閾値取得部1050は、情報記憶装置1020から取得した特徴検出閾値の情報を、後述するパターン輝度決定部1040に送る。 The information storage device 1020 stores at least the information of the original pattern and the information of the feature detection threshold value. The information storage device 1020 sends information on the original pattern to the pattern acquisition unit 1010 in response to a request from the pattern acquisition unit 1010, and acquires feature detection threshold information in response to a request from the feature detection threshold acquisition unit 1050. Send to section 1050. The feature detection threshold value acquisition unit 1050 sends the feature detection threshold value information acquired from the information storage device 1020 to the pattern luminance determination unit 1040 described later.

パターンサイズ決定部1030は、パターン取得部1010から送られてくるパターンサイズ参考情報と元パターンの情報とに基づいて、指標パターンのパターンサイズSαを決定する。 The pattern size determination unit 1030 determines the pattern size Sα of the index pattern based on the pattern size reference information sent from the pattern acquisition unit 1010 and the information of the original pattern.

ここで、指標パターンのサイズは、その指標パターンが付与された体験領域をカメラにより撮影したときに、HMDが、撮影画像から指標パターンを自然特徴として検出できるサイズになされている必要がある。また、指標パターンは体験領域内の物体に付与されることになる。このため、指標パターンのサイズは、体験領域内の各物体とカメラとの間の最短距離と最長距離の範囲内の何れかの位置の物体に指標パターンが付与された場合に、HMDが、撮影画像から指標パターンを自然特徴として検出できるサイズでなければならない。また、指標パターンは体験領域の撮影画像から検出されるため、例えばカメラが指標パターンの模様を解像できず、撮影画像内の指標パターンの模様が潰れてしまう場合には指標パターンを検出できないことになる。したがって、指標パターンのサイズは、体験領域内の物体とカメラの間の最短距離と最長距離の範囲内の何れの位置に指標パターンが付与された場合であっても、指標パターンの模様の空間周波数をカメラが解像できるサイズに決定する必要がある。ただし、指標パターンのサイズが必要以上に大きいと、その指標パターンが体験領域内に付与された場合に、MRの利用者等に視認され易くなる可能性が高くなるため、指標パターンサイズは、必要以上に大きくならないサイズに決定する必要がある。このようなことから、パターンサイズ決定部1030は、最短距離と最長距離、パターンの模様の空間周波数、カメラの解像度等の各情報に基づき、撮影画像から指標パターンの自然特徴を検出可能で、且つ必要以上に大きくないパターンサイズSαを算出する。 Here, the size of the index pattern needs to be sized so that the HMD can detect the index pattern as a natural feature from the captured image when the experience area to which the index pattern is given is photographed by the camera. In addition, the index pattern will be given to the object in the experience area. Therefore, the size of the index pattern is determined by the HMD when the index pattern is applied to an object at any position within the range of the shortest distance and the longest distance between each object in the experience area and the camera. The size must be such that the index pattern can be detected as a natural feature from the image. Further, since the index pattern is detected from the captured image in the experience area, for example, if the camera cannot resolve the pattern of the index pattern and the pattern of the index pattern in the captured image is crushed, the index pattern cannot be detected. become. Therefore, the size of the index pattern is the spatial frequency of the pattern of the index pattern regardless of the position within the range of the shortest distance and the longest distance between the object and the camera in the experience area. It is necessary to determine the size that the camera can resolve. However, if the size of the index pattern is larger than necessary, there is a high possibility that the index pattern will be easily visible to MR users, etc. when the index pattern is given in the experience area. Therefore, the index pattern size is necessary. It is necessary to decide on a size that does not become larger than this. Therefore, the pattern size determination unit 1030 can detect the natural feature of the index pattern from the captured image based on each information such as the shortest distance and the longest distance, the spatial frequency of the pattern of the pattern, and the resolution of the camera. Calculate the pattern size Sα that is not larger than necessary.

図2は、元パターン200の一例を示す。図2の例の元パターン200は、例えばB領域202が中心に配され、その周囲にA領域201が配された例えば正方形の模様を有するパターンとなされている。また、A領域201は例えば濃度が高い(輝度が低い)領域となされ、B領域202は例えば濃度が低い(輝度が高い)領域となされている。図2中のサイズSは、パターンサイズ決定部1030によりパターンサイズSαが算出される際の、基準のサイズ(例えば元パターンのサイズ)であるとする。以下、図2に示した元パターン200の例を用いて、パターンサイズ決定部1030によるパターンサイズSαの決定方法について説明する。 FIG. 2 shows an example of the original pattern 200. The original pattern 200 of the example of FIG. 2 is a pattern having, for example, a square pattern in which the B region 202 is arranged in the center and the A region 201 is arranged around the B region 202. Further, the A region 201 is, for example, a region having a high density (low brightness), and the B region 202 is, for example, a region having a low density (high brightness). The size S in FIG. 2 is assumed to be a reference size (for example, the size of the original pattern) when the pattern size Sα is calculated by the pattern size determination unit 1030. Hereinafter, a method of determining the pattern size Sα by the pattern size determining unit 1030 will be described with reference to the example of the original pattern 200 shown in FIG.

先ず、体験領域の奥行き、高さ、幅の情報を基に、体験領域内の物体とカメラとの間の最長距離Dmaxが算出される。最長距離Dmaxは、パターンサイズ決定部1030が算出してもよいし、情報処理装置1000の管理者等により入力されてもよい。体験領域の奥行きをZ、高さをY、幅をXとした場合、体験領域内の物体とカメラとの間の最長距離Dmaxは、式(1)により算出可能である。なお、最短距離Dminは、例えば情報処理装置1000の管理者等により入力されるとする。
Dmax=√(Z2+Y2+X2) ・・・式(1)
First, the longest distance Dmax between the object in the experience area and the camera is calculated based on the information on the depth, height, and width of the experience area. The longest distance Dmax may be calculated by the pattern size determination unit 1030, or may be input by the administrator of the information processing apparatus 1000 or the like. When the depth of the experience area is Z, the height is Y, and the width is X, the longest distance Dmax between the object in the experience area and the camera can be calculated by the equation (1). It is assumed that the shortest distance Dmin is input by, for example, the administrator of the information processing apparatus 1000.
Dmax = √ (Z 2 + Y 2 + X 2 ) ・ ・ ・ Equation (1)

また、カメラの撮像素子の例えば短辺長さをL、元パターン200の模様の空間周波数をFとした場合、基準となるサイズSは、式(2)で表される。なお、カメラの解像度は撮像素子の辺の長さと画素数との比により求められるため、ここでは、カメラの撮像素子の短辺長さLをカメラの解像度を簡易的に表す値として用いている。
S=L/(2×F) ・・・式(2)
Further, when the short side length of the image sensor of the camera is L and the spatial frequency of the pattern of the original pattern 200 is F, the reference size S is represented by the equation (2). Since the resolution of the camera is determined by the ratio of the side length of the image pickup element to the number of pixels, the short side length L of the image pickup element of the camera is used here as a value that simply represents the resolution of the camera. ..
S = L / (2 × F) ・ ・ ・ Equation (2)

そして、パターンサイズ決定部1030は、式(3)と式(4)により、それぞれパターンサイズSαを算出する。式(3)は体験領域内の物体とカメラとの間の最短距離Dminに応じたパターンサイズSαを求める式、式(4)は物体とカメラとの間の最長距離Dmaxに基づくパターンサイズSαを求める式である。
Sα=S×Dmin ・・・式(3)
Sα=S×Dmax ・・・式(4)
Then, the pattern size determination unit 1030 calculates the pattern size Sα by the equations (3) and (4), respectively. Equation (3) is an equation for obtaining the pattern size Sα according to the shortest distance Dmin between the object and the camera in the experience area, and equation (4) is the equation (4) for obtaining the pattern size Sα based on the longest distance Dmax between the object and the camera. This is the formula to be calculated.
Sα = S × Dmin ・ ・ ・ Equation (3)
Sα = S × Dmax ・ ・ ・ Equation (4)

このように、パターンサイズ決定部1030は、体験領域内の物体とカメラとの間の最短距離Dminと最長距離Dmaxに応じた一組のパターンサイズSαを求める。そして、パターンサイズ決定部1030は、それら最短距離Dminと最長距離Dmaxに応じたパターンサイズSαが決定された一組の指標パターンの情報を、パターンサイズ参考情報とともにパターン輝度決定部1040に送る。 In this way, the pattern size determination unit 1030 obtains a set of pattern sizes Sα corresponding to the shortest distance Dmin and the longest distance Dmax between the object in the experience area and the camera. Then, the pattern size determination unit 1030 sends the information of the set of index patterns in which the pattern size Sα corresponding to the shortest distance Dmin and the longest distance Dmax is determined to the pattern brightness determination unit 1040 together with the pattern size reference information.

パターン輝度決定部1040は、パターンサイズ決定部1030にてパターンサイズが決定された一組の指標パターンの情報とパターンサイズ参考情報を受け取り、また、特徴検出閾値取得部1050から特徴検出閾値の情報を受け取る。そして、パターン輝度決定部1040は、パターンサイズ参考情報と特徴検出閾値とに基づいて、各指標パターンの輝度を決定する。具体的には、パターン輝度決定部1040は、特徴検出閾値を超えるように、指標パターンの輝度を決定する。ただし、単に特徴検出閾値を超えるように輝度を決定してしまうと、カメラの撮像素子の特性やレンズの光学特性により、撮影画像内での指標パターンの輝度が、特徴検出閾値を下回ってしまうことがある。このため、パターン輝度決定部1040は、撮影画像内で指標パターンの輝度がどのようになるかを考慮し、パターンサイズ参考情報(カメラの撮像素子の特性やレンズの光学特性などの情報)に基づいて、指標パターンの輝度を決定する。 The pattern luminance determination unit 1040 receives information on a set of index patterns whose pattern size has been determined by the pattern size determination unit 1030 and pattern size reference information, and also receives information on the feature detection threshold value from the feature detection threshold value acquisition unit 1050. receive. Then, the pattern luminance determination unit 1040 determines the luminance of each index pattern based on the pattern size reference information and the feature detection threshold value. Specifically, the pattern luminance determination unit 1040 determines the luminance of the index pattern so as to exceed the feature detection threshold. However, if the brightness is simply determined so as to exceed the feature detection threshold value, the brightness of the index pattern in the captured image may fall below the feature detection threshold value due to the characteristics of the image pickup element of the camera and the optical characteristics of the lens. There is. Therefore, the pattern brightness determining unit 1040 considers what the brightness of the index pattern will be in the captured image, and is based on the pattern size reference information (information such as the characteristics of the image sensor of the camera and the optical characteristics of the lens). To determine the brightness of the index pattern.

図3は、前述の図2の元パターン200に対して輝度が決定された後の指標パターン300の一例を示す。図3の指標パターン300は、例えば特徴検出閾値が輝度「10」の値であった場合に、A領域301の輝度値が「0」、B領域302の輝度値が「10」になされているとする。A領域301は輝度値が「0」であるため黒領域となり、B領域302は輝度値が「10」であるため濃度が高いグレー領域となる。以下、図3の指標パターン300の例を用いて、パターン輝度決定部1040によるパターン輝度決定方法について説明する。 FIG. 3 shows an example of the index pattern 300 after the brightness is determined with respect to the original pattern 200 of FIG. 2 described above. In the index pattern 300 of FIG. 3, for example, when the feature detection threshold value is the value of the luminance “10”, the luminance value of the A region 301 is “0” and the luminance value of the B region 302 is “10”. And. The A region 301 is a black region because the luminance value is "0", and the B region 302 is a gray region having a high density because the luminance value is "10". Hereinafter, the pattern luminance determination method by the pattern luminance determination unit 1040 will be described with reference to the example of the index pattern 300 of FIG.

ここで、HMDが撮影画像内の指標パターンを自然特徴として検出可能にするためには、指標パターンは、自然特徴として検出可能な輝度の条件を保っていなければならない。一例として、撮影画像の輝度勾配により自然特徴を検出する場合を例に挙げる。なお、輝度勾配により自然特徴を検出する手法としては、例えば非特許文献2や非特許文献3などの公知の手法を用いることができる。輝度勾配により自然特徴を検出する場合、図3の指標パターン300のA領域301とB領域302の輝度は、特徴検出閾値以上の輝度差が生じる輝度の組み合わせでなければならない。ただし、その輝度差が必要以上に大きいと、指標パターンが体験領域内に付与された場合に、MRの利用者等に視認され易くなる可能性が高くなる。したがって、指標パターン300のA領域301とB領域302の輝度は、特徴検出閾値以上の輝度差が生じる輝度の組み合わせで、且つ、その輝度差が必要以上に大きくならない輝度に決定する必要がある。図3の例では、このような輝度の決定条件に基づいて、特徴検出閾値が「10」、A領域301の輝度値が「0」、B領域302の輝度値が「10」に決定されている。 Here, in order for the HMD to be able to detect the index pattern in the captured image as a natural feature, the index pattern must maintain the brightness condition that can be detected as a natural feature. As an example, a case where a natural feature is detected by a brightness gradient of a captured image will be taken as an example. As a method for detecting a natural feature by a brightness gradient, a known method such as Non-Patent Document 2 or Non-Patent Document 3 can be used. When a natural feature is detected by the brightness gradient, the brightness of the A region 301 and the B region 302 of the index pattern 300 in FIG. 3 must be a combination of brightness that causes a brightness difference equal to or larger than the feature detection threshold. However, if the brightness difference is larger than necessary, there is a high possibility that the MR user or the like can easily see the index pattern when the index pattern is given in the experience area. Therefore, it is necessary to determine the brightness of the A region 301 and the B region 302 of the index pattern 300 to be a combination of brightness that causes a brightness difference equal to or larger than the feature detection threshold value and a brightness that does not increase the brightness difference more than necessary. In the example of FIG. 3, the feature detection threshold value is determined to be “10”, the luminance value of the A region 301 is determined to be “0”, and the luminance value of the B region 302 is determined to be “10” based on the luminance determination conditions. There is.

なお、ここでは輝度を例に挙げたが、例えば自然特徴の検出に輝度が影響を与えない場合には、元パターンの模様が保たれているのであれば、A領域の輝度とB領域の輝度の組み合わせに制限はない。また、前述の例では指標パターンの「輝度」とのみ記載しているが、例えばRGB色空間やYUV色空間などの色空間で表現される輝度であれば、何れの色空間における輝度であってもよい。また、自然特徴を検出するアルゴリズムは、前述した自然特徴の条件を満たすものを検出可能であるならば、他の自然特徴の条件を定義して、その自然特徴を検出するようなアルゴリズムであってもよい。 Although the luminance is taken as an example here, for example, when the luminance does not affect the detection of natural features, the luminance in the A region and the luminance in the B region are maintained as long as the pattern of the original pattern is maintained. There is no limit to the combination of. Further, in the above example, only the "brightness" of the index pattern is described, but if the brightness is expressed in a color space such as an RGB color space or a YUV color space, the brightness in any color space can be used. May be good. Further, the algorithm for detecting a natural feature is an algorithm that defines the condition of another natural feature and detects the natural feature if it can detect the one satisfying the above-mentioned condition of the natural feature. May be good.

前述のようにして、パターンサイズ決定部1030によりパターンサイズSαが決定され、更に、パターン輝度決定部1040により輝度が決定された一組の指標パターンの情報は、パターン出力部1060へ送られる。パターン出力部1060は、受け取った一組の指標パターンの情報に応じて、指標パターンの画像を生成して出力する。指標パターンの画像出力は、例えば紙媒体への印刷や、光による投影等の何れにより行われてもよい。本実施形態では、指標パターンの画像が印刷された紙媒体を体験領域内に配置することや、指標パターンの画像の投影光を体験領域内に投影することにより、現実空間の体験領域への指標パターンの付与が行われる。 As described above, the pattern size Sα is determined by the pattern size determining unit 1030, and the information of the set of index patterns whose brightness is determined by the pattern luminance determining unit 1040 is sent to the pattern output unit 1060. The pattern output unit 1060 generates and outputs an image of the index pattern according to the information of the received set of index patterns. The image output of the index pattern may be performed by, for example, printing on a paper medium or projection by light. In the present embodiment, a paper medium on which the image of the index pattern is printed is placed in the experience area, and the projected light of the image of the index pattern is projected into the experience area to display the index to the experience area in the real space. The pattern is added.

図4は、図1のパターンサイズ参考情報入力部100と情報処理装置1000によるパターンサイズ参考情報の取得から指標パターンの画像生成及び出力までの処理の流れを示すフローチャートである。以下の説明において、フローチャート内の各ステップST300〜ST350をST300〜ST350と略記し、これは後述する他のフローチャートにおいても同様とする。図4のフローチャートの処理は、例えば、情報処理装置1000の管理者等が、情報処理装置1000に対して指標パターンを生成することを指示したことにより開始する。 FIG. 4 is a flowchart showing a processing flow from acquisition of pattern size reference information by the pattern size reference information input unit 100 and the information processing device 1000 of FIG. 1 to image generation and output of an index pattern. In the following description, each step ST300 to ST350 in the flowchart is abbreviated as ST300 to ST350, and the same applies to other flowcharts described later. The processing of the flowchart of FIG. 4 is started, for example, when the administrator of the information processing apparatus 1000 instructs the information processing apparatus 1000 to generate an index pattern.

図4のフローチャートにおいて、ST300では、パターンサイズ参考情報入力部100は、前述した体験領域に関する情報を含むパターンサイズ参考情報を取得する。ST300の後、情報処理装置1000は、ST310以降の処理を行う。ST310の処理は、情報処理装置1000のパターン取得部1010が行う処理である。 In the flowchart of FIG. 4, in ST300, the pattern size reference information input unit 100 acquires the pattern size reference information including the information regarding the experience area described above. After ST300, the information processing apparatus 1000 performs the processing after ST310. The process of ST310 is a process performed by the pattern acquisition unit 1010 of the information processing apparatus 1000.

ST310では、パターン取得部1010は、パターンサイズ参考情報入力部100からパターンサイズ参考情報を受け取り、また、情報記憶装置1020から元パターンの情報を受け取る。そして、パターン取得部1010は、それら取得した情報をパターンサイズ決定部1030に送る。S310の後、情報処理装置1000は、パターンサイズ決定部1030にて行われるST320に処理を進める。 In ST310, the pattern acquisition unit 1010 receives the pattern size reference information from the pattern size reference information input unit 100, and also receives the information of the original pattern from the information storage device 1020. Then, the pattern acquisition unit 1010 sends the acquired information to the pattern size determination unit 1030. After S310, the information processing apparatus 1000 proceeds to ST320 performed by the pattern size determination unit 1030.

ST320では、パターンサイズ決定部1030は、パターンサイズ参考情報と元パターンの情報を基に、前述したようにしてパターンサイズSαを算出する。そして、パターンサイズ決定部1030は、パターンサイズSαに決定された指標パターンの情報とパターンサイズ参考情報等を、パターン輝度決定部1040に送る。ST320の後、情報処理装置1000は、特徴検出閾値取得部1050にて行われるST330に処理を進める。 In ST320, the pattern size determination unit 1030 calculates the pattern size Sα as described above based on the pattern size reference information and the information of the original pattern. Then, the pattern size determination unit 1030 sends the index pattern information determined for the pattern size Sα, the pattern size reference information, and the like to the pattern luminance determination unit 1040. After ST320, the information processing apparatus 1000 proceeds to ST330 performed by the feature detection threshold value acquisition unit 1050.

ST330では、特徴検出閾値取得部1050は、情報記憶装置1020から特徴検出閾値の情報を取得して、その特徴検出閾値の情報をパターン輝度決定部1040に送る。ST330の後、情報処理装置1000は、パターン輝度決定部1040にて行われるST340に処理を進める。 In ST330, the feature detection threshold value acquisition unit 1050 acquires the feature detection threshold value information from the information storage device 1020 and sends the feature detection threshold value information to the pattern luminance determination unit 1040. After ST330, the information processing apparatus 1000 proceeds to ST340 performed by the pattern luminance determination unit 1040.

ST340では、パターン輝度決定部1040は、前述したように特徴検出閾値を基に指標パターンの輝度を決定する。そして、パターン輝度決定部1040は、輝度が決定された指標パターンの情報を、パターン出力部1060に送る。ST340の後、情報処理装置1000は、パターン出力部1060にて行われるST350に処理を進める。 In ST340, the pattern luminance determination unit 1040 determines the luminance of the index pattern based on the feature detection threshold value as described above. Then, the pattern luminance determination unit 1040 sends the information of the index pattern whose luminance is determined to the pattern output unit 1060. After ST340, the information processing apparatus 1000 proceeds to ST350 performed by the pattern output unit 1060.

ST350では、パターン出力部1060は、前述のようにパターンサイズと輝度が決定された指標パターンの画像を生成して出力する。ST350の後、情報処理装置1000は、図4のフローチャートの処理を終了する。 In the ST350, the pattern output unit 1060 generates and outputs an image of the index pattern in which the pattern size and the brightness are determined as described above. After ST350, the information processing apparatus 1000 ends the processing of the flowchart of FIG.

なお、ST300とST310の処理の順序は入れ替えられてもよく、また、ST320からST340までの処理の順序も適宜入れ替えられてもよいし、それらが並列して実行されてもよい。 The processing order of ST300 and ST310 may be changed, the processing order of ST320 to ST340 may be changed as appropriate, or they may be executed in parallel.

以上説明したように、本実施形態の指標パターンは、現実空間の体験領域に関する情報を含むパターンサイズ参考情報を基に決定されたサイズのパターンであり、且つ、自然特徴を検出する際の特徴検出閾値を基に生成される輝度のパターンとなされている。したがって、本実施形態の指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとなっている。また、体験領域に付与された指標パターンは、HMDの利用者だけでなく、HMDを使用していない第三者に対しても視認し難いパターンであるため、現実空間の景観が損なわれることもない。 As described above, the index pattern of the present embodiment is a pattern of a size determined based on the pattern size reference information including the information about the experience area in the real space, and the feature detection when detecting the natural feature. It is a brightness pattern generated based on the threshold value. Therefore, the index pattern of the present embodiment is a pattern that can be detected as a natural feature from the captured image of the experience area in the real space and is difficult for the user to visually recognize. In addition, since the index pattern given to the experience area is a pattern that is difficult to see not only for HMD users but also for third parties who do not use the HMD, the landscape in the real space may be impaired. No.

<第1の実施形態の変形例1>
第1の実施形態では、最短距離と最長距離に基づく一組のパターンサイズSαの指標パターンを生成する例を挙げたが、例えば図5に示すような各サイズS1〜S6に対応した複数の指標パターン501〜506からなるパターンの集合が生成されてもよい。図5に示すような複数の指標パターン501〜506の集合の場合、指標パターン毎にパターンサイズS1〜S6を決定してもよい。これら各指標パターンのパターンサイズS1〜S6は、前述した最短距離と最長距離、カメラの画角や解像度等に基づく適切なパターンサイズSαの範囲内に入るサイズとして決定される。
<Modification 1 of the first embodiment>
In the first embodiment, an example of generating a set of index patterns of the pattern size Sα based on the shortest distance and the longest distance has been given. For example, a plurality of indexes corresponding to the respective sizes S1 to S6 as shown in FIG. A set of patterns consisting of patterns 501 to 506 may be generated. In the case of a set of a plurality of index patterns 501 to 506 as shown in FIG. 5, the pattern sizes S1 to S6 may be determined for each index pattern. The pattern sizes S1 to S6 of each of these index patterns are determined as sizes within the range of an appropriate pattern size Sα based on the shortest distance and the longest distance, the angle of view of the camera, the resolution, and the like described above.

なお、複数の指標パターンのサイズは、図5の例に限るものではなく、体験領域やカメラ等の外部機器の情報に基づく適切なパターンサイズSαの範囲内であるならば、他のサイズになされてもよい。図5の例においても、前述の第1の実施形態の場合と同様に、指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとなる。 The size of the plurality of index patterns is not limited to the example of FIG. 5, and is set to another size as long as it is within the range of the appropriate pattern size Sα based on the information of the experience area and the external device such as the camera. You may. In the example of FIG. 5, as in the case of the first embodiment described above, the index pattern is a pattern that can be detected as a natural feature from the captured image of the experience area in the real space and is difficult for the user to see. ..

<第1の実施形態の変形例2>
また、第1の実施形態では一組の指標パターンに対して輝度を決定したが、前述した輝度の決定条件を満たすのであれば、例えば図6に示すように複数の輝度による指標パターン601〜606からなるパターンの集合として生成されてもよい。なお、図6は、図5で説明した複数のサイズの複数の指標パターンについて、それぞれ輝度を決定した例を示している。図6の例では、指標パターン601はA領域の輝度が0でB領域の輝度が10、指標パターン602はA領域の輝度が30でB領域の輝度が40、指標パターン603はA領域の輝度が40でB領域の輝度が50となっている。さらに、指標パターン604はA領域の輝度が10でB領域の輝度が20、指標パターン605はA領域の輝度が20でB領域の輝度が30、指標パターン606はA領域の輝度が50でB領域の輝度が60となっている。図6の例においても、前述同様に、指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとなる。
<Modification 2 of the first embodiment>
Further, in the first embodiment, the brightness is determined for a set of index patterns, but if the above-mentioned brightness determination condition is satisfied, for example, as shown in FIG. 6, the index patterns 601 to 606 with a plurality of brightness are used. It may be generated as a set of patterns consisting of. Note that FIG. 6 shows an example in which the brightness of each of the plurality of index patterns of the plurality of sizes described in FIG. 5 is determined. In the example of FIG. 6, the index pattern 601 has 0 in the A region and 10 in the B region, the index pattern 602 has 30 in the A region and 40 in the B region, and the index pattern 603 has the brightness in the A region. Is 40 and the brightness in the B region is 50. Further, the index pattern 604 has a brightness of 10 in the A region and a brightness of the B region of 20, the index pattern 605 has a brightness of 20 in the A region and a brightness of the B region of 30, and the index pattern 606 has a brightness of 50 in the A region and B. The brightness of the area is 60. Also in the example of FIG. 6, similarly to the above, the index pattern is a pattern that can be detected as a natural feature from the captured image of the experience area in the real space and is difficult for the user to see.

<第1の実施形態の変形例3>
第1の実施形態では、パターンサイズ参考情報と特徴検出閾値とに基づいて指標パターンの輝度を決定していたが、パターンが付与される体験領域(例えば、現実の壁や床など)の輝度を考慮して指標パターンの輝度を決定してもよい。
<Modification 3 of the first embodiment>
In the first embodiment, the brightness of the index pattern is determined based on the pattern size reference information and the feature detection threshold value, but the brightness of the experience area (for example, a real wall or floor) to which the pattern is given is determined. The brightness of the index pattern may be determined in consideration.

一例として、壁に指標パターンが付与される例を挙げて説明する。この変形例3の場合、情報処理装置1000は、先ず、指標パターンが付与されることになる現実の壁を撮像した画像を取得して、その撮像画像から壁の輝度を求める。なおこの例の場合、壁を撮像した撮像画像は、パターンサイズ参考情報入力部100を介して情報処理装置1000に入力される。現実の壁を撮像する撮像装置は、HMDのカメラであってもよいし、別途用意されたカメラであってもよい。 As an example, an example in which an index pattern is assigned to the wall will be described. In the case of the third modification, the information processing apparatus 1000 first acquires an image of an actual wall to which the index pattern is to be applied, and obtains the brightness of the wall from the image. In the case of this example, the captured image of the wall is input to the information processing device 1000 via the pattern size reference information input unit 100. The image pickup device that images the actual wall may be an HMD camera or a separately prepared camera.

また、輝度が求められる領域は、撮像画像内に写っている壁の画像領域の中で、現実の壁に対して実際に指標パターンが付与されることになる位置の周囲の領域となされる。そして、その周囲領域内の輝度の平均値が、壁の輝度として求められる。輝度の平均値を求める処理は、一例として、情報処理装置1000のパターン輝度決定部1040等により行われる。 Further, the region where the brightness is required is defined as the region around the position where the index pattern is actually applied to the actual wall in the image region of the wall shown in the captured image. Then, the average value of the brightness in the surrounding area is obtained as the brightness of the wall. As an example, the process of obtaining the average value of the luminance is performed by the pattern luminance determination unit 1040 of the information processing apparatus 1000 or the like.

ここで、求められた壁の輝度が50であった場合、配置される指標パターンの輝度は、例えば60に設定される。この変形例3の場合の指標パターンは、前述した領域Aの輝度又は領域Bの輝度を60としてもよいし、輝度が60となされた一つの領域のみからなるパターン(一例として正方形等のパターン)であってもよい。 Here, when the obtained wall brightness is 50, the brightness of the index pattern to be arranged is set to, for example, 60. In the index pattern in the case of this modification 3, the brightness of the above-mentioned area A or the brightness of the area B may be set to 60, or a pattern consisting of only one area having a brightness of 60 (for example, a pattern such as a square). It may be.

また、指標パターンの輝度は、ユーザが手動で設定してもよいが、HMD等に設けられているフィルタ(カメラの撮影画像から指標パターンを検出する画像処理等に使用される検出フィルタ)のパラメータに応じて自動的に設定されてもよい。これは、壁の輝度と指標パターンの輝度との輝度差が、検出フィルタにより検出可能であればよいからである。 The brightness of the index pattern may be set manually by the user, but it is a parameter of a filter provided in the HMD or the like (a detection filter used for image processing or the like to detect the index pattern from the image captured by the camera). It may be set automatically according to. This is because it is sufficient that the brightness difference between the brightness of the wall and the brightness of the index pattern can be detected by the detection filter.

指標パターンの輝度を自動的に設定する場合、情報処理装置1000の情報記憶装置1020には、HMD等に設けられている検出フィルタのパラメータに関する情報も記憶されている。パターン輝度決定部1040は、検出フィルタのパラメータに関する情報を情報記憶装置1020から読み出し、そのパラメータに関する情報と、前述のように求めた壁の輝度の情報とを基に、検出フィルタが検出可能な指標パラメータの輝度を決定する。 When the brightness of the index pattern is automatically set, the information storage device 1020 of the information processing device 1000 also stores information regarding the parameters of the detection filter provided in the HMD or the like. The pattern brightness determination unit 1040 reads information on the parameters of the detection filter from the information storage device 1020, and is an index that the detection filter can detect based on the information on the parameters and the wall brightness information obtained as described above. Determines the brightness of the parameter.

第1の実施形態の変形例3によれば、指標パターンが配置される現実の壁や床等の輝度も考慮して指標パターンの輝度を決定することにより、HMDが検出し易い一方で、利用者がより視認し難い指標パターンを実現可能となる。 According to the third modification of the first embodiment, the brightness of the index pattern is determined in consideration of the brightness of the actual wall or floor on which the index pattern is arranged, so that the HMD can be easily detected while being used. It is possible to realize an index pattern that is more difficult for a person to see.

<第2の実施形態>
第2の実施形態では、HMDのカメラのような入力機器(撮像装置)と、パターン出力部1060の印刷装置等のような出力機器とにおける入出力機器間の輝度ずれを考慮することにより、利用者等にとって、より視認し難い指標パターンを生成する例を挙げる。以下の説明では、前述した第1の実施形態の構成等とは異なる部分についてのみ説明する。
<Second embodiment>
In the second embodiment, it is used by considering the difference in brightness between the input / output device such as the input device (imaging device) such as the HMD camera and the output device such as the printing device of the pattern output unit 1060. An example of generating an index pattern that is more difficult to see for a person or the like will be given. In the following description, only the parts different from the configuration and the like of the first embodiment described above will be described.

図7は、第2の実施形態の指標パターンを生成する情報処理装置1000の概略構成を示す図である。情報処理装置1000は、前述した第1の実施形態の情報処理装置1000の構成に加え、パターン色決定部1055を有する。また、第2の実施形態の構成の場合、体験領域画像取得部50が加えられている。 FIG. 7 is a diagram showing a schematic configuration of the information processing apparatus 1000 that generates the index pattern of the second embodiment. The information processing device 1000 has a pattern color determining unit 1055 in addition to the configuration of the information processing device 1000 of the first embodiment described above. Further, in the case of the configuration of the second embodiment, the experience area image acquisition unit 50 is added.

第2の実施形態において、体験領域画像取得部50は、後に指標パターンが付与されることになる体験領域が撮像装置により撮像された体験領域画像の情報を取得し、その体験領域画像の情報をパターンサイズ参考情報入力部100に送る。本実施形態の場合、体験領域画像を取得する撮像装置は、HMDのカメラである。 In the second embodiment, the experience area image acquisition unit 50 acquires the information of the experience area image in which the experience area to which the index pattern will be given later is captured by the imaging device, and obtains the information of the experience area image. It is sent to the pattern size reference information input unit 100. In the case of the present embodiment, the imaging device that acquires the experience area image is an HMD camera.

パターンサイズ参考情報入力部100は、体験領域画像取得部50が取得した体験領域画像の情報を、第1の実施形態で説明したパターンサイズ参考情報に加えて、情報処理装置1000に送る。パターン取得部1010とパターンサイズ決定部1030は、第1の実施形態で説明したものと同様であるため、これらの説明は省略する。 The pattern size reference information input unit 100 sends the information of the experience area image acquired by the experience area image acquisition unit 50 to the information processing device 1000 in addition to the pattern size reference information described in the first embodiment. Since the pattern acquisition unit 1010 and the pattern size determination unit 1030 are the same as those described in the first embodiment, their description will be omitted.

第2の実施形態の場合、情報記憶装置1020は、前述した元パターン情報と特徴検出閾値に加えて、入出力機器間の輝度差を補正する際に使用される輝度値補正パラメータを記憶している。特徴検出閾値取得部1050は、それら特徴検出閾値、輝度値補正パラメータの各情報を取得して、パターン輝度決定部1040に送る。 In the case of the second embodiment, the information storage device 1020 stores the luminance value correction parameters used when correcting the luminance difference between the input / output devices in addition to the original pattern information and the feature detection threshold value described above. There is. The feature detection threshold value acquisition unit 1050 acquires each information of the feature detection threshold value and the brightness value correction parameter and sends the information to the pattern brightness determination unit 1040.

第2の実施形態の場合、パターン輝度決定部1040は、パターンサイズ決定部1030から、前述のようにしてパターンサイズSαが決定された指標パターンの情報と、体験領域画像を含むパターンサイズ参考情報とを受け取る。また、パターン輝度決定部1040は、特徴検出閾値取得部1050から、前述した特徴検出閾値と、入出力機器間の輝度差を補正する際に使用される輝度値補正パラメータとを受け取る。 In the case of the second embodiment, the pattern luminance determination unit 1040 includes the index pattern information in which the pattern size Sα is determined as described above from the pattern size determination unit 1030, and the pattern size reference information including the experience area image. To receive. Further, the pattern luminance determination unit 1040 receives the above-mentioned feature detection threshold value and the luminance value correction parameter used when correcting the luminance difference between the input / output devices from the feature detection threshold value acquisition unit 1050.

第2の実施形態の場合のパターン輝度決定部1040は、それら受け取った情報に基づいて、指標パターンの輝度を決定する。具体的には、パターン輝度決定部1040は、先ず、前述した第1の実施形態で説明したのと同様にして指標パターンの輝度を求める。そして、第2の実施形態の場合、パターン輝度決定部1040は、更に、その指標パターンの輝度を、体験領域画像に応じた輝度値補正パラメータにより補正して、指標パターンの輝度として決定する。 The pattern luminance determination unit 1040 in the case of the second embodiment determines the luminance of the index pattern based on the received information. Specifically, the pattern luminance determination unit 1040 first obtains the luminance of the index pattern in the same manner as described in the first embodiment described above. Then, in the case of the second embodiment, the pattern luminance determination unit 1040 further corrects the luminance of the index pattern by the luminance value correction parameter corresponding to the experience region image, and determines it as the luminance of the indicator pattern.

ここで、指標パターンは、印刷装置や投影装置等の出力機器を含むパターン出力部1060から出力されて体験領域に付与されて、入力機器であるHMDのカメラにより撮影されるものである。このため、パターン出力部1060から出力された指標パターンの輝度と、HMDのカメラによる撮影画像内の指標パターンの輝度とは、それら入出力機器のデバイス特性に依存した値になり、入出力機器の特性による輝度ずれが生じている可能性がある。したがって、第2の実施形態では、入出力機器による指標パターンの輝度ずれを補正するために、パターン輝度決定部1040が第1の実施形態と同様に求めた指標パターンの輝度を、体験領域画像に応じた輝度値補正パラメータに基づいて補正する。 Here, the index pattern is output from the pattern output unit 1060 including output devices such as a printing device and a projection device, is given to the experience area, and is photographed by the camera of the HMD which is the input device. Therefore, the brightness of the index pattern output from the pattern output unit 1060 and the brightness of the index pattern in the image captured by the HMD camera are values that depend on the device characteristics of the input / output devices, and are the values of the input / output devices. There is a possibility that the brightness shift due to the characteristics. Therefore, in the second embodiment, in order to correct the brightness deviation of the index pattern due to the input / output device, the brightness of the index pattern obtained by the pattern brightness determining unit 1040 in the same manner as in the first embodiment is used in the experience area image. Correction is performed based on the corresponding brightness value correction parameters.

輝度値補正パラメータは、事前に生成されたものを用いてもよいし、MRの提供を行う度に生成した輝度値補正パラメータを用いてもよい。輝度値補正パラメータは、例えば、輝度値が所定値に決められた確認用パターンを体験領域に付与し、その確認用パターンを撮影した画像と、確認用パターンの所定の輝度値との間の輝度差に応じたパラメータとして生成することができる。したがって、体験領域画像に応じた輝度値補正パラメータを基に輝度値が補正された指標パターンは、体験領域に付与された場合に、その体験領域の輝度と指標パターンの輝度との輝度差が最小に抑えられたものとなり、利用者等から視認し難いパターンとなる。前述のようにして輝度が決定した指標パターンの情報は、体験領域画像の情報とともにパターン色決定部1055に送られる。 As the luminance value correction parameter, those generated in advance may be used, or the luminance value correction parameter generated each time the MR is provided may be used. The brightness value correction parameter is, for example, the brightness between the image obtained by assigning a confirmation pattern whose brightness value is determined to a predetermined value to the experience area and capturing the confirmation pattern and the predetermined brightness value of the confirmation pattern. It can be generated as a parameter according to the difference. Therefore, when the index pattern whose brightness value is corrected based on the brightness value correction parameter according to the experience area image is given to the experience area, the brightness difference between the brightness of the experience area and the brightness of the index pattern is the minimum. It becomes a pattern that is difficult for users to see. The information of the index pattern whose brightness is determined as described above is sent to the pattern color determination unit 1055 together with the information of the experience area image.

パターン色決定部1055は、パターン輝度決定部1040から受けた指標パターンの輝度と、体験領域画像取得部50にて取得された体験領域画像の情報とを基に、指標パターンの色を決定する。例えば、図8に示すように、体験領域画像のRGB成分から色相を画素ごとに算出してヒストグラムを生成し、そのヒストグラムのなかで頻度が最も多い色相を体験領域画像の主となる色相として決定する。そして、パターン色決定部1055は、その決定した色相と、指標パターンの輝度とを組み合わせることによる色を、指標パターンの色として決定する。これにより、指標パターンは、体験領域に付与された場合に、利用者等から視認し難いパターンとなる。なお、色相は、一枚の体験領域画像だけでなく、時系列に撮影した複数の体験領域画像を用いて決定してもよい。またここでは、RGB成分から色相を求める例を挙げたが、例えばLab(Lab color space)色空間など別の手法により色相が求められてもよい。 The pattern color determination unit 1055 determines the color of the index pattern based on the brightness of the index pattern received from the pattern brightness determination unit 1040 and the information of the experience area image acquired by the experience area image acquisition unit 50. For example, as shown in FIG. 8, the hue is calculated for each pixel from the RGB component of the experience region image to generate a histogram, and the most frequent hue in the histogram is determined as the main hue of the experience region image. do. Then, the pattern color determination unit 1055 determines the color obtained by combining the determined hue and the brightness of the index pattern as the color of the index pattern. As a result, the index pattern becomes a pattern that is difficult for the user or the like to visually recognize when it is given to the experience area. The hue may be determined not only by using one experience region image but also by using a plurality of experience region images taken in time series. Further, although an example of obtaining the hue from the RGB component is given here, the hue may be obtained by another method such as a Lab (Lab color space) color space.

図9は、第2の実施形態の図7のパターンサイズ参考情報入力部100と情報処理装置1000によるパターンサイズ参考情報の取得から指標パターンの画像生成及び出力までの処理の流れを示すフローチャートである。図9のフローチャートの処理は、例えば、情報処理装置1000の管理者等が、情報処理装置1000に対して指標パターンを生成することを指示したことにより開始する。ここでは、前述した第1の実施形態の図4のフローチャートとは異なる処理のみについて説明する。 FIG. 9 is a flowchart showing the flow of processing from the acquisition of the pattern size reference information by the pattern size reference information input unit 100 and the information processing device 1000 of FIG. 7 of the second embodiment to the image generation and output of the index pattern. .. The processing of the flowchart of FIG. 9 is started, for example, when the administrator of the information processing device 1000 or the like instructs the information processing device 1000 to generate an index pattern. Here, only the processing different from the flowchart of FIG. 4 of the first embodiment described above will be described.

図9のフローチャートにおいて、ST300では、パターンサイズ参考情報入力部100は、体験領域画像の情報を含むパターンサイズ参考情報を取得する。ST330では、特徴検出閾値取得部1050は、特徴検出閾値と前述した輝度値補正パラメータを取得する。ST340では、パターン輝度決定部1040は、前述した特徴検出閾値と輝度値補正パラメータとを基に、指標パターンの輝度を決定する。ST340の後、情報処理装置1000は、パターン色決定部1055にて行われるST345に処理を進める。ST345では、パターン色決定部1055は、指標パターンの輝度と体験領域画像を基に、指標パターンの色を決定する。ST345の後、情報処理装置1000は、パターン出力部1060にて行われるST350に処理を進める。ST350の後、情報処理装置1000は、図9のフローチャートの処理を終了する。 In the flowchart of FIG. 9, in ST300, the pattern size reference information input unit 100 acquires the pattern size reference information including the information of the experience area image. In ST330, the feature detection threshold value acquisition unit 1050 acquires the feature detection threshold value and the above-mentioned luminance value correction parameter. In ST340, the pattern luminance determination unit 1040 determines the luminance of the index pattern based on the feature detection threshold value and the luminance value correction parameter described above. After ST340, the information processing apparatus 1000 proceeds to ST345 performed by the pattern color determination unit 1055. In ST345, the pattern color determination unit 1055 determines the color of the index pattern based on the brightness of the index pattern and the experience area image. After ST345, the information processing apparatus 1000 proceeds to ST350 performed by the pattern output unit 1060. After ST350, the information processing apparatus 1000 ends the processing of the flowchart of FIG.

なお、ST300とST310の処理の順序は入れ替えられてもよく、また、ST320からST345までの処理の順序も適宜入れ替えられてもよいし、それらが並列して実行されてもよい。 The processing order of ST300 and ST310 may be changed, the processing order of ST320 to ST345 may be changed as appropriate, or they may be executed in parallel.

以上説明したように、第2の実施形態によれば、入出力機器における輝度ずれを考慮した輝度値補正パラメータを基に輝度値を補正し、その補正後の輝度値と体験領域画像の色相に基づいた色の指標パターンを生成可能となっている。第2の実施形態の場合の指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であり、指標パターンの模様だけではなく、指標パターンと体験領域との境界においても自然特徴の検出が可能となっている。また、第2の実施形態の指標パターンは、利用者やその他の第三者から視認し難いパターンとなっているため、現実空間の景観が損なわれることはない。 As described above, according to the second embodiment, the luminance value is corrected based on the luminance value correction parameter in consideration of the luminance deviation in the input / output device, and the corrected luminance value and the hue of the experience area image are obtained. It is possible to generate an index pattern of a color based on this. The index pattern in the second embodiment can be detected as a natural feature from the captured image of the experience area in the real space, and the natural feature is not only the pattern of the index pattern but also the boundary between the index pattern and the experience area. Detection is possible. Further, since the index pattern of the second embodiment is a pattern that is difficult for the user or other third party to see, the landscape of the real space is not impaired.

<第2の実施形態の変形例1>
第2の実施形態では、パターン色決定部1055は色相のヒストグラムを用いて、体験領域画像の主となる色相を決定していたが、体験領域画像の主となる色相の決定方法は前述の例に限るものではない。例えば、体験領域画像を色相により領域分割し、一番大きな領域の色相を、体験領域画像の主となる色相に決定してもよい。
<Modification 1 of the second embodiment>
In the second embodiment, the pattern color determination unit 1055 determines the main hue of the experience region image by using the hue histogram, but the method of determining the main hue of the experience region image is the above-mentioned example. It is not limited to. For example, the experience region image may be divided into regions according to the hue, and the hue of the largest region may be determined as the main hue of the experience region image.

<コンピュータによる実現例>
前述した第1の実施形態の図1や第2の実施形態の図7の各部は、ハードウェア構成又はソフトウェア構成の何れでも実現可能である。例えば、コンピュータのCPUに、前述した第1又は第2の実施形態のフローチャートの処理に係る情報処理プログラムを実行させてもよい。
<Example of realization by computer>
Each part of FIG. 1 of the first embodiment and FIG. 7 of the second embodiment described above can be realized by either a hardware configuration or a software configuration. For example, the CPU of the computer may be made to execute the information processing program related to the processing of the flowchart of the first or second embodiment described above.

図10は、本実施形態の情報処理プログラムを実行可能なCPUを備えたコンピュータの構成例を示す図である。図10において、CPU4001は、RAM4002やROM4003に格納されているプログラムやデータを用いてコンピュータ全体の制御を行い、また、前述した第1,第2の実施形態の処理に係る情報処理プログラムを実行する。なお、図10のコンピュータは、第1,第2の実施形態の処理に係る情報処理プログラムを実行する場合だけでなく、MRを利用者に提供するための処理も可能である。したがって、図10では、コンピュータにHMD4100も接続されている例を挙げている。 FIG. 10 is a diagram showing a configuration example of a computer provided with a CPU capable of executing the information processing program of the present embodiment. In FIG. 10, the CPU 4001 controls the entire computer using the programs and data stored in the RAM 4002 and the ROM 4003, and also executes the information processing program related to the processing of the first and second embodiments described above. .. The computer of FIG. 10 can perform not only the case of executing the information processing program related to the processing of the first and second embodiments but also the processing for providing the MR to the user. Therefore, FIG. 10 gives an example in which the HMD4100 is also connected to the computer.

RAM4002は、外部記憶装置4007や記憶媒体ドライブ4008からロードされた本実施形態の情報処理プログラムを含む各種プログラムやデータ等を一時的に記憶するための領域を有する。また、RAM4002は、I/F(インターフェース)4009を介して外部機器から受信したデータを一時的に記憶するためのエリアをも有する。この例の場合、外部機器は、前述したように生成した指標パターンの画像を印刷する印刷装置や投影装置、前述した体験領域画像を取得するカメラ等である。さらに、RAM4002は、CPU4001が各処理を実行する際に用いるワークエリアも有する。すなわち、RAM4002は、各種エリアを適宜提供することができる。ROM4003は、コンピュータの設定データやブートプログラムなどを格納している。 The RAM 4002 has an area for temporarily storing various programs, data, and the like including the information processing program of the present embodiment loaded from the external storage device 4007 and the storage medium drive 4008. The RAM 4002 also has an area for temporarily storing data received from an external device via the I / F (interface) 4009. In the case of this example, the external device is a printing device or projection device that prints an image of the index pattern generated as described above, a camera that acquires the experience area image described above, or the like. Further, the RAM 4002 also has a work area used by the CPU 4001 to execute each process. That is, the RAM 4002 can appropriately provide various areas. The ROM 4003 stores computer setting data, a boot program, and the like.

キーボード4004、マウス4005は、操作入力装置の一例であり、コンピュータのユーザが操作することで、各種の指示をCPU4001に対して入力することができる。前述したパターンサイズ参考情報のうちユーザにより入力が可能な情報は、これらキーボード4004やマウス4005を介してユーザより入力される。表示部4006は、ディスプレイにより構成されており、CPU4001による処理結果を画像や文字などで表示することができる。 The keyboard 4004 and the mouse 4005 are examples of operation input devices, and various instructions can be input to the CPU 4001 by being operated by a computer user. Of the above-mentioned pattern size reference information, information that can be input by the user is input by the user via the keyboard 4004 and the mouse 4005. The display unit 4006 is composed of a display, and can display the processing result by the CPU 4001 as an image, characters, or the like.

外部記憶装置4007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置4007には、OS(オペレーティングシステム)や、情報処理装置が行うものとして説明した前述した本実施形態に係る各処理をCPU4001に実行させるための情報処理プログラムやデータが格納されている。本実施形態に係る情報処理プログラムには、前述した第1又は第2の実施形態のフローチャートの各処理を実行するためのプログラムが含まれている。また、外部記憶装置4007に記憶されているデータには、前述した情報記憶装置1020に記憶されているような元パターンや特徴検出閾値、輝度値補正パラメータのデータ、その他の各種データが含まれている。 The external storage device 4007 is a large-capacity information storage device typified by a hard disk drive device. The external storage device 4007 stores an OS (operating system) and an information processing program and data for causing the CPU 4001 to execute each process according to the above-described embodiment described as being performed by the information processing device. The information processing program according to the present embodiment includes a program for executing each process of the flowchart of the first or second embodiment described above. Further, the data stored in the external storage device 4007 includes the original pattern, the feature detection threshold, the luminance value correction parameter data, and various other data as stored in the information storage device 1020 described above. There is.

外部記憶装置4007に保存されているプログラムやデータは、CPU4001による制御に従って、適宜、RAM4002にロードされる。CPU4001は、このロードされたプログラムやデータを用いて前述した第1又は第2の実施形態で説明した各処理を実行することにより、情報処理装置1000にて行われた各処理を実行する。 The programs and data stored in the external storage device 4007 are appropriately loaded into the RAM 4002 under the control of the CPU 4001. The CPU 4001 executes each process performed by the information processing apparatus 1000 by executing each process described in the first or second embodiment described above using the loaded program or data.

記憶媒体ドライブ4008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、それら記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置4007に保存されているものとして説明したプログラムやデータの一部若しくは全部は、この記憶媒体に記録されてもよい。記憶媒体ドライブ4008が記憶媒体から読み出したプログラムやデータは、外部記憶装置4007やRAM4002に対して出力される。 The storage medium drive 4008 reads programs and data recorded on a storage medium such as a CD-ROM or a DVD-ROM, and writes programs and data to the storage media. A part or all of the programs and data described as being stored in the external storage device 4007 may be recorded in this storage medium. The programs and data read from the storage medium by the storage medium drive 4008 are output to the external storage device 4007 and the RAM 4002.

I/F4009は、前述したカメラ等の外部機器を接続するためのアナログビデオポートやIEEE1394等のデジタル入出力ポート、また、前述した印刷装置や投影装置に指標パターンの画像を出力するDVIポートなどにより構成される。また、I/F4009を介して受信したデータは、RAM4002や外部記憶装置4007に入力することも可能となされている。なお、パターンサイズ参考情報は、I/F4009を介して取得されてもよい。また、図10のコンピュータがMRを利用者に提供する場合、I/F4009には、HMD4100が接続される。バス4010は、上述した各部を繋ぐバスである。 The I / F 4009 is provided by an analog video port for connecting an external device such as a camera described above, a digital input / output port such as IEEE1394, or a DVI port that outputs an image of an index pattern to the printing device or projection device described above. It is composed. Further, the data received via the I / F 4009 can be input to the RAM 4002 or the external storage device 4007. The pattern size reference information may be acquired via the I / F 4009. Further, when the computer of FIG. 10 provides the MR to the user, the HMD4100 is connected to the I / F4009. The bus 4010 is a bus that connects the above-mentioned parts.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

50 体験領域画像取得部、100 パターンサイズ参考情報入力部、1000 情報処理装置、1010 パターン取得部、1020 情報記憶装置、1030 パターンサイズ決定部、1040 パターン輝度決定部、1050 特徴検出閾値取得部、1055 パターン色決定部、1060 パターン出力部 50 Experience area image acquisition unit, 100 pattern size reference information input unit, 1000 information processing device, 1010 pattern acquisition unit, 1020 information storage device, 1030 pattern size determination unit, 1050 pattern brightness determination unit, 1050 feature detection threshold acquisition unit, 1055 Pattern color determination unit, 1060 pattern output unit

Claims (19)

画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定する輝度決定手段と、
前記現実空間の撮影画像の各画素の色相のヒストグラムから前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて、前記パターンの色を決定する色決定手段と、
前記決定された輝度及び色で前記パターンの画像を生成する生成手段と、
を有することを特徴とする情報処理装置。
A brightness determining means for determining the brightness of a pattern given as an index to an experience area in real space based on a threshold value for detecting an image feature.
A color determining means for obtaining the main hue of the captured image from the hue histogram of each pixel of the captured image in the real space and determining the color of the pattern based on the main hue and the brightness.
A generation means for generating an image of the pattern with the determined brightness and color, and
An information processing device characterized by having.
前記輝度決定手段は、前記画像の輝度による特徴を検出する際の輝度の閾値に基づいて、前記パターンの輝度を決定することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the luminance determining means determines the luminance of the pattern based on a luminance threshold when detecting a feature due to the luminance of the image. 前記輝度決定手段は、前記画像の輝度勾配による特徴を検出する際の輝度差の閾値に基づいて、前記パターンの模様の輝度差を決定し、
前記生成手段は、前記決定した輝度差を有する模様の前記パターンの画像を生成することを特徴とする請求項2に記載の情報処理装置。
The luminance determining means determines the luminance difference of the pattern of the pattern based on the luminance difference threshold when detecting the feature due to the luminance gradient of the image.
The information processing apparatus according to claim 2, wherein the generation means generates an image of the pattern having a pattern having the determined luminance difference.
前記輝度決定手段は、前記パターンが付与される現実空間の体験領域の輝度を基に、前記パターンの輝度を決定することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the luminance determining means determines the luminance of the pattern based on the luminance of the experience area in the real space to which the pattern is applied. 前記輝度決定手段は、前記現実空間の体験領域の中で前記パターンが付与される位置の周囲の領域の輝度の平均値を基に、前記パターンの輝度を決定することを特徴とする請求項4に記載の情報処理装置。 4. The brightness determining means determines the brightness of the pattern based on the average value of the brightness of the area around the position where the pattern is applied in the experience area of the real space. The information processing device described in. 前記輝度決定手段は、前記パターンが付与される現実空間の体験領域の輝度と、前記現実空間の体験領域の撮影画像から前記パターンを検出するフィルタのパラメータとを基に、前記パターンの輝度を決定することを特徴とする請求項4又は5に記載の情報処理装置。 The brightness determining means determines the brightness of the pattern based on the brightness of the experience area in the real space to which the pattern is applied and the parameters of the filter that detects the pattern from the captured image of the experience area in the real space. The information processing apparatus according to claim 4 or 5. 画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定する輝度決定手段と、
前記現実空間の撮影画像の各画素の色相により前記撮影画像を色相ごとの領域に分割し、前記分割された領域の大きさを基に、前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて前記パターンの色を決定する色決定手段と、
前記決定された輝度及び色で前記パターンの画像を生成する生成手段と、
を有することを特徴とする報処理装置。
A brightness determining means for determining the brightness of a pattern given as an index to an experience area in real space based on a threshold value for detecting an image feature.
The captured image is divided into regions for each hue according to the hue of each pixel of the captured image in the real space, and the main hue of the captured image is obtained based on the size of the divided regions. A color determining means for determining the color of the pattern based on the hue and the brightness.
A generation means for generating an image of the pattern with the determined brightness and color, and
Information processing apparatus characterized by having a.
前記決定手段は、前記分割された領域の中で最も大きい領域の色相を、前記撮影画像の主となる色相とすることを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 7 , wherein the color determining means uses the hue of the largest region in the divided regions as the main hue of the captured image. 前記決定手段は、前記現実空間を撮影した複数の体験領域画像から前記主となる色相を求め、前記色相と前記輝度とに基づいて前記パターンの色を決定することを特徴とする請求項乃至の何れか1項に記載の情報処理装置。 Said color determining means according to claim 1, characterized in that the real space seeking hue becoming the main plurality of experience area images taken and determines the color of the pattern based on said said color intensity The information processing apparatus according to any one of 8 to 8. 前記現実空間の体験領域と前記現実空間を撮影する撮像装置との間の最短距離と最長距離とを基に、前記パターンのサイズを決定するサイズ決定手段をさらに有することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。 Claim 1, characterized in that the shortest distance and based on the longest distance between the imaging device for photographing the experience region and the physical space of the real space, further comprising a size determining means for determining the size of said pattern 9. The information processing apparatus according to any one of 9. 前記サイズ決定手段は、更に前記撮像装置の画角と解像度とに基づいて、前記パターンのサイズを決定することを特徴とする請求項10に記載の情報処理装置。 The information processing device according to claim 10 , wherein the size determining means further determines the size of the pattern based on the angle of view and the resolution of the imaging device. 前記サイズ決定手段は、複数のパターンについて、パターンごとに前記サイズを決定し、
前記生成手段は、前記パターンごとにサイズが決定された前記複数のパターンが集合した画像を生成することを特徴とする請求項10又は11に記載の情報処理装置。
The sizing means determines the size of a plurality of patterns for each pattern.
The information processing apparatus according to claim 10 , wherein the generation means generates an image in which the plurality of patterns whose sizes are determined for each pattern are aggregated.
前記輝度決定手段は、前記複数のパターンについて、パターンごとに前記輝度を決定することを特徴とする請求項12に記載の情報処理装置。 The information processing apparatus according to claim 12 , wherein the brightness determining means determines the brightness of each of the plurality of patterns for each pattern. 前記輝度決定手段は、前記閾値に基づいて前記決定した輝度を補正パラメータにより補正し、
前記生成手段は、前記補正された後の輝度の前記パターンの画像を生成することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
The brightness determining means corrects the determined brightness based on the threshold value by a correction parameter.
The information processing apparatus according to any one of claims 1 to 13, wherein the generation means generates an image of the pattern having the corrected brightness.
前記現実空間の体験領域に付与される前記パターンは、前記現実空間を撮影する撮像装置の位置と姿勢を決める際の指標となされることを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。 The pattern given to the experience area of the real space is used as an index when determining the position and orientation of the image pickup apparatus for photographing the real space, according to any one of claims 1 to 14. The information processing device described. 現実空間の体験領域に付与するパターンの画像を生成する情報処理装置が実行する情報処理方法であって、
画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定し、
前記現実空間の撮影画像の各画素の色相のヒストグラムから前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて、前記パターンの色を決定し、
前記決定された輝度及び色で前記パターンの画像を生成する
ことを特徴とする情報処理方法。
It is an information processing method executed by an information processing device that generates an image of a pattern to be given to the experience area in the real space.
Based on the threshold value when detecting the feature of the image, the brightness of the pattern given as an index to the experience area in the real space is determined.
The main hue of the captured image is obtained from the hue histogram of each pixel of the captured image in the real space, and the color of the pattern is determined based on the main hue and the brightness.
An information processing method comprising generating an image of the pattern with the determined brightness and color.
現実空間の体験領域に付与するパターンの画像を生成する情報処理装置が実行する情報処理方法であって、It is an information processing method executed by an information processing device that generates an image of a pattern to be given to the experience area in the real space.
画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定し、Based on the threshold value when detecting the feature of the image, the brightness of the pattern given as an index to the experience area in the real space is determined.
前記現実空間の撮影画像の各画素の色相により前記撮影画像を色相ごとの領域に分割し、前記分割された領域の大きさを基に、前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて前記パターンの色を決定し、The captured image is divided into regions for each hue according to the hue of each pixel of the captured image in the real space, and the main hue of the captured image is obtained based on the size of the divided regions. The color of the pattern is determined based on the hue and the brightness.
前記決定された輝度及び色で前記パターンの画像を生成するGenerate an image of the pattern with the determined brightness and color
ことを特徴とする情報処理方法。An information processing method characterized by the fact that.
コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 15. 請求項1乃至15の何れか1項に記載の情報処理装置と、
撮像手段により現実空間を撮像した画像と、コンピュータグラフィックにより生成した仮想世界の画像とを、融合させた複合現実感の画像を表示手段に表示させる表示装置と、
を有することを特徴とする情報処理システム。
The information processing apparatus according to any one of claims 1 to 15.
A display device that displays a mixed reality image by fusing an image of the real space captured by the imaging means and an image of the virtual world generated by computer graphics on the display means.
An information processing system characterized by having.
JP2017001010A 2016-03-10 2017-01-06 Information processing equipment, information processing methods, and programs Active JP6938158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/455,291 US10685490B2 (en) 2016-03-10 2017-03-10 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016047233 2016-03-10
JP2016047233 2016-03-10

Publications (2)

Publication Number Publication Date
JP2017168085A JP2017168085A (en) 2017-09-21
JP6938158B2 true JP6938158B2 (en) 2021-09-22

Family

ID=59913795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017001010A Active JP6938158B2 (en) 2016-03-10 2017-01-06 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6938158B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63213077A (en) * 1987-02-28 1988-09-05 Nippon Telegr & Teleph Corp <Ntt> Picture synthesizing method
JP4253567B2 (en) * 2003-03-28 2009-04-15 オリンパス株式会社 Data authoring processor
JP2009020614A (en) * 2007-07-10 2009-01-29 Ritsumeikan Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program
JP2015118442A (en) * 2013-12-17 2015-06-25 ソニー株式会社 Information processor, information processing method, and program
US9548014B2 (en) * 2014-08-04 2017-01-17 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2017168085A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
KR102049245B1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP6587421B2 (en) Information processing apparatus, information processing method, and program
US8487926B2 (en) Method and apparatus for generating 3D image using 2D photograph images
US11004267B2 (en) Information processing apparatus, information processing method, and storage medium for generating a virtual viewpoint image
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP7031697B2 (en) Information processing device and recognition support method
US10685490B2 (en) Information processing apparatus, information processing method, and storage medium
KR102539427B1 (en) Image processing apparatus, image processing method, and storage medium
JP2017096725A (en) Information processor and information processing method
JP5771981B2 (en) Drawing image sharing apparatus, data processing method, program, and recording medium
JP2008033531A (en) Method for processing information
JP7164968B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP2014071850A (en) Image processing apparatus, terminal device, image processing method, and program
CN107358609B (en) Image superposition method and device for augmented reality
JP2002057879A (en) Apparatus and method for image processing, and computer readable recording medium
JP7027049B2 (en) Image processing equipment, image processing methods and programs
JP2018180687A (en) Image processing apparatus, image processing method and program
JP5762015B2 (en) Image processing apparatus, image processing method, and program
JP5573520B2 (en) Image generation apparatus, imaging apparatus, and image generation program
JP5448739B2 (en) Image reproducing apparatus, imaging apparatus, and image reproducing method
JP6719945B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP6938158B2 (en) Information processing equipment, information processing methods, and programs
JP2010224677A (en) Image evaluation method, image evaluation program and printing device
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP5734080B2 (en) Information processing apparatus, processing method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210901

R151 Written notification of patent or utility model registration

Ref document number: 6938158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151