JP6938158B2 - Information processing equipment, information processing methods, and programs - Google Patents
Information processing equipment, information processing methods, and programs Download PDFInfo
- Publication number
- JP6938158B2 JP6938158B2 JP2017001010A JP2017001010A JP6938158B2 JP 6938158 B2 JP6938158 B2 JP 6938158B2 JP 2017001010 A JP2017001010 A JP 2017001010A JP 2017001010 A JP2017001010 A JP 2017001010A JP 6938158 B2 JP6938158 B2 JP 6938158B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- brightness
- information processing
- image
- real space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、複合現実感や拡張現実感を提供する情報処理装置、情報処理方法、プログラム及び情報処理システムに関する。 The present invention relates to an information processing device, an information processing method, a program and an information processing system that provide mixed reality and augmented reality.
現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(Mixed Reality、以下、MRと表記する。)技術や拡張現実感(Augmented Reality:AR)技術が知られている。これらの技術は、現実空間とコンピュータによって作られる仮想空間を繋ぎ目なく融合する技術である。 Mixed reality (hereinafter referred to as MR) technology and expanded reality (AR) technology are known as technologies for fusing the real world and the virtual world in real time. These technologies are technologies that seamlessly fuse the real space and the virtual space created by a computer.
利用者に対し、MRを提供するための装置の一つとして、ビデオシースルー型の情報処理装置がある。これは、ビデオカメラで現実世界を撮影している画像に、仮想物体を重畳した合成画像を、リアルタイムにディスプレイ等の表示装置に表示させて利用者に提示する装置である。このような装置の一例として、頭部搭載型のビデオシースルー型ヘッドマウンテッドディスプレイ(以下、HMDと表記する。)などが知られている。MRに利用されるビデオシースルー型HMDは、内蔵されているカメラから画像が入力される毎に、その画像撮影時のカメラの現実空間における位置姿勢を計測する。そして、HMDは、そのカメラの位置姿勢と、焦点距離などのカメラの固有パラメータとに基づいて、コンピュータグラフィック(以下、CGと表記する。)を描画し、そのCG画像を、現実空間を撮影した画像上に重畳する。 As one of the devices for providing MR to users, there is a video see-through type information processing device. This is a device that displays a composite image in which a virtual object is superimposed on an image captured in the real world with a video camera on a display device such as a display in real time and presents it to the user. As an example of such a device, a head-mounted video see-through type head mounted display (hereinafter, referred to as HMD) and the like are known. The video see-through type HMD used for MR measures the position and orientation of the camera in the real space at the time of taking the image every time an image is input from the built-in camera. Then, the HMD draws a computer graphic (hereinafter referred to as CG) based on the position and orientation of the camera and the unique parameters of the camera such as the focal length, and captures the CG image in the real space. Overlay on the image.
ここで、MRを実現する上で重要な機能として、位置合わせ機能がある。仮想物体が現実空間に実在するように利用者が感じるためには、仮想物体と現実空間との間の幾何学的な整合性がとれている必要がある。すなわち、MRを体験している利用者から見て、仮想物体は、現実空間の中で存在するべき位置に存在しているように見えなければならない。このため、HMDは、内蔵したカメラの現実空間における位置姿勢を求め、仮想物体と現実空間との間の幾何学的な整合性をとるようになされている。 Here, as an important function for realizing MR, there is an alignment function. In order for the user to feel that the virtual object actually exists in the real space, it is necessary that the virtual object and the real space are geometrically consistent. That is, from the viewpoint of the user who is experiencing MR, the virtual object must appear to exist at a position where it should exist in the real space. For this reason, the HMD is designed to obtain the position and orientation of the built-in camera in the real space and to obtain the geometrical consistency between the virtual object and the real space.
カメラの位置姿勢は、HMDに内蔵されているカメラからの画像情報を基に推定することが可能である。例えば、現実空間内における3次元位置が既知となっている指標を、カメラにより撮影し、その撮影画像内の指標の位置と現実空間内の指標の3次元位置との対応を基に、カメラの位置姿勢を推定するような手法が知られている。既知の指標としては、一例として四角形マーカ、円形マーカ、点マーカなどが用いられ、それら指標が現実空間中に例えば人為的に配置される。非特許文献1には、カメラの撮像画像から検出し易い特徴を有した特徴点マーカを、指標として現実空間の環境内に付与(配置)することで、カメラの位置姿勢を推定可能とする技術が開示されている。
The position and orientation of the camera can be estimated based on the image information from the camera built in the HMD. For example, an index whose three-dimensional position in the real space is known is photographed by a camera, and based on the correspondence between the position of the index in the captured image and the three-dimensional position of the index in the real space, the camera A method for estimating the position and orientation is known. As a known index, a quadrangle marker, a circular marker, a point marker, or the like is used as an example, and these indexes are artificially arranged in the real space, for example. Non-Patent
前述した非特許文献1に記載の技術では、カメラの撮影画像から検出し易い特徴を有した特徴点マーカを指標として環境に付与することで、カメラの位置姿勢を推定できるようにしている。しかしながら、特徴点マーカを環境に付与した場合、その特徴点マーカにより現実空間の景観が損なわれてしまうという問題が生ずる。
In the technique described in
そこで、本発明は、現実空間の景観を損なうことのない指標を生成可能にすることを目的とする。 Therefore, an object of the present invention is to make it possible to generate an index that does not impair the landscape of the real space.
本発明は、画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定する輝度決定手段と、前記現実空間の撮影画像の各画素の色相のヒストグラムから前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて、前記パターンの色を決定する色決定手段と、前記決定された輝度及び色で前記パターンの画像を生成する生成手段と、を有することを特徴とする。 The present invention provides a brightness determining means for determining the brightness of a pattern given as an index to an experience area in the real space based on a threshold value for detecting a feature of an image, and a hue of each pixel of the captured image in the real space. The main hue of the captured image is obtained from the histogram of the above, and the color determining means for determining the color of the pattern based on the main hue and the brightness of the pattern, and the determined brightness and color of the pattern. It is characterized by having a generation means for generating an image.
本発明によれば、現実空間の景観を損なうことのない指標を生成可能である。 According to the present invention, it is possible to generate an index that does not impair the landscape of the real space.
以下、添付図面を参照して本発明の好適な実施形態について説明する。
以下の説明では、利用者に対して、現実世界とコンピュータグラフィック(CG)による仮想世界とをリアルタイムに融合させる複合現実感(MR)や拡張現実感(AR)を提供する例を挙げる。MR等は、例えば、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への適用が可能である。利用者に対してMRを提供する装置としては、頭部搭載型のビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)や、背面にビデオカメラを有するタブレット端末のような携帯型情報端末が用いられる。本実施形態では、ビデオシースルー型HMDを例に挙げる。ビデオシースルー型HMDの図示は省略する。本実施形態の情報処理システムは、ビデオシースルー型HMDと、後述する本実施形態の情報処理装置1000とを有して構成される。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
In the following description, an example of providing a user with mixed reality (MR) and augmented reality (AR) that fuse the real world and the virtual world by computer graphics (CG) in real time will be given. MR and the like can be applied to various fields such as assembly support for superimposing and displaying work procedures and wiring during assembly work, and surgical support for superimposing and displaying the state of the body on the body surface of a patient. As a device for providing MR to a user, a head-mounted video see-through type head mounted display (HMD) or a portable information terminal such as a tablet terminal having a video camera on the back is used. In this embodiment, a video see-through type HMD will be taken as an example. The illustration of the video see-through type HMD is omitted. The information processing system of the present embodiment includes a video see-through type HMD and an
本実施形態において利用者にMRを提供する場合、ビデオシースルー型HMDは、内蔵された不図示のカメラによる撮影画像に基づいて、カメラの位置姿勢を推定する。カメラの位置姿勢は、磁気センサや超音波センサ、光学式センサ等の6自由度の物理センサにより計測することもできるが、本実施形態では、物理センサを用いる場合よりも手軽且つ低コストとなる、撮影画像に基づくカメラの位置姿勢推定の手法を用いる。撮影画像に基づくカメラの位置姿勢推定を行う場合、本実施形態のHMDは、現実空間の撮影画像から、例えば、点、線、エッジ、コーナー、輝度勾配などの画像の特徴点を、自然特徴として検出し、その自然特徴に基づいて、カメラの位置姿勢を推定する。 When providing MR to the user in the present embodiment, the video see-through type HMD estimates the position and orientation of the camera based on the image taken by the built-in camera (not shown). The position and orientation of the camera can be measured by a physical sensor having 6 degrees of freedom such as a magnetic sensor, an ultrasonic sensor, and an optical sensor, but in the present embodiment, it is easier and cheaper than the case of using a physical sensor. , The method of estimating the position and orientation of the camera based on the captured image is used. When estimating the position and orientation of the camera based on the captured image, the HMD of the present embodiment uses the feature points of the image such as points, lines, edges, corners, and brightness gradients as natural features from the captured image in the real space. It detects and estimates the position and orientation of the camera based on its natural features.
ただし、現実空間の撮影画像内に自然特徴が少ない場合には、カメラの位置姿勢を推定し難くなるため、本実施形態では、自然特徴として検出可能なパターンを生成し、そのパターンの画像を指標として現実空間に付与する。本実施形態では、生成するパターンを、指標パターンと表記する。詳細は後述するが、本実施形態の指標パターンは、現実空間の撮影画像から自然特徴を検出する際に利用される閾値を基に生成されるパターンであり、撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとして生成される。以下の説明では、撮影画像から自然特徴を検出する際に利用される閾値を、特徴検出閾値と表記する。 However, if there are few natural features in the captured image in the real space, it is difficult to estimate the position and orientation of the camera. Therefore, in the present embodiment, a pattern that can be detected as a natural feature is generated, and the image of the pattern is used as an index. Is given to the real space as. In the present embodiment, the generated pattern is referred to as an index pattern. Although the details will be described later, the index pattern of the present embodiment is a pattern generated based on the threshold value used when detecting the natural feature from the captured image in the real space, and can be detected as the natural feature from the captured image. At the same time, it is generated as a pattern that is difficult for the user to see. In the following description, the threshold value used when detecting a natural feature from a captured image is referred to as a feature detection threshold value.
<第1の実施形態>
図1は、第1の実施形態の指標パターンを生成する情報処理装置1000の概略構成を示す図である。情報処理装置1000は、パターン取得部1010、情報記憶装置1020、パターンサイズ決定部1030、パターン輝度決定部1040、特徴検出閾値取得部1050、パターン出力部1060を有して構成されている。パターン取得部1010〜パターン出力部1060は、本実施形態における決定手段及び生成手段の一例である。パターンサイズ参考情報入力部100は、情報処理装置1000に接続される装置であってもよいし、情報処理装置1000に含まれていてもよい。
<First Embodiment>
FIG. 1 is a diagram showing a schematic configuration of an
パターンサイズ参考情報入力部100は、現実空間の体験領域に関する情報が入力され、その体験領域に関する情報を不図示のメモリ領域に保持する。体験領域に関する情報は、不図示の入力装置を介して、例えば情報処理装置1000の管理者等から入力されてもよいし、演算等により求められてもよい。なお、ここでは、MRの管理者と利用者を分けているが、管理者と利用者は同一人であってもよい。パターンサイズ参考情報入力部100のメモリ領域に保持された体験領域に関する情報は、本実施形態に係る指標パターンを生成する際に使用されるパターンサイズ参考情報の一つとして、情報処理装置1000に送られる。本実施形態において、体験領域に関する情報には、例えば、体験領域内の様々な物体とHMDのカメラとの間の最短距離と最長距離の情報が含まれる。
The pattern size reference
なお、体験領域内の物体には、一例として、組み立て支援や手術支援等にMRが適用される場合の作業台や患者の体だけでなく、部屋の壁や天井、床等も含まれる。また、体験領域に関する情報は、体験領域内の物体とカメラとの間の最短距離と最長距離だけでなく、例えば現実空間の体験領域の奥行き、高さ、幅などの情報を含んでいてもよい。 The objects in the experience area include, for example, not only the work table and the patient's body when MR is applied to assembly support, surgical support, etc., but also the walls, ceiling, floor, and the like of the room. Further, the information regarding the experience area may include not only the shortest distance and the longest distance between the object in the experience area and the camera, but also information such as the depth, height, and width of the experience area in the real space. ..
また、パターンサイズ参考情報には、現実空間を撮影するカメラのレンズの画角、焦点距離、レンズの光学特性、映像撮影時の露出、撮影される画像の解像度などの情報をも含んでいる。これらカメラにおける画角、焦点距離、光学特性、露出、解像度などの情報は、管理者等により入力されてもよいし、パターンサイズ参考情報入力部100が算出してもよい。
The pattern size reference information also includes information such as the angle of view of the lens of the camera that shoots the real space, the focal length, the optical characteristics of the lens, the exposure at the time of video shooting, and the resolution of the captured image. Information such as the angle of view, focal length, optical characteristics, exposure, and resolution of these cameras may be input by an administrator or the like, or may be calculated by the pattern size reference
情報処理装置1000のパターン取得部1010は、パターンサイズ参考情報入力部100からパターンサイズ参考情報を取得する。また、パターン取得部1010は、情報記憶装置1020から、指標パターンの元になる元パターンの情報を取得する。なお、元パターンは、予め決められているパターンでもよいし、パターン取得部1010から要求がなされる度に生成されるパターンでもよい。パターン取得部1010から要求がなされる度に元パターンが生成される場合には、例えば図示しない元パターン生成部により元パターンが生成される。パターン取得部1010にて取得されたパターンサイズ参考情報と元パターン情報は、パターンサイズ決定部1030に送られる。
The
情報記憶装置1020は、少なくとも、元パターンの情報と特徴検出閾値の情報とを、記憶している。情報記憶装置1020は、パターン取得部1010からの要求に応じて元パターンの情報をパターン取得部1010に送り、特徴検出閾値取得部1050からの要求に応じて特徴検出閾値の情報を特徴検出閾値取得部1050に送る。特徴検出閾値取得部1050は、情報記憶装置1020から取得した特徴検出閾値の情報を、後述するパターン輝度決定部1040に送る。
The
パターンサイズ決定部1030は、パターン取得部1010から送られてくるパターンサイズ参考情報と元パターンの情報とに基づいて、指標パターンのパターンサイズSαを決定する。
The pattern
ここで、指標パターンのサイズは、その指標パターンが付与された体験領域をカメラにより撮影したときに、HMDが、撮影画像から指標パターンを自然特徴として検出できるサイズになされている必要がある。また、指標パターンは体験領域内の物体に付与されることになる。このため、指標パターンのサイズは、体験領域内の各物体とカメラとの間の最短距離と最長距離の範囲内の何れかの位置の物体に指標パターンが付与された場合に、HMDが、撮影画像から指標パターンを自然特徴として検出できるサイズでなければならない。また、指標パターンは体験領域の撮影画像から検出されるため、例えばカメラが指標パターンの模様を解像できず、撮影画像内の指標パターンの模様が潰れてしまう場合には指標パターンを検出できないことになる。したがって、指標パターンのサイズは、体験領域内の物体とカメラの間の最短距離と最長距離の範囲内の何れの位置に指標パターンが付与された場合であっても、指標パターンの模様の空間周波数をカメラが解像できるサイズに決定する必要がある。ただし、指標パターンのサイズが必要以上に大きいと、その指標パターンが体験領域内に付与された場合に、MRの利用者等に視認され易くなる可能性が高くなるため、指標パターンサイズは、必要以上に大きくならないサイズに決定する必要がある。このようなことから、パターンサイズ決定部1030は、最短距離と最長距離、パターンの模様の空間周波数、カメラの解像度等の各情報に基づき、撮影画像から指標パターンの自然特徴を検出可能で、且つ必要以上に大きくないパターンサイズSαを算出する。
Here, the size of the index pattern needs to be sized so that the HMD can detect the index pattern as a natural feature from the captured image when the experience area to which the index pattern is given is photographed by the camera. In addition, the index pattern will be given to the object in the experience area. Therefore, the size of the index pattern is determined by the HMD when the index pattern is applied to an object at any position within the range of the shortest distance and the longest distance between each object in the experience area and the camera. The size must be such that the index pattern can be detected as a natural feature from the image. Further, since the index pattern is detected from the captured image in the experience area, for example, if the camera cannot resolve the pattern of the index pattern and the pattern of the index pattern in the captured image is crushed, the index pattern cannot be detected. become. Therefore, the size of the index pattern is the spatial frequency of the pattern of the index pattern regardless of the position within the range of the shortest distance and the longest distance between the object and the camera in the experience area. It is necessary to determine the size that the camera can resolve. However, if the size of the index pattern is larger than necessary, there is a high possibility that the index pattern will be easily visible to MR users, etc. when the index pattern is given in the experience area. Therefore, the index pattern size is necessary. It is necessary to decide on a size that does not become larger than this. Therefore, the pattern
図2は、元パターン200の一例を示す。図2の例の元パターン200は、例えばB領域202が中心に配され、その周囲にA領域201が配された例えば正方形の模様を有するパターンとなされている。また、A領域201は例えば濃度が高い(輝度が低い)領域となされ、B領域202は例えば濃度が低い(輝度が高い)領域となされている。図2中のサイズSは、パターンサイズ決定部1030によりパターンサイズSαが算出される際の、基準のサイズ(例えば元パターンのサイズ)であるとする。以下、図2に示した元パターン200の例を用いて、パターンサイズ決定部1030によるパターンサイズSαの決定方法について説明する。
FIG. 2 shows an example of the
先ず、体験領域の奥行き、高さ、幅の情報を基に、体験領域内の物体とカメラとの間の最長距離Dmaxが算出される。最長距離Dmaxは、パターンサイズ決定部1030が算出してもよいし、情報処理装置1000の管理者等により入力されてもよい。体験領域の奥行きをZ、高さをY、幅をXとした場合、体験領域内の物体とカメラとの間の最長距離Dmaxは、式(1)により算出可能である。なお、最短距離Dminは、例えば情報処理装置1000の管理者等により入力されるとする。
Dmax=√(Z2+Y2+X2) ・・・式(1)
First, the longest distance Dmax between the object in the experience area and the camera is calculated based on the information on the depth, height, and width of the experience area. The longest distance Dmax may be calculated by the pattern
Dmax = √ (Z 2 + Y 2 + X 2 ) ・ ・ ・ Equation (1)
また、カメラの撮像素子の例えば短辺長さをL、元パターン200の模様の空間周波数をFとした場合、基準となるサイズSは、式(2)で表される。なお、カメラの解像度は撮像素子の辺の長さと画素数との比により求められるため、ここでは、カメラの撮像素子の短辺長さLをカメラの解像度を簡易的に表す値として用いている。
S=L/(2×F) ・・・式(2)
Further, when the short side length of the image sensor of the camera is L and the spatial frequency of the pattern of the
S = L / (2 × F) ・ ・ ・ Equation (2)
そして、パターンサイズ決定部1030は、式(3)と式(4)により、それぞれパターンサイズSαを算出する。式(3)は体験領域内の物体とカメラとの間の最短距離Dminに応じたパターンサイズSαを求める式、式(4)は物体とカメラとの間の最長距離Dmaxに基づくパターンサイズSαを求める式である。
Sα=S×Dmin ・・・式(3)
Sα=S×Dmax ・・・式(4)
Then, the pattern
Sα = S × Dmin ・ ・ ・ Equation (3)
Sα = S × Dmax ・ ・ ・ Equation (4)
このように、パターンサイズ決定部1030は、体験領域内の物体とカメラとの間の最短距離Dminと最長距離Dmaxに応じた一組のパターンサイズSαを求める。そして、パターンサイズ決定部1030は、それら最短距離Dminと最長距離Dmaxに応じたパターンサイズSαが決定された一組の指標パターンの情報を、パターンサイズ参考情報とともにパターン輝度決定部1040に送る。
In this way, the pattern
パターン輝度決定部1040は、パターンサイズ決定部1030にてパターンサイズが決定された一組の指標パターンの情報とパターンサイズ参考情報を受け取り、また、特徴検出閾値取得部1050から特徴検出閾値の情報を受け取る。そして、パターン輝度決定部1040は、パターンサイズ参考情報と特徴検出閾値とに基づいて、各指標パターンの輝度を決定する。具体的には、パターン輝度決定部1040は、特徴検出閾値を超えるように、指標パターンの輝度を決定する。ただし、単に特徴検出閾値を超えるように輝度を決定してしまうと、カメラの撮像素子の特性やレンズの光学特性により、撮影画像内での指標パターンの輝度が、特徴検出閾値を下回ってしまうことがある。このため、パターン輝度決定部1040は、撮影画像内で指標パターンの輝度がどのようになるかを考慮し、パターンサイズ参考情報(カメラの撮像素子の特性やレンズの光学特性などの情報)に基づいて、指標パターンの輝度を決定する。
The pattern
図3は、前述の図2の元パターン200に対して輝度が決定された後の指標パターン300の一例を示す。図3の指標パターン300は、例えば特徴検出閾値が輝度「10」の値であった場合に、A領域301の輝度値が「0」、B領域302の輝度値が「10」になされているとする。A領域301は輝度値が「0」であるため黒領域となり、B領域302は輝度値が「10」であるため濃度が高いグレー領域となる。以下、図3の指標パターン300の例を用いて、パターン輝度決定部1040によるパターン輝度決定方法について説明する。
FIG. 3 shows an example of the
ここで、HMDが撮影画像内の指標パターンを自然特徴として検出可能にするためには、指標パターンは、自然特徴として検出可能な輝度の条件を保っていなければならない。一例として、撮影画像の輝度勾配により自然特徴を検出する場合を例に挙げる。なお、輝度勾配により自然特徴を検出する手法としては、例えば非特許文献2や非特許文献3などの公知の手法を用いることができる。輝度勾配により自然特徴を検出する場合、図3の指標パターン300のA領域301とB領域302の輝度は、特徴検出閾値以上の輝度差が生じる輝度の組み合わせでなければならない。ただし、その輝度差が必要以上に大きいと、指標パターンが体験領域内に付与された場合に、MRの利用者等に視認され易くなる可能性が高くなる。したがって、指標パターン300のA領域301とB領域302の輝度は、特徴検出閾値以上の輝度差が生じる輝度の組み合わせで、且つ、その輝度差が必要以上に大きくならない輝度に決定する必要がある。図3の例では、このような輝度の決定条件に基づいて、特徴検出閾値が「10」、A領域301の輝度値が「0」、B領域302の輝度値が「10」に決定されている。
Here, in order for the HMD to be able to detect the index pattern in the captured image as a natural feature, the index pattern must maintain the brightness condition that can be detected as a natural feature. As an example, a case where a natural feature is detected by a brightness gradient of a captured image will be taken as an example. As a method for detecting a natural feature by a brightness gradient, a known method such as
なお、ここでは輝度を例に挙げたが、例えば自然特徴の検出に輝度が影響を与えない場合には、元パターンの模様が保たれているのであれば、A領域の輝度とB領域の輝度の組み合わせに制限はない。また、前述の例では指標パターンの「輝度」とのみ記載しているが、例えばRGB色空間やYUV色空間などの色空間で表現される輝度であれば、何れの色空間における輝度であってもよい。また、自然特徴を検出するアルゴリズムは、前述した自然特徴の条件を満たすものを検出可能であるならば、他の自然特徴の条件を定義して、その自然特徴を検出するようなアルゴリズムであってもよい。 Although the luminance is taken as an example here, for example, when the luminance does not affect the detection of natural features, the luminance in the A region and the luminance in the B region are maintained as long as the pattern of the original pattern is maintained. There is no limit to the combination of. Further, in the above example, only the "brightness" of the index pattern is described, but if the brightness is expressed in a color space such as an RGB color space or a YUV color space, the brightness in any color space can be used. May be good. Further, the algorithm for detecting a natural feature is an algorithm that defines the condition of another natural feature and detects the natural feature if it can detect the one satisfying the above-mentioned condition of the natural feature. May be good.
前述のようにして、パターンサイズ決定部1030によりパターンサイズSαが決定され、更に、パターン輝度決定部1040により輝度が決定された一組の指標パターンの情報は、パターン出力部1060へ送られる。パターン出力部1060は、受け取った一組の指標パターンの情報に応じて、指標パターンの画像を生成して出力する。指標パターンの画像出力は、例えば紙媒体への印刷や、光による投影等の何れにより行われてもよい。本実施形態では、指標パターンの画像が印刷された紙媒体を体験領域内に配置することや、指標パターンの画像の投影光を体験領域内に投影することにより、現実空間の体験領域への指標パターンの付与が行われる。
As described above, the pattern size Sα is determined by the pattern
図4は、図1のパターンサイズ参考情報入力部100と情報処理装置1000によるパターンサイズ参考情報の取得から指標パターンの画像生成及び出力までの処理の流れを示すフローチャートである。以下の説明において、フローチャート内の各ステップST300〜ST350をST300〜ST350と略記し、これは後述する他のフローチャートにおいても同様とする。図4のフローチャートの処理は、例えば、情報処理装置1000の管理者等が、情報処理装置1000に対して指標パターンを生成することを指示したことにより開始する。
FIG. 4 is a flowchart showing a processing flow from acquisition of pattern size reference information by the pattern size reference
図4のフローチャートにおいて、ST300では、パターンサイズ参考情報入力部100は、前述した体験領域に関する情報を含むパターンサイズ参考情報を取得する。ST300の後、情報処理装置1000は、ST310以降の処理を行う。ST310の処理は、情報処理装置1000のパターン取得部1010が行う処理である。
In the flowchart of FIG. 4, in ST300, the pattern size reference
ST310では、パターン取得部1010は、パターンサイズ参考情報入力部100からパターンサイズ参考情報を受け取り、また、情報記憶装置1020から元パターンの情報を受け取る。そして、パターン取得部1010は、それら取得した情報をパターンサイズ決定部1030に送る。S310の後、情報処理装置1000は、パターンサイズ決定部1030にて行われるST320に処理を進める。
In ST310, the
ST320では、パターンサイズ決定部1030は、パターンサイズ参考情報と元パターンの情報を基に、前述したようにしてパターンサイズSαを算出する。そして、パターンサイズ決定部1030は、パターンサイズSαに決定された指標パターンの情報とパターンサイズ参考情報等を、パターン輝度決定部1040に送る。ST320の後、情報処理装置1000は、特徴検出閾値取得部1050にて行われるST330に処理を進める。
In ST320, the pattern
ST330では、特徴検出閾値取得部1050は、情報記憶装置1020から特徴検出閾値の情報を取得して、その特徴検出閾値の情報をパターン輝度決定部1040に送る。ST330の後、情報処理装置1000は、パターン輝度決定部1040にて行われるST340に処理を進める。
In ST330, the feature detection threshold
ST340では、パターン輝度決定部1040は、前述したように特徴検出閾値を基に指標パターンの輝度を決定する。そして、パターン輝度決定部1040は、輝度が決定された指標パターンの情報を、パターン出力部1060に送る。ST340の後、情報処理装置1000は、パターン出力部1060にて行われるST350に処理を進める。
In ST340, the pattern
ST350では、パターン出力部1060は、前述のようにパターンサイズと輝度が決定された指標パターンの画像を生成して出力する。ST350の後、情報処理装置1000は、図4のフローチャートの処理を終了する。
In the ST350, the
なお、ST300とST310の処理の順序は入れ替えられてもよく、また、ST320からST340までの処理の順序も適宜入れ替えられてもよいし、それらが並列して実行されてもよい。 The processing order of ST300 and ST310 may be changed, the processing order of ST320 to ST340 may be changed as appropriate, or they may be executed in parallel.
以上説明したように、本実施形態の指標パターンは、現実空間の体験領域に関する情報を含むパターンサイズ参考情報を基に決定されたサイズのパターンであり、且つ、自然特徴を検出する際の特徴検出閾値を基に生成される輝度のパターンとなされている。したがって、本実施形態の指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとなっている。また、体験領域に付与された指標パターンは、HMDの利用者だけでなく、HMDを使用していない第三者に対しても視認し難いパターンであるため、現実空間の景観が損なわれることもない。 As described above, the index pattern of the present embodiment is a pattern of a size determined based on the pattern size reference information including the information about the experience area in the real space, and the feature detection when detecting the natural feature. It is a brightness pattern generated based on the threshold value. Therefore, the index pattern of the present embodiment is a pattern that can be detected as a natural feature from the captured image of the experience area in the real space and is difficult for the user to visually recognize. In addition, since the index pattern given to the experience area is a pattern that is difficult to see not only for HMD users but also for third parties who do not use the HMD, the landscape in the real space may be impaired. No.
<第1の実施形態の変形例1>
第1の実施形態では、最短距離と最長距離に基づく一組のパターンサイズSαの指標パターンを生成する例を挙げたが、例えば図5に示すような各サイズS1〜S6に対応した複数の指標パターン501〜506からなるパターンの集合が生成されてもよい。図5に示すような複数の指標パターン501〜506の集合の場合、指標パターン毎にパターンサイズS1〜S6を決定してもよい。これら各指標パターンのパターンサイズS1〜S6は、前述した最短距離と最長距離、カメラの画角や解像度等に基づく適切なパターンサイズSαの範囲内に入るサイズとして決定される。
<
In the first embodiment, an example of generating a set of index patterns of the pattern size Sα based on the shortest distance and the longest distance has been given. For example, a plurality of indexes corresponding to the respective sizes S1 to S6 as shown in FIG. A set of patterns consisting of
なお、複数の指標パターンのサイズは、図5の例に限るものではなく、体験領域やカメラ等の外部機器の情報に基づく適切なパターンサイズSαの範囲内であるならば、他のサイズになされてもよい。図5の例においても、前述の第1の実施形態の場合と同様に、指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとなる。 The size of the plurality of index patterns is not limited to the example of FIG. 5, and is set to another size as long as it is within the range of the appropriate pattern size Sα based on the information of the experience area and the external device such as the camera. You may. In the example of FIG. 5, as in the case of the first embodiment described above, the index pattern is a pattern that can be detected as a natural feature from the captured image of the experience area in the real space and is difficult for the user to see. ..
<第1の実施形態の変形例2>
また、第1の実施形態では一組の指標パターンに対して輝度を決定したが、前述した輝度の決定条件を満たすのであれば、例えば図6に示すように複数の輝度による指標パターン601〜606からなるパターンの集合として生成されてもよい。なお、図6は、図5で説明した複数のサイズの複数の指標パターンについて、それぞれ輝度を決定した例を示している。図6の例では、指標パターン601はA領域の輝度が0でB領域の輝度が10、指標パターン602はA領域の輝度が30でB領域の輝度が40、指標パターン603はA領域の輝度が40でB領域の輝度が50となっている。さらに、指標パターン604はA領域の輝度が10でB領域の輝度が20、指標パターン605はA領域の輝度が20でB領域の輝度が30、指標パターン606はA領域の輝度が50でB領域の輝度が60となっている。図6の例においても、前述同様に、指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であると共に利用者が視認し難いパターンとなる。
<
Further, in the first embodiment, the brightness is determined for a set of index patterns, but if the above-mentioned brightness determination condition is satisfied, for example, as shown in FIG. 6, the
<第1の実施形態の変形例3>
第1の実施形態では、パターンサイズ参考情報と特徴検出閾値とに基づいて指標パターンの輝度を決定していたが、パターンが付与される体験領域(例えば、現実の壁や床など)の輝度を考慮して指標パターンの輝度を決定してもよい。
<Modification 3 of the first embodiment>
In the first embodiment, the brightness of the index pattern is determined based on the pattern size reference information and the feature detection threshold value, but the brightness of the experience area (for example, a real wall or floor) to which the pattern is given is determined. The brightness of the index pattern may be determined in consideration.
一例として、壁に指標パターンが付与される例を挙げて説明する。この変形例3の場合、情報処理装置1000は、先ず、指標パターンが付与されることになる現実の壁を撮像した画像を取得して、その撮像画像から壁の輝度を求める。なおこの例の場合、壁を撮像した撮像画像は、パターンサイズ参考情報入力部100を介して情報処理装置1000に入力される。現実の壁を撮像する撮像装置は、HMDのカメラであってもよいし、別途用意されたカメラであってもよい。
As an example, an example in which an index pattern is assigned to the wall will be described. In the case of the third modification, the
また、輝度が求められる領域は、撮像画像内に写っている壁の画像領域の中で、現実の壁に対して実際に指標パターンが付与されることになる位置の周囲の領域となされる。そして、その周囲領域内の輝度の平均値が、壁の輝度として求められる。輝度の平均値を求める処理は、一例として、情報処理装置1000のパターン輝度決定部1040等により行われる。
Further, the region where the brightness is required is defined as the region around the position where the index pattern is actually applied to the actual wall in the image region of the wall shown in the captured image. Then, the average value of the brightness in the surrounding area is obtained as the brightness of the wall. As an example, the process of obtaining the average value of the luminance is performed by the pattern
ここで、求められた壁の輝度が50であった場合、配置される指標パターンの輝度は、例えば60に設定される。この変形例3の場合の指標パターンは、前述した領域Aの輝度又は領域Bの輝度を60としてもよいし、輝度が60となされた一つの領域のみからなるパターン(一例として正方形等のパターン)であってもよい。 Here, when the obtained wall brightness is 50, the brightness of the index pattern to be arranged is set to, for example, 60. In the index pattern in the case of this modification 3, the brightness of the above-mentioned area A or the brightness of the area B may be set to 60, or a pattern consisting of only one area having a brightness of 60 (for example, a pattern such as a square). It may be.
また、指標パターンの輝度は、ユーザが手動で設定してもよいが、HMD等に設けられているフィルタ(カメラの撮影画像から指標パターンを検出する画像処理等に使用される検出フィルタ)のパラメータに応じて自動的に設定されてもよい。これは、壁の輝度と指標パターンの輝度との輝度差が、検出フィルタにより検出可能であればよいからである。 The brightness of the index pattern may be set manually by the user, but it is a parameter of a filter provided in the HMD or the like (a detection filter used for image processing or the like to detect the index pattern from the image captured by the camera). It may be set automatically according to. This is because it is sufficient that the brightness difference between the brightness of the wall and the brightness of the index pattern can be detected by the detection filter.
指標パターンの輝度を自動的に設定する場合、情報処理装置1000の情報記憶装置1020には、HMD等に設けられている検出フィルタのパラメータに関する情報も記憶されている。パターン輝度決定部1040は、検出フィルタのパラメータに関する情報を情報記憶装置1020から読み出し、そのパラメータに関する情報と、前述のように求めた壁の輝度の情報とを基に、検出フィルタが検出可能な指標パラメータの輝度を決定する。
When the brightness of the index pattern is automatically set, the
第1の実施形態の変形例3によれば、指標パターンが配置される現実の壁や床等の輝度も考慮して指標パターンの輝度を決定することにより、HMDが検出し易い一方で、利用者がより視認し難い指標パターンを実現可能となる。 According to the third modification of the first embodiment, the brightness of the index pattern is determined in consideration of the brightness of the actual wall or floor on which the index pattern is arranged, so that the HMD can be easily detected while being used. It is possible to realize an index pattern that is more difficult for a person to see.
<第2の実施形態>
第2の実施形態では、HMDのカメラのような入力機器(撮像装置)と、パターン出力部1060の印刷装置等のような出力機器とにおける入出力機器間の輝度ずれを考慮することにより、利用者等にとって、より視認し難い指標パターンを生成する例を挙げる。以下の説明では、前述した第1の実施形態の構成等とは異なる部分についてのみ説明する。
<Second embodiment>
In the second embodiment, it is used by considering the difference in brightness between the input / output device such as the input device (imaging device) such as the HMD camera and the output device such as the printing device of the
図7は、第2の実施形態の指標パターンを生成する情報処理装置1000の概略構成を示す図である。情報処理装置1000は、前述した第1の実施形態の情報処理装置1000の構成に加え、パターン色決定部1055を有する。また、第2の実施形態の構成の場合、体験領域画像取得部50が加えられている。
FIG. 7 is a diagram showing a schematic configuration of the
第2の実施形態において、体験領域画像取得部50は、後に指標パターンが付与されることになる体験領域が撮像装置により撮像された体験領域画像の情報を取得し、その体験領域画像の情報をパターンサイズ参考情報入力部100に送る。本実施形態の場合、体験領域画像を取得する撮像装置は、HMDのカメラである。
In the second embodiment, the experience area
パターンサイズ参考情報入力部100は、体験領域画像取得部50が取得した体験領域画像の情報を、第1の実施形態で説明したパターンサイズ参考情報に加えて、情報処理装置1000に送る。パターン取得部1010とパターンサイズ決定部1030は、第1の実施形態で説明したものと同様であるため、これらの説明は省略する。
The pattern size reference
第2の実施形態の場合、情報記憶装置1020は、前述した元パターン情報と特徴検出閾値に加えて、入出力機器間の輝度差を補正する際に使用される輝度値補正パラメータを記憶している。特徴検出閾値取得部1050は、それら特徴検出閾値、輝度値補正パラメータの各情報を取得して、パターン輝度決定部1040に送る。
In the case of the second embodiment, the
第2の実施形態の場合、パターン輝度決定部1040は、パターンサイズ決定部1030から、前述のようにしてパターンサイズSαが決定された指標パターンの情報と、体験領域画像を含むパターンサイズ参考情報とを受け取る。また、パターン輝度決定部1040は、特徴検出閾値取得部1050から、前述した特徴検出閾値と、入出力機器間の輝度差を補正する際に使用される輝度値補正パラメータとを受け取る。
In the case of the second embodiment, the pattern
第2の実施形態の場合のパターン輝度決定部1040は、それら受け取った情報に基づいて、指標パターンの輝度を決定する。具体的には、パターン輝度決定部1040は、先ず、前述した第1の実施形態で説明したのと同様にして指標パターンの輝度を求める。そして、第2の実施形態の場合、パターン輝度決定部1040は、更に、その指標パターンの輝度を、体験領域画像に応じた輝度値補正パラメータにより補正して、指標パターンの輝度として決定する。
The pattern
ここで、指標パターンは、印刷装置や投影装置等の出力機器を含むパターン出力部1060から出力されて体験領域に付与されて、入力機器であるHMDのカメラにより撮影されるものである。このため、パターン出力部1060から出力された指標パターンの輝度と、HMDのカメラによる撮影画像内の指標パターンの輝度とは、それら入出力機器のデバイス特性に依存した値になり、入出力機器の特性による輝度ずれが生じている可能性がある。したがって、第2の実施形態では、入出力機器による指標パターンの輝度ずれを補正するために、パターン輝度決定部1040が第1の実施形態と同様に求めた指標パターンの輝度を、体験領域画像に応じた輝度値補正パラメータに基づいて補正する。
Here, the index pattern is output from the
輝度値補正パラメータは、事前に生成されたものを用いてもよいし、MRの提供を行う度に生成した輝度値補正パラメータを用いてもよい。輝度値補正パラメータは、例えば、輝度値が所定値に決められた確認用パターンを体験領域に付与し、その確認用パターンを撮影した画像と、確認用パターンの所定の輝度値との間の輝度差に応じたパラメータとして生成することができる。したがって、体験領域画像に応じた輝度値補正パラメータを基に輝度値が補正された指標パターンは、体験領域に付与された場合に、その体験領域の輝度と指標パターンの輝度との輝度差が最小に抑えられたものとなり、利用者等から視認し難いパターンとなる。前述のようにして輝度が決定した指標パターンの情報は、体験領域画像の情報とともにパターン色決定部1055に送られる。
As the luminance value correction parameter, those generated in advance may be used, or the luminance value correction parameter generated each time the MR is provided may be used. The brightness value correction parameter is, for example, the brightness between the image obtained by assigning a confirmation pattern whose brightness value is determined to a predetermined value to the experience area and capturing the confirmation pattern and the predetermined brightness value of the confirmation pattern. It can be generated as a parameter according to the difference. Therefore, when the index pattern whose brightness value is corrected based on the brightness value correction parameter according to the experience area image is given to the experience area, the brightness difference between the brightness of the experience area and the brightness of the index pattern is the minimum. It becomes a pattern that is difficult for users to see. The information of the index pattern whose brightness is determined as described above is sent to the pattern
パターン色決定部1055は、パターン輝度決定部1040から受けた指標パターンの輝度と、体験領域画像取得部50にて取得された体験領域画像の情報とを基に、指標パターンの色を決定する。例えば、図8に示すように、体験領域画像のRGB成分から色相を画素ごとに算出してヒストグラムを生成し、そのヒストグラムのなかで頻度が最も多い色相を体験領域画像の主となる色相として決定する。そして、パターン色決定部1055は、その決定した色相と、指標パターンの輝度とを組み合わせることによる色を、指標パターンの色として決定する。これにより、指標パターンは、体験領域に付与された場合に、利用者等から視認し難いパターンとなる。なお、色相は、一枚の体験領域画像だけでなく、時系列に撮影した複数の体験領域画像を用いて決定してもよい。またここでは、RGB成分から色相を求める例を挙げたが、例えばLab(Lab color space)色空間など別の手法により色相が求められてもよい。
The pattern
図9は、第2の実施形態の図7のパターンサイズ参考情報入力部100と情報処理装置1000によるパターンサイズ参考情報の取得から指標パターンの画像生成及び出力までの処理の流れを示すフローチャートである。図9のフローチャートの処理は、例えば、情報処理装置1000の管理者等が、情報処理装置1000に対して指標パターンを生成することを指示したことにより開始する。ここでは、前述した第1の実施形態の図4のフローチャートとは異なる処理のみについて説明する。
FIG. 9 is a flowchart showing the flow of processing from the acquisition of the pattern size reference information by the pattern size reference
図9のフローチャートにおいて、ST300では、パターンサイズ参考情報入力部100は、体験領域画像の情報を含むパターンサイズ参考情報を取得する。ST330では、特徴検出閾値取得部1050は、特徴検出閾値と前述した輝度値補正パラメータを取得する。ST340では、パターン輝度決定部1040は、前述した特徴検出閾値と輝度値補正パラメータとを基に、指標パターンの輝度を決定する。ST340の後、情報処理装置1000は、パターン色決定部1055にて行われるST345に処理を進める。ST345では、パターン色決定部1055は、指標パターンの輝度と体験領域画像を基に、指標パターンの色を決定する。ST345の後、情報処理装置1000は、パターン出力部1060にて行われるST350に処理を進める。ST350の後、情報処理装置1000は、図9のフローチャートの処理を終了する。
In the flowchart of FIG. 9, in ST300, the pattern size reference
なお、ST300とST310の処理の順序は入れ替えられてもよく、また、ST320からST345までの処理の順序も適宜入れ替えられてもよいし、それらが並列して実行されてもよい。 The processing order of ST300 and ST310 may be changed, the processing order of ST320 to ST345 may be changed as appropriate, or they may be executed in parallel.
以上説明したように、第2の実施形態によれば、入出力機器における輝度ずれを考慮した輝度値補正パラメータを基に輝度値を補正し、その補正後の輝度値と体験領域画像の色相に基づいた色の指標パターンを生成可能となっている。第2の実施形態の場合の指標パターンは、現実空間の体験領域の撮影画像から自然特徴として検出可能であり、指標パターンの模様だけではなく、指標パターンと体験領域との境界においても自然特徴の検出が可能となっている。また、第2の実施形態の指標パターンは、利用者やその他の第三者から視認し難いパターンとなっているため、現実空間の景観が損なわれることはない。 As described above, according to the second embodiment, the luminance value is corrected based on the luminance value correction parameter in consideration of the luminance deviation in the input / output device, and the corrected luminance value and the hue of the experience area image are obtained. It is possible to generate an index pattern of a color based on this. The index pattern in the second embodiment can be detected as a natural feature from the captured image of the experience area in the real space, and the natural feature is not only the pattern of the index pattern but also the boundary between the index pattern and the experience area. Detection is possible. Further, since the index pattern of the second embodiment is a pattern that is difficult for the user or other third party to see, the landscape of the real space is not impaired.
<第2の実施形態の変形例1>
第2の実施形態では、パターン色決定部1055は色相のヒストグラムを用いて、体験領域画像の主となる色相を決定していたが、体験領域画像の主となる色相の決定方法は前述の例に限るものではない。例えば、体験領域画像を色相により領域分割し、一番大きな領域の色相を、体験領域画像の主となる色相に決定してもよい。
<
In the second embodiment, the pattern
<コンピュータによる実現例>
前述した第1の実施形態の図1や第2の実施形態の図7の各部は、ハードウェア構成又はソフトウェア構成の何れでも実現可能である。例えば、コンピュータのCPUに、前述した第1又は第2の実施形態のフローチャートの処理に係る情報処理プログラムを実行させてもよい。
<Example of realization by computer>
Each part of FIG. 1 of the first embodiment and FIG. 7 of the second embodiment described above can be realized by either a hardware configuration or a software configuration. For example, the CPU of the computer may be made to execute the information processing program related to the processing of the flowchart of the first or second embodiment described above.
図10は、本実施形態の情報処理プログラムを実行可能なCPUを備えたコンピュータの構成例を示す図である。図10において、CPU4001は、RAM4002やROM4003に格納されているプログラムやデータを用いてコンピュータ全体の制御を行い、また、前述した第1,第2の実施形態の処理に係る情報処理プログラムを実行する。なお、図10のコンピュータは、第1,第2の実施形態の処理に係る情報処理プログラムを実行する場合だけでなく、MRを利用者に提供するための処理も可能である。したがって、図10では、コンピュータにHMD4100も接続されている例を挙げている。
FIG. 10 is a diagram showing a configuration example of a computer provided with a CPU capable of executing the information processing program of the present embodiment. In FIG. 10, the
RAM4002は、外部記憶装置4007や記憶媒体ドライブ4008からロードされた本実施形態の情報処理プログラムを含む各種プログラムやデータ等を一時的に記憶するための領域を有する。また、RAM4002は、I/F(インターフェース)4009を介して外部機器から受信したデータを一時的に記憶するためのエリアをも有する。この例の場合、外部機器は、前述したように生成した指標パターンの画像を印刷する印刷装置や投影装置、前述した体験領域画像を取得するカメラ等である。さらに、RAM4002は、CPU4001が各処理を実行する際に用いるワークエリアも有する。すなわち、RAM4002は、各種エリアを適宜提供することができる。ROM4003は、コンピュータの設定データやブートプログラムなどを格納している。
The
キーボード4004、マウス4005は、操作入力装置の一例であり、コンピュータのユーザが操作することで、各種の指示をCPU4001に対して入力することができる。前述したパターンサイズ参考情報のうちユーザにより入力が可能な情報は、これらキーボード4004やマウス4005を介してユーザより入力される。表示部4006は、ディスプレイにより構成されており、CPU4001による処理結果を画像や文字などで表示することができる。
The
外部記憶装置4007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置4007には、OS(オペレーティングシステム)や、情報処理装置が行うものとして説明した前述した本実施形態に係る各処理をCPU4001に実行させるための情報処理プログラムやデータが格納されている。本実施形態に係る情報処理プログラムには、前述した第1又は第2の実施形態のフローチャートの各処理を実行するためのプログラムが含まれている。また、外部記憶装置4007に記憶されているデータには、前述した情報記憶装置1020に記憶されているような元パターンや特徴検出閾値、輝度値補正パラメータのデータ、その他の各種データが含まれている。
The
外部記憶装置4007に保存されているプログラムやデータは、CPU4001による制御に従って、適宜、RAM4002にロードされる。CPU4001は、このロードされたプログラムやデータを用いて前述した第1又は第2の実施形態で説明した各処理を実行することにより、情報処理装置1000にて行われた各処理を実行する。
The programs and data stored in the
記憶媒体ドライブ4008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、それら記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置4007に保存されているものとして説明したプログラムやデータの一部若しくは全部は、この記憶媒体に記録されてもよい。記憶媒体ドライブ4008が記憶媒体から読み出したプログラムやデータは、外部記憶装置4007やRAM4002に対して出力される。
The
I/F4009は、前述したカメラ等の外部機器を接続するためのアナログビデオポートやIEEE1394等のデジタル入出力ポート、また、前述した印刷装置や投影装置に指標パターンの画像を出力するDVIポートなどにより構成される。また、I/F4009を介して受信したデータは、RAM4002や外部記憶装置4007に入力することも可能となされている。なお、パターンサイズ参考情報は、I/F4009を介して取得されてもよい。また、図10のコンピュータがMRを利用者に提供する場合、I/F4009には、HMD4100が接続される。バス4010は、上述した各部を繋ぐバスである。
The I /
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
50 体験領域画像取得部、100 パターンサイズ参考情報入力部、1000 情報処理装置、1010 パターン取得部、1020 情報記憶装置、1030 パターンサイズ決定部、1040 パターン輝度決定部、1050 特徴検出閾値取得部、1055 パターン色決定部、1060 パターン出力部 50 Experience area image acquisition unit, 100 pattern size reference information input unit, 1000 information processing device, 1010 pattern acquisition unit, 1020 information storage device, 1030 pattern size determination unit, 1050 pattern brightness determination unit, 1050 feature detection threshold acquisition unit, 1055 Pattern color determination unit, 1060 pattern output unit
Claims (19)
前記現実空間の撮影画像の各画素の色相のヒストグラムから前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて、前記パターンの色を決定する色決定手段と、
前記決定された輝度及び色で前記パターンの画像を生成する生成手段と、
を有することを特徴とする情報処理装置。 A brightness determining means for determining the brightness of a pattern given as an index to an experience area in real space based on a threshold value for detecting an image feature.
A color determining means for obtaining the main hue of the captured image from the hue histogram of each pixel of the captured image in the real space and determining the color of the pattern based on the main hue and the brightness.
A generation means for generating an image of the pattern with the determined brightness and color, and
An information processing device characterized by having.
前記生成手段は、前記決定した輝度差を有する模様の前記パターンの画像を生成することを特徴とする請求項2に記載の情報処理装置。 The luminance determining means determines the luminance difference of the pattern of the pattern based on the luminance difference threshold when detecting the feature due to the luminance gradient of the image.
The information processing apparatus according to claim 2, wherein the generation means generates an image of the pattern having a pattern having the determined luminance difference.
前記現実空間の撮影画像の各画素の色相により前記撮影画像を色相ごとの領域に分割し、前記分割された領域の大きさを基に、前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて前記パターンの色を決定する色決定手段と、
前記決定された輝度及び色で前記パターンの画像を生成する生成手段と、
を有することを特徴とする情報処理装置。 A brightness determining means for determining the brightness of a pattern given as an index to an experience area in real space based on a threshold value for detecting an image feature.
The captured image is divided into regions for each hue according to the hue of each pixel of the captured image in the real space, and the main hue of the captured image is obtained based on the size of the divided regions. A color determining means for determining the color of the pattern based on the hue and the brightness.
A generation means for generating an image of the pattern with the determined brightness and color, and
Information processing apparatus characterized by having a.
前記生成手段は、前記パターンごとにサイズが決定された前記複数のパターンが集合した画像を生成することを特徴とする請求項10又は11に記載の情報処理装置。 The sizing means determines the size of a plurality of patterns for each pattern.
The information processing apparatus according to claim 10 , wherein the generation means generates an image in which the plurality of patterns whose sizes are determined for each pattern are aggregated.
前記生成手段は、前記補正された後の輝度の前記パターンの画像を生成することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。 The brightness determining means corrects the determined brightness based on the threshold value by a correction parameter.
The information processing apparatus according to any one of claims 1 to 13, wherein the generation means generates an image of the pattern having the corrected brightness.
画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定し、
前記現実空間の撮影画像の各画素の色相のヒストグラムから前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて、前記パターンの色を決定し、
前記決定された輝度及び色で前記パターンの画像を生成する
ことを特徴とする情報処理方法。 It is an information processing method executed by an information processing device that generates an image of a pattern to be given to the experience area in the real space.
Based on the threshold value when detecting the feature of the image, the brightness of the pattern given as an index to the experience area in the real space is determined.
The main hue of the captured image is obtained from the hue histogram of each pixel of the captured image in the real space, and the color of the pattern is determined based on the main hue and the brightness.
An information processing method comprising generating an image of the pattern with the determined brightness and color.
画像の特徴を検出する際の閾値に基づいて、現実空間の体験領域に指標として付与されるパターンの輝度を決定し、Based on the threshold value when detecting the feature of the image, the brightness of the pattern given as an index to the experience area in the real space is determined.
前記現実空間の撮影画像の各画素の色相により前記撮影画像を色相ごとの領域に分割し、前記分割された領域の大きさを基に、前記撮影画像の主となる色相を求め、前記主となる色相と前記輝度とに基づいて前記パターンの色を決定し、The captured image is divided into regions for each hue according to the hue of each pixel of the captured image in the real space, and the main hue of the captured image is obtained based on the size of the divided regions. The color of the pattern is determined based on the hue and the brightness.
前記決定された輝度及び色で前記パターンの画像を生成するGenerate an image of the pattern with the determined brightness and color
ことを特徴とする情報処理方法。An information processing method characterized by the fact that.
撮像手段により現実空間を撮像した画像と、コンピュータグラフィックにより生成した仮想世界の画像とを、融合させた複合現実感の画像を表示手段に表示させる表示装置と、
を有することを特徴とする情報処理システム。 The information processing apparatus according to any one of claims 1 to 15.
A display device that displays a mixed reality image by fusing an image of the real space captured by the imaging means and an image of the virtual world generated by computer graphics on the display means.
An information processing system characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/455,291 US10685490B2 (en) | 2016-03-10 | 2017-03-10 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016047233 | 2016-03-10 | ||
JP2016047233 | 2016-03-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017168085A JP2017168085A (en) | 2017-09-21 |
JP6938158B2 true JP6938158B2 (en) | 2021-09-22 |
Family
ID=59913795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017001010A Active JP6938158B2 (en) | 2016-03-10 | 2017-01-06 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6938158B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63213077A (en) * | 1987-02-28 | 1988-09-05 | Nippon Telegr & Teleph Corp <Ntt> | Picture synthesizing method |
JP4253567B2 (en) * | 2003-03-28 | 2009-04-15 | オリンパス株式会社 | Data authoring processor |
JP2009020614A (en) * | 2007-07-10 | 2009-01-29 | Ritsumeikan | Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program |
JP2015118442A (en) * | 2013-12-17 | 2015-06-25 | ソニー株式会社 | Information processor, information processing method, and program |
US9548014B2 (en) * | 2014-08-04 | 2017-01-17 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
-
2017
- 2017-01-06 JP JP2017001010A patent/JP6938158B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017168085A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102049245B1 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
JP6587421B2 (en) | Information processing apparatus, information processing method, and program | |
US8487926B2 (en) | Method and apparatus for generating 3D image using 2D photograph images | |
US11004267B2 (en) | Information processing apparatus, information processing method, and storage medium for generating a virtual viewpoint image | |
JP6503906B2 (en) | Image processing apparatus, image processing method and image processing program | |
JP7031697B2 (en) | Information processing device and recognition support method | |
US10685490B2 (en) | Information processing apparatus, information processing method, and storage medium | |
KR102539427B1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2017096725A (en) | Information processor and information processing method | |
JP5771981B2 (en) | Drawing image sharing apparatus, data processing method, program, and recording medium | |
JP2008033531A (en) | Method for processing information | |
JP7164968B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE | |
JP2014071850A (en) | Image processing apparatus, terminal device, image processing method, and program | |
CN107358609B (en) | Image superposition method and device for augmented reality | |
JP2002057879A (en) | Apparatus and method for image processing, and computer readable recording medium | |
JP7027049B2 (en) | Image processing equipment, image processing methods and programs | |
JP2018180687A (en) | Image processing apparatus, image processing method and program | |
JP5762015B2 (en) | Image processing apparatus, image processing method, and program | |
JP5573520B2 (en) | Image generation apparatus, imaging apparatus, and image generation program | |
JP5448739B2 (en) | Image reproducing apparatus, imaging apparatus, and image reproducing method | |
JP6719945B2 (en) | Information processing apparatus, information processing method, information processing system, and program | |
JP6938158B2 (en) | Information processing equipment, information processing methods, and programs | |
JP2010224677A (en) | Image evaluation method, image evaluation program and printing device | |
JP2018032991A (en) | Image display unit, image display method and computer program for image display | |
JP5734080B2 (en) | Information processing apparatus, processing method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210901 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6938158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |