JP2003256876A - Device and method for displaying composite sense of reality, recording medium and computer program - Google Patents

Device and method for displaying composite sense of reality, recording medium and computer program

Info

Publication number
JP2003256876A
JP2003256876A JP2002057838A JP2002057838A JP2003256876A JP 2003256876 A JP2003256876 A JP 2003256876A JP 2002057838 A JP2002057838 A JP 2002057838A JP 2002057838 A JP2002057838 A JP 2002057838A JP 2003256876 A JP2003256876 A JP 2003256876A
Authority
JP
Japan
Prior art keywords
image
orientation
identification information
teaching index
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002057838A
Other languages
Japanese (ja)
Other versions
JP4032776B2 (en
Inventor
Yuichi Abe
友一 阿部
Ryuichi Imaizumi
竜一 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002057838A priority Critical patent/JP4032776B2/en
Publication of JP2003256876A publication Critical patent/JP2003256876A/en
Application granted granted Critical
Publication of JP4032776B2 publication Critical patent/JP4032776B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To present a virtual real world where the harmony of an appearance such as the size or color of a real object and the surrounding environment is realized without disposing any real object in a real space. <P>SOLUTION: An object indicating index where a plurality of markers which have respective identification information and the mutual positional relations of which are already known are disposed is photographed with a camera, the object indicating index is specified on the basis of the photographed image, and three-dimensional position/attitude disposed in a real space is obtained. Furthermore, a three-dimensional model corresponding to the detected identification information is disposed at the three-dimensional position/attitude obtained from the object indicating index in the virtual space so that the composite real space can be prepared. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータやネ
ットワーク上で実装された仮想空間上で実世界の様相を
組み込む複合現実感表示装置及び方法、記憶媒体、並び
にコンピュータ・プログラムに係り、特に、ユーザが存
在する場所や実世界オブジェクトの実空間上の位置・姿
勢などの実世界状況を積極的に利用して仮想空間を現実
世界に拡張する複合現実感表示装置及び方法、記憶媒
体、並びにコンピュータ・プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mixed reality display device and method, a storage medium, and a computer program for incorporating aspects of the real world in a virtual space implemented on a computer or a network, and more particularly to a user. A virtual reality display device and method, a storage medium, and a computer that extend the virtual space to the real world by positively utilizing the real world situation such as the place where the object exists and the position and orientation of the real world object Regarding the program.

【0002】さらに詳しくは、本発明は、現実空間に実
物体を配置することなく実物体の大きさや色などといっ
た外観と周囲環境との調和が図られた仮想現実世界をユ
ーザに提示する複合現実感表示装置及び方法、記憶媒
体、並びにコンピュータ・プログラムに係り、特に、実
物体を模倣した仮想物体を現実空間に合成して表示する
複合現実感表示装置及び方法、記憶媒体、並びにコンピ
ュータ・プログラムに関する。
More specifically, the present invention provides a mixed reality for presenting a virtual reality world in which the appearance of the real object such as size and color and the surrounding environment are harmonized without arranging the real object in the physical space. The present invention relates to a sensation display device and method, a storage medium, and a computer program, and more particularly, to a mixed reality display device and method, a storage medium, and a computer program for synthesizing and displaying a virtual object that imitates a real object in a real space. .

【0003】[0003]

【従来の技術】情報処理技術や情報通信技術が高度に発
達した現代においては、パーソナル・コンピュータや携
帯情報端末を始めとする情報機器がオフィスや家庭内な
どの実世界上のいたるところに遍在する。このような環
境下では、機器どうしを接続して、いつでもどこでも欲
しい情報を入手する「ユビキタス(Ubiquitous)・コン
ピューティング」や、実世界の状況(実世界の事物やユ
ーザの位置など)を積極的に利用した拡張現実システム
(Augmented Reality:AR)の実現が期待される。
2. Description of the Related Art In the modern age of advanced information processing technology and information communication technology, information devices such as personal computers and personal digital assistants are ubiquitous in the real world such as offices and homes. To do. In such an environment, actively connect to "Ubiquitous Computing," which connects devices to obtain desired information anytime and anywhere, and the real-world situation (real-world things, user positions, etc.). It is expected that the augmented reality system (Augmented Reality: AR) used for

【0004】ユビキタス・コンピューティングの概念
は、人がどこに移動しても利用できるコンピュータの環
境が同じであることである。すなわち、「いつでもどこ
でも」なのだから、究極のユビキタス・コンピューティ
ングは、必ずしもコンピュータやPDA(Personal Dig
ital Assistant)や携帯電話機などの情報端末を必要と
はしない。
The concept of ubiquitous computing is that the environment of computers that can be used regardless of where a person moves is the same. In other words, because it is "anytime, anywhere", the ultimate ubiquitous computing is not necessarily a computer or PDA (Personal Dig
Ital Assistant) and information terminals such as mobile phones are not required.

【0005】また、拡張現実システムによれば、ユーザ
の位置などの実世界状況を利用したサービスを提供する
ことができる。この場合、ユーザは携帯端末を保持する
だけで、システムはユーザの近傍や視界中にある実世界
の事物に応じた情報を提示して、ネットワーク上にある
膨大な情報を利用して日常生活のあらゆる局面を支援す
ることができる。例えば、ショッピング・モールでカメ
ラ付き携帯端末をかざしてCDショップを訪ねると、お
薦めの新譜が端末上で表示される。また、レストランの
看板を見ると、料理の感想が表示される。
Further, according to the augmented reality system, it is possible to provide a service utilizing the real world situation such as the position of the user. In this case, the user simply holds the mobile terminal, and the system presents information according to real-world things in the vicinity of the user or in the field of view, and uses the vast amount of information on the network to carry out daily life. Can support all aspects. For example, when a user visits a CD shop by holding a camera-equipped mobile terminal in a shopping mall, a recommended new song is displayed on the terminal. Also, looking at the signboard of the restaurant, the impression of the food is displayed.

【0006】例えば、家庭内の家具や電化製品、インテ
リアなどを購入する際、それらが部屋の大きさに合って
いるのか、部屋や他の家具などの色と調和しているのか
など、実際に購入する前に調べたいことが多々ある。ま
た、部屋の模様替えを行う際、実際に家具や家電製品、
インテリアなどの配置をいろいろと変更し、試したいも
のである。
[0006] For example, when purchasing household furniture, electrical appliances, interiors, etc., whether they match the size of the room or whether they match the colors of the room or other furniture, etc. There are many things I want to check before purchasing. Also, when redecorating a room, you can
I would like to try various arrangements such as the interior.

【0007】ユーザが現実世界でのみ生活する場合、購
入前に実際に自宅の部屋に実物を配置することは困難で
ある。また、一般に家具や電化製品、インテリアなどは
大きく重いので、実際に実物を動かしたり、室内でさま
ざまな配置を試みることは重労働であり現実的でない。
When the user lives only in the real world, it is difficult to actually arrange the real thing in the room at home before purchasing. In addition, furniture, electric appliances, interiors, etc. are generally large and heavy, so it is not realistic to actually move the objects or try various arrangements indoors because it is hard work.

【0008】これに対し、コンピュータ上に実際の住居
を模倣した3次元の仮想住居を構築して、この仮想住居
の中に家具や電化製品、インテリアなどの3次元モデル
を配置して、さまざまな視点から住居を眺めることがで
きるアプリケーションが考案されている。これらのアプ
リケーションは、近年におけるコンピュータの処理速度
の向上や、3次元コンピュータ・グラフィックス(3D
CG)技術の発展に伴い、リアリティ溢れる表現力を可
能にしている。
On the other hand, a three-dimensional virtual house imitating an actual house is constructed on a computer, and three-dimensional models such as furniture, electric appliances, and interiors are arranged in the virtual house, and various virtual houses are arranged. Applications have been devised that allow the house to be viewed from a perspective. These applications are used to improve the processing speed of computers in recent years and to improve 3D computer graphics (3D).
With the development of CG) technology, it is possible to have expressive power full of reality.

【0009】しかしながら、これらの仮想現実アプリケ
ーションを実際に利用する場合、いくつかの問題点があ
る。
However, there are some problems in actually using these virtual reality applications.

【0010】まず、自分が住んでいる部屋のモデルを構
築しなければならない点である。住んでいる部屋の間取
りを、瞬時に、かつ正確に作成できる人は稀であり、一
般にはメジャー等で実際に部屋を計測したり、家を購入
する際に入手した間取り図を参考に構築しなければなら
ない。概略的な部屋の雰囲気を表現したいのであれば大
まかな部屋モデルで十分であるが、家具や電化製品、イ
ンテリアなどのサイズを調べるには正確な部屋モデルの
構築が不可欠となる。
First, one has to build a model of the room in which one lives. It is rare for anyone to be able to create the floor plan of the room in which they live in an instant and accurately.Generally, the room is actually measured with a tape measure or the like, and the floor plan obtained when purchasing the house is used as a reference. There must be. A rough room model is sufficient if you want to express the general atmosphere of the room, but it is essential to build an accurate room model to check the size of furniture, appliances, interiors, etc.

【0011】また、住居を模倣するには所有している家
具や電化製品、インテリアなどの3次元モデルが必要で
あるが、これらの完全なモデルを作成あるいは入手する
ことは困難であり、複数の3次元モデル素材の中から最
も近似しているモデルを選択するのが現状である。この
ため、現実の住居とは異なる仮想住居が構築されてしま
う。
Further, in order to imitate a house, it is necessary to have a three-dimensional model of furniture, electric appliances, interiors, etc. owned, but it is difficult to create or obtain these complete models, and it is difficult to obtain a plurality of models. At present, the most approximate model is selected from the three-dimensional model materials. Therefore, a virtual house different from the actual house will be constructed.

【0012】さらに、コンピュータの処理速度の向上と
ともに、CG技術が発展し、表現力が格段に向上された
とは言え、現実と見間違えるような表現は難しく、可能
であっても多大な計算時間を要するのがほとんどであ
る。
Further, although the computer processing speed has been improved and the CG technology has been developed and the expressive power has been remarkably improved, it is difficult to express it as if it is mistaken for reality, and even if possible, a great amount of calculation time is required. Mostly it costs.

【0013】[0013]

【発明が解決しようとする課題】本発明の目的は、コン
ピュータやネットワーク上で実装された仮想空間上で実
世界の様相を組み込むことができる、優れた複合現実感
表示装置及び方法、並びにコンピュータ・プログラムを
提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an excellent mixed reality display device and method capable of incorporating aspects of the real world in a virtual space implemented on a computer or a network, and a computer. To provide a program.

【0014】本発明のさらなる目的は、ユーザが存在す
る場所や実世界オブジェクトの実空間上の位置・姿勢な
どの実世界状況を積極的に利用して仮想空間を現実世界
に拡張することができる、優れた複合現実感表示装置及
び方法、並びにコンピュータ・プログラムを提供するこ
とにある。
A further object of the present invention is to extend the virtual space to the real world by positively utilizing the real world situation such as the place where the user exists and the position / orientation of the real world object in the real space. To provide an excellent mixed reality display device and method, and a computer program.

【0015】本発明のさらなる目的は、現実空間に実物
体を配置することなく実物体の大きさや色などといった
外観と周囲環境との調和が図られた仮想現実世界をユー
ザに提示することができる、優れた複合現実感表示装置
及び方法、並びにコンピュータ・プログラムを提供する
ことにある。
A further object of the present invention is to present the user with a virtual reality world in which the appearance such as the size and color of the real object and the surrounding environment are harmonized without disposing the real object in the real space. To provide an excellent mixed reality display device and method, and a computer program.

【0016】本発明のさらなる目的は、実物体を模倣し
た仮想物体を現実空間に合成して表示することができ
る、優れた複合現実感表示装置及び方法、並びにコンピ
ュータ・プログラムを提供することにある。
A further object of the present invention is to provide an excellent mixed reality display device and method, and a computer program, which can display a virtual object that imitates a real object by combining it in a real space. .

【0017】[0017]

【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、仮想物体を現実空間に合成して表示する複合現実感
表示装置又は方法であって、物体教示指標を含んだ現実
空間上のシーンを捕捉する画像入力部又はステップと、
前記画像入力部又はステップによる入力画像を基に前記
物体教示指標の空間的位置及び姿勢を計算する位置・姿
勢計算部又はステップと、前記画像入力部又はステップ
による入力画像を基に前記物体教示指標が持つ識別情報
を認識して対応する現実物体を認識する物体認識部又は
ステップと、前記物体認識部又はステップにより認識さ
れた現実物体についての3次元モデルからなる仮想物体
を前記位置・姿勢計算部又はステップにより算出された
空間的な位置及び姿勢に応じて回転・移動させて入力画
像上に合成する画像合成部又はステップと、を具備する
ことを特徴とする複合現実感表示装置又は方法である。
The present invention has been made in consideration of the above problems, and a first aspect thereof is a mixed reality display device for synthesizing and displaying a virtual object in a real space. Or a method, an image input section or step for capturing a scene in a real space including an object teaching index,
A position / orientation calculation unit or step for calculating the spatial position and orientation of the object teaching index based on the input image by the image input unit or step; and the object teaching index based on the input image by the image input unit or step. An object recognition unit or step for recognizing identification information possessed by the object recognition unit or step for recognizing a corresponding physical object; and a virtual object consisting of a three-dimensional model of the physical object recognized by the object recognition unit or step for the position / orientation calculation unit. Or an image synthesizing unit or step of synthesizing on an input image by rotating / moving in accordance with the spatial position and orientation calculated in step, or a mixed reality display device or method. .

【0018】本発明の第1の側面に係る複合現実感表示
装置又は方法によれば、物体教示指標をカメラで撮影し
て、この撮影画像を基に物体教示指標が持つ識別情報を
取得するとともに、物体教示指標が現実空間に配置され
た3次元位置・姿勢を取得する。さらに、仮想空間にお
いて、検出した識別情報に対応する3次元モデルを、物
体教示指標から求められた3次元位置・姿勢に配置する
ことによって、複合現実空間を比較的短時間で且つ低コ
ストに作成することができる。
According to the mixed reality display device or method according to the first aspect of the present invention, the object teaching index is photographed by the camera, and the identification information possessed by the object teaching index is acquired based on the photographed image. , The three-dimensional position / orientation in which the object teaching index is arranged in the physical space is acquired. Furthermore, by arranging the three-dimensional model corresponding to the detected identification information in the three-dimensional position / orientation obtained from the object teaching index in the virtual space, the mixed reality space can be created in a relatively short time and at low cost. can do.

【0019】例えば、家庭内の家具や電化製品、インテ
リアなどを購入する際、それらが部屋の大きさに合って
いるのか、部屋や他の家具などの色と調和しているのか
など、実際に購入する前に調べたいことが多々ある。ま
た、部屋の模様替えを行う際、実際に家具や家電製品、
インテリアなどの配置をいろいろと変更し、試したいも
のである。ところが、購入前に実際に自宅の部屋に実物
を配置することは困難である。また、一般に家具や電化
製品、インテリアなどは大きく重いので、実際に実物を
動かしたり、室内でさまざまな配置を試みることは重労
働であり現実的でない。
For example, when purchasing household furniture, electric appliances, interiors, etc., whether they match the size of the room or the colors of the room and other furniture, etc. There are many things I want to check before purchasing. Also, when redecorating a room, you can
I would like to try various arrangements such as the interior. However, it is difficult to actually place the real thing in a room at home before purchasing. In addition, furniture, electric appliances, interiors, etc. are generally large and heavy, so it is not realistic to actually move the objects or try various arrangements indoors because it is hard work.

【0020】これに対し、本発明の第1の側面に係る複
合現実感表示装置又は方法によれば、家具や家電製品、
インテリアなどの現実の物体を配置してみたい場合に
は、現実の物体に代えて、物体教示指標を設置するだけ
で、現実空間に実物体を配置することなく実物体の大き
さや色などといった外観と周囲環境との調和が図られた
仮想現実世界をユーザに提示することができる。
On the other hand, according to the mixed reality display device or method according to the first aspect of the present invention, furniture, home electric appliances,
If you want to place a real object such as an interior, you can simply place an object teaching index instead of the real object, and look and feel the size and color of the real object without placing it in the physical space. It is possible to present the user with a virtual reality world that is in harmony with the environment.

【0021】したがって、ユーザは、実空間上のシーン
に仮想物体が合成された複合現実感画像を基に、家庭内
の家具や電化製品、インテリアなどが部屋の大きさに合
っているのか、部屋や他の家具などの色と調和している
のかなどを、実際に購入する前に判断することが可能と
なる。また、家具や電化製品、インテリアなどの仮想物
体以外の室内の風景や物体は、カメラから取り込まれた
現実の画像をそのまま利用する。すなわち、現実空間に
ついて完全なモデルを作成あるいは入手する必要がな
く、容易に拡張現実感画像を生成することができる。
Therefore, the user can determine whether the furniture, electrical appliances, interior, etc. in the home match the size of the room based on the mixed reality image in which the virtual object is combined with the scene in the real space. It is possible to judge whether or not it is in harmony with the color of other furniture etc. before actually purchasing. In addition, for indoor scenes and objects other than virtual objects such as furniture, electrical appliances, and interiors, the actual images captured by the camera are used as they are. That is, the augmented reality image can be easily generated without the need to create or obtain a complete model for the physical space.

【0022】ここで、前記画像合成部又はステップは、
前記物体認識部により認識された現実物体に関する料金
や仕様、あるいはその他の関連情報を入力画像上にさら
に合成するようにしてもよい。
Here, the image composition unit or step is
You may make it further synthesize | combine the charge and specification regarding the physical object recognized by the said object recognition part, or other relevant information on an input image.

【0023】また、さらに前記物体教示指標までの距離
を測定する距離測定部又はステップを備えていてもよ
い。このような場合、前記画像合成部又はステップは、
前記距離測定部又はステップにより得られた距離に基づ
いて前記仮想物体に陰面処理を適用することにより、よ
り自然な合成画像を得ることができる。
Further, a distance measuring unit or step for measuring the distance to the object teaching index may be further provided. In such a case, the image composition unit or step
By applying hidden surface processing to the virtual object based on the distance obtained by the distance measuring unit or step, a more natural composite image can be obtained.

【0024】前記物体教示指標には光学的識別情報が配
設されている。光学的識別情報とは、例えば、固有の
色、形状、又はバーコードなどのビジュアルコード、あ
るいは識別情報やその他のデータを符号化した光の点滅
パターンなどで構成される。
Optical identification information is provided in the object teaching index. The optical identification information includes, for example, a unique color, shape, or a visual code such as a barcode, or a blinking pattern of light in which identification information or other data is encoded.

【0025】このような場合、前記物体認識部又はステ
ップは、入力画像から光学的識別情報を抽出して物体の
識別情報を取得することができる。
In such a case, the object recognition unit or step can extract the optical identification information from the input image and acquire the identification information of the object.

【0026】また、物体教示指標に互いの位置関係が既
知である複数の光学的識別情報を配設するようにしても
よい。このような場合、前記位置・姿勢計算部又はステ
ップは、入力画像から光学的識別情報を抽出して、該入
力画像における各光学的識別情報の検出位置に基づいて
その空間的な位置及び姿勢を算出することができる。
Further, the object teaching index may be provided with a plurality of optical identification information whose positional relationship is known. In such a case, the position / orientation calculation unit or step extracts the optical identification information from the input image and determines the spatial position and orientation based on the detected position of each optical identification information in the input image. It can be calculated.

【0027】例えば、Robert M. Haralick、Chung-nan
Lee、Karsten Ottenberg、及びMichael Nolle共著の論
文"Analysis and Solutions of The Three Point Persp
ective Pose Estimation Problem"(In Proceedings of
the Conference on ComputerVision and Pattern Reco
gnition, Maui, Hawaii, USA, pp.592-598, 1991)に
は、対象物体上に配設された既知の3点の位置から該物
体の3次元位置及び姿勢を計測する方法について記述さ
れている。したがって、3個以上の光学的識別情報を物
体教示指標に配設しておけば、前記位置・姿勢計算部又
はステップは、このRobert外著の方法を用いて、
入力画像上で抽出される3つの光学的識別情報の検出位
置を基に対応する3次元位置及び姿勢を数学的に算出す
ることができる。
For example, Robert M. Haralick, Chung-nan
Lee, Karsten Ottenberg, and Michael Nolle, "Analysis and Solutions of The Three Point Persp"
ective Pose Estimation Problem "(In Proceedings of
the Conference on ComputerVision and Pattern Reco
gnition, Maui, Hawaii, USA, pp.592-598, 1991) describes a method for measuring the three-dimensional position and orientation of an object from the known three points on the object. There is. Therefore, if three or more pieces of optical identification information are arranged in the object teaching index, the position / orientation calculation section or step uses the method of Robert et al.
It is possible to mathematically calculate the corresponding three-dimensional position and orientation based on the detected positions of the three pieces of optical identification information extracted on the input image.

【0028】また、加藤博一、Mark Billinghurst、浅
野浩一、橘啓八郎共著の論文『マーカー追跡に基づく拡
張現実感システムとそのキャリブレーション』(日本バ
ーチャルリアリティ学会論文誌, Vol.4, No.4, 1999)
には、平行四辺形の各頂点に配置された4つのマーカを
基に平行四辺形の3次元位置及び姿勢を計測する方法に
ついて記載されている。したがって、平行四辺形の頂点
をなす4個以上の光学的識別情報を物体教示指標に配設
しておけば、前記位置・姿勢計算部又はステップは、こ
の加藤外著の方法を用いて、入力画像上で抽出される4
つの光学的識別情報の検出位置を基に対応する3次元位
置及び姿勢を数学的に算出する選択することができる。
Also, a paper entitled "Augmented Reality System Based on Marker Tracking and Its Calibration" by Hirokazu Kato, Mark Billinghurst, Koichi Asano, and Keihachiro Tachibana (Journal of the Virtual Reality Society of Japan, Vol.4, No.4) , 1999)
Describes a method of measuring a three-dimensional position and orientation of a parallelogram based on four markers arranged at each vertex of the parallelogram. Therefore, if four or more pieces of optical identification information forming the vertices of a parallelogram are arranged in the object teaching index, the position / orientation calculation unit or step can be input using the method of Kato et al. 4 extracted on the image
It is possible to mathematically calculate the corresponding three-dimensional position and orientation based on the detected positions of the one piece of optical identification information.

【0029】光学的識別情報が光の点滅パターンとして
表されている場合には、前記物体認識部又はステップ
は、入力画像を基に各点滅光源からの点滅パターンを抽
出するとともにこれらを復号化して前記物体教示指標が
持つ識別情報を認識することができる。
When the optical identification information is represented as a blinking pattern of light, the object recognizing unit or step extracts the blinking pattern from each blinking light source based on the input image and decodes them. The identification information of the object teaching index can be recognized.

【0030】また、このような場合、前記位置・姿勢計
算部又はステップは、入力画像を基に各点滅光源からの
点滅パターンを抽出しこれらを復号化して各々を識別す
るとともに、該入力画像における各点滅光源の検出位置
に基づいてその空間的な位置及び姿勢を算出することが
できる。
Further, in such a case, the position / orientation calculation section or step extracts the blinking patterns from each blinking light source based on the input image, decodes these to identify each, and identifies each of them. The spatial position and orientation of each blinking light source can be calculated based on the detected position.

【0031】また、本発明の第2の側面は、仮想物体を
現実空間に合成して表示するための処理をコンピュータ
・システム上で実行するように記述されたコンピュータ
・ソフトウェアをコンピュータ可読形式で物理的に格納
した記憶媒体であって、前記コンピュータ・ソフトウェ
アは、物体教示指標を含んだ現実空間上のシーンを捕捉
する画像入力ステップと、前記画像入力ステップにおけ
る入力画像を基に前記物体教示指標の空間的位置及び姿
勢を計算する位置・姿勢計算ステップと、前記画像入力
ステップにおける入力画像を基に前記物体教示指標が持
つ識別情報を認識して対応する現実物体を認識する物体
認識ステップと、前記物体認識ステップにおいて認識さ
れた現実物体についての3次元モデルからなる仮想物体
を前記位置・姿勢計算ステップにおいて算出された空間
的な位置及び姿勢に応じて回転・移動させて入力画像上
に合成する画像合成ステップと、を具備することを特徴
とする記憶媒体である。
The second aspect of the present invention is a computer-readable physical form of computer software written so as to execute a process for synthesizing and displaying a virtual object in a real space on a computer system. A computer-readable storage medium in which the computer software captures a scene in real space including an object teaching index, and the object teaching index of the object teaching index based on the input image in the image input step. A position / orientation calculating step of calculating a spatial position and orientation; an object recognizing step of recognizing the identification information of the object teaching index based on the input image in the image input step to recognize a corresponding physical object; The position / orientation of the virtual object, which is a three-dimensional model of the physical object recognized in the object recognition step, A storage medium characterized by comprising a, an image combining step of combining on the input image by rotating, moving in accordance with the calculated spatial position and orientation in calculation step.

【0032】本発明の第2の側面に係る記憶媒体は、例
えば、さまざまなプログラム・コードを実行可能な汎用
コンピュータ・システムに対して、コンピュータ・ソフ
トウェアをコンピュータ可読な形式で提供する媒体であ
る。このような媒体は、例えば、DVD(Digital Vers
atile Disc)やCD(Compact Disc)、FD(Flexible
Disk)、MO(Magneto-Optical disc)などの着脱自
在で可搬性の記憶媒体である。あるいは、ネットワーク
(ネットワークは無線、有線の区別を問わない)などの
伝送媒体などを経由してコンピュータ・ソフトウェアを
特定のコンピュータ・システムに提供することも技術的
に可能である。
The storage medium according to the second aspect of the present invention is, for example, a medium that provides computer software in a computer-readable format to a general-purpose computer system capable of executing various program codes. Such a medium is, for example, a DVD (Digital Vers
atile Disc), CD (Compact Disc), FD (Flexible Disc)
Disk), MO (Magneto-Optical disc), and other removable storage media. Alternatively, it is technically possible to provide computer software to a specific computer system via a transmission medium such as a network (whether the network is wireless or wired).

【0033】また、本発明の第2の側面に係る記憶媒体
は、コンピュータ・システム上で所定のコンピュータ・
ソフトウェアの機能を実現するための、コンピュータ・
ソフトウェアと記憶媒体との構造上又は機能上の協働的
関係を定義したものである。換言すれば、本発明の第2
の側面に係る記憶媒体を介して所定のコンピュータ・ソ
フトウェアをコンピュータ・システムにインストールす
ることによって、コンピュータ・システム上では協働的
作用が発揮され、本発明の第1の側面に係る複合現実感
表示装置又はその方法と同様の作用効果を得ることがで
きる。
Further, the storage medium according to the second aspect of the present invention is a computer system having a predetermined computer
A computer for realizing software functions
It defines a structural or functional collaborative relationship between software and a storage medium. In other words, the second aspect of the present invention
By installing the predetermined computer software in the computer system via the storage medium according to the first aspect, the cooperative action is exerted on the computer system, and the mixed reality display according to the first aspect of the present invention. It is possible to obtain the same effect as that of the device or the method thereof.

【0034】また、本発明の第3の側面は、仮想物体を
現実空間に合成して表示するための処理をコンピュータ
・システム上で実行するようにコンピュータ可読形式で
記述されたコンピュータ・プログラムであって、物体教
示指標を含んだ現実空間上のシーンを捕捉する画像入力
ステップと、前記画像入力ステップにおける入力画像を
基に前記物体教示指標の空間的位置及び姿勢を計算する
位置・姿勢計算ステップと、前記画像入力ステップにお
ける入力画像を基に前記物体教示指標が持つ識別情報を
認識して対応する現実物体を認識する物体認識ステップ
と、前記物体認識ステップにおいて認識された現実物体
についての3次元モデルからなる仮想物体を前記位置・
姿勢計算ステップにおいて算出された空間的な位置及び
姿勢に応じて回転・移動させて入力画像上に合成する画
像合成ステップと、を具備することを特徴とするコンピ
ュータ・プログラムである。
The third aspect of the present invention is a computer program written in a computer-readable format so as to execute a process for synthesizing and displaying a virtual object in a real space on a computer system. An image input step of capturing a scene in real space including the object teaching index, and a position / orientation calculating step of calculating a spatial position and orientation of the object teaching index based on the input image in the image input step. An object recognition step of recognizing the corresponding physical object by recognizing the identification information of the object teaching index based on the input image in the image input step, and a three-dimensional model of the physical object recognized in the object recognition step The virtual object consisting of
An image synthesizing step of rotating and moving in accordance with the spatial position and orientation calculated in the orientation calculating step and synthesizing on an input image.

【0035】本発明の第3の側面に係るコンピュータ・
プログラムは、コンピュータ・システム上で所定の処理
を実現するようにコンピュータ可読形式で記述されたコ
ンピュータ・プログラムを定義したものである。換言す
れば、本発明の第3の側面に係るコンピュータ・プログ
ラムをコンピュータ・システムにインストールすること
によって、コンピュータ・システム上では協働的作用が
発揮され、本発明の第1側面に係る複合現実感表示装置
又はその方法と同様の作用効果を得ることができる。
A computer according to the third aspect of the present invention
The program defines a computer program written in a computer-readable format so as to realize a predetermined process on a computer system. In other words, by installing the computer program according to the third aspect of the present invention in the computer system, a cooperative action is exerted on the computer system, and the mixed reality according to the first aspect of the present invention. The same effect as that of the display device or the method thereof can be obtained.

【0036】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施形態や添付する図面に基づくより
詳細な説明によって明らかになるであろう。
Further objects, features and advantages of the present invention are as follows.
It will be apparent from the embodiments of the present invention described later and the more detailed description based on the accompanying drawings.

【0037】[0037]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施形態について詳解する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below in detail with reference to the drawings.

【0038】本発明に係る複合現実感表示システムは、
実世界上に存在する物理オブジェクトに対して複数の光
学的な識別情報を取り付けるとともに、これを2次元イ
メージ・センサを利用して撮影して画像処理・画像認識
により、オブジェクトの同定するとともにその3次元的
な位置や姿勢などのオブジェクトが持つ実世界状況を基
にした拡張現実(AR:Augmented Reality)サービス
を実現するものであり、例えば、現実空間の一部が仮想
世界に拡張された複合現実感画像を提供する。
The mixed reality display system according to the present invention is
A plurality of optical identification information is attached to a physical object existing in the real world, this is photographed by using a two-dimensional image sensor, and the object is identified by image processing and image recognition. It realizes an augmented reality (AR) service based on the real world situation of objects such as three-dimensional positions and postures. For example, mixed reality in which a part of the real space is expanded into a virtual world. Provide a feeling image.

【0039】実世界オブジェクトに取り付ける光学的な
識別情報として、色の空間パターンに符号化されたビジ
ュアル・コードの他に、LEDのような点滅する光源か
らなる光学信号を利用することができる。後者の場合、
距離に応じてデータが変化しない点滅パターンなどの時
系列の光学信号に符号化して、データを送信することが
できる。
As the optical identification information attached to the real-world object, an optical signal consisting of a blinking light source such as an LED can be used in addition to the visual code encoded in the color space pattern. In the latter case,
The data can be transmitted after being encoded into a time-series optical signal such as a blinking pattern in which the data does not change according to the distance.

【0040】また、イメージ・センサは、例えばCMO
S(Complementary Metal Oxide Semiconductor:相補
性金属酸化膜半導体)センサやCCD(Charge Coupled
Device:電荷結合素子)センサなどのように、無数の
受光素子すなわち画素が2次元アレイ上に配置された構
成であり、光学信号並びにその空間的情報を全画素でデ
コードする。イメージ・センサは、普通のカメラとして
シーンを撮影するとともに、そのイメージ・センサの視
界中に配置された光学信号を長距離から受信することが
できる。したがって、光学的な識別情報を備えた実世界
オブジェクトを、実世界状況を発信するための送信機と
しても利用することができる。
The image sensor is, for example, a CMO.
S (Complementary Metal Oxide Semiconductor) sensor and CCD (Charge Coupled)
Device: Charge-coupled device) This is a structure in which an infinite number of light-receiving elements, that is, pixels are arranged in a two-dimensional array such as a sensor, and an optical signal and its spatial information are decoded by all pixels. The image sensor can capture the scene as a normal camera and receive optical signals located in the field of view of the image sensor from long distances. Therefore, the real world object provided with the optical identification information can also be used as a transmitter for transmitting the real world situation.

【0041】実世界オブジェクトに取り付けられる複数
の光学的識別情報は、互いに識別可能であるだけでな
く、互いの空間的な位置関係があらかじめ分かっている
ものとする。このような場合、空間的な解像度を持つ測
定装置により実世界オブジェクトを認識することによ
り、単にその実世界オブジェクトを同定するだけでな
く、その3次元的な位置や姿勢などを測定することがで
きる。実世界オブジェクトが持つ空間的な位置や姿勢
は、言わば実世界状況に相当する。
It is assumed that the plurality of optical identification information attached to the real world object are not only identifiable to each other, but also their spatial positional relationship is known in advance. In such a case, by recognizing the real-world object with a measuring device having a spatial resolution, it is possible to not only identify the real-world object but also measure its three-dimensional position, posture, and the like. The spatial position and orientation of a real-world object is, so to speak, a real-world situation.

【0042】したがって、実世界オブジェクトの3次元
位置・姿勢の計測結果を実世界の状況(実世界の事物や
ユーザの位置など)として積極的に利用することによ
り、拡張現実システム(Augmented Reality:AR)の
実現に役立てることができる。
Therefore, by positively using the measurement result of the three-dimensional position / orientation of the real world object as the real world situation (the real world thing or the position of the user, etc.), the augmented reality system (Augmented Reality: AR) is used. ) Can be used for realization.

【0043】拡張現実システムによれば、ユーザの位置
などの実世界情報を利用したサービスを提供することが
できる。この場合、ユーザは携帯端末を保持するだけ
で、システムはユーザの近傍や視界中にある実世界の事
物に応じた情報を提示して、ネットワーク上にある膨大
な情報を利用して日常生活のあらゆる局面で支援を享受
することができる。例えば、ショッピング・モールでカ
メラ付き携帯端末をかざしてCDショップを訪ねると、
お薦めの新譜が端末上で表示される。また、レストラン
の看板を見ると、料理の感想が表示される。
According to the augmented reality system, it is possible to provide a service using real world information such as the position of the user. In this case, the user simply holds the mobile terminal, and the system presents information according to real-world things in the vicinity of the user or in the field of view, and uses the vast amount of information on the network to carry out daily life. You can enjoy support in all aspects. For example, if you visit a CD shop in a shopping mall while holding your camera-equipped mobile device,
The recommended new song is displayed on the terminal. Also, looking at the signboard of the restaurant, the impression of the food is displayed.

【0044】なお、本出願人に既に譲渡されている特願
2001−325356号明細書には光学的な形式で識
別情報やその他のデータを担持又は伝送する光学信号
と、これを捕捉する高速な2次元イメージ・センサを利
用することで、空間解像度を持つとともに、遠距離でも
利用可能なデータ伝送を実現するデータ通信システムに
ついて開示している。同明細書に記載のデータ通信シス
テムでは、LEDのような点滅する光源を光学信号と
し、ビジュアル・コードのように色の空間パターンに符
号化するのではなく、距離に応じてデータが変化しない
点滅パターンなどの時系列の光学信号に符号化してデー
タを送信する。イメージ・センサは、例えばCMOSセ
ンサやCCDセンサなどのように無数の受光素子すなわ
ち画素が2次元アレイ上に配置された構成であり、光学
信号並びにその空間的情報を全画素でデコードする。し
たがって、イメージ・センサは、普通のカメラとしてシ
ーンを撮影するとともに、そのイメージ・センサの視界
中に配置された光学信号を長距離から受信することがで
きる。
In the specification of Japanese Patent Application No. 2001-325356 already assigned to the present applicant, an optical signal for carrying or transmitting identification information and other data in an optical format and a high-speed signal for capturing the optical signal. A data communication system that realizes data transmission that has spatial resolution and can be used over a long distance by using a two-dimensional image sensor is disclosed. In the data communication system described in the specification, a blinking light source such as an LED is used as an optical signal, and data is not changed according to a distance, instead of being encoded into a color space pattern like a visual code. Data is transmitted after being encoded into a time-series optical signal such as a pattern. The image sensor has a configuration in which an infinite number of light receiving elements, that is, pixels, such as a CMOS sensor or a CCD sensor, are arranged in a two-dimensional array, and an optical signal and its spatial information are decoded by all pixels. Thus, the image sensor can capture the scene as a normal camera and receive optical signals located in the field of view of the image sensor from long distances.

【0045】A.複合現実感システムの構成 図1には、本発明の一実施形態に係る複合現実感システ
ムの構成を模式的に示している。同図に示すように、こ
のシステムは、カメラ101と、複合現実感装置102
と、画像表示装置103と、物体教示指標104とで構
成される。
A. Configuration of Mixed Reality System FIG. 1 schematically shows the configuration of a mixed reality system according to an embodiment of the present invention. As shown in the figure, this system includes a camera 101 and a mixed reality device 102.
And an image display device 103 and an object teaching index 104.

【0046】物体教示指標104には、物体の3次元位
置・姿勢計測を可能にするため、それぞれ識別可能な複
数個のマーカが取り付けられている(後述)。各マーカ
は、それぞれ固有の色、形状、パターン、又は光の点滅
パターンなどからなる視覚的な識別情報を持ち、マーカ
毎に識別可能であるとする。また、各マーカが持つこれ
らの視覚的識別情報や各マーカ間の空間的な位置関係
は、複合現実感システムにおいて既知であるとする。
A plurality of distinguishable markers are attached to the object teaching index 104 in order to measure the three-dimensional position and orientation of the object (described later). It is assumed that each marker has visual identification information including a unique color, shape, pattern, or blinking pattern of light, and can be identified for each marker. In addition, it is assumed that the visual identification information of each marker and the spatial positional relationship between the markers are known in the mixed reality system.

【0047】カメラ101は、例えばレンズ歪などのな
い理想的なピンホール・レンズを使用して、CCDやC
MOSなどの2次元イメージ・センサにより物体教示指
標104を含む風景やその他のシーンを撮像することが
できる。カメラ101により撮像された画像フレームは
空間的分解能を持つ受信データとして複合現実感装置1
02に入力される。
The camera 101 uses, for example, an ideal pinhole lens with no lens distortion, and a CCD or C
A two-dimensional image sensor such as a MOS can capture a landscape including the object teaching index 104 and other scenes. The image frame imaged by the camera 101 is received data having a spatial resolution as the mixed data 1
It is input to 02.

【0048】複合現実感装置102は、例えばパーソナ
ル・コンピュータ(PC)などの計算機システムで構成
され、USB(Universal Serial Bus)あるいはその他
の外部インターフェースを介してカメラ101を接続し
て、撮影画像をコンピュータ・ファイルの形式で取り込
むことができる。該装置102上では、画像フレーム中
からマーカ検出に基づく3次元位置・姿勢計測処理を行
なうアプリケーションが起動しており、物体教示指標1
03を含むシーン画像からマーカを3次元位置及び入力
画像上の位置を基にその3次元位置及び姿勢などの実世
界状況を測定する。そして、複合現実感装置102は、
実世界状況に応じた拡張現実感サービス(後述)を提供
する。
The mixed reality apparatus 102 is composed of a computer system such as a personal computer (PC), and is connected to the camera 101 via a USB (Universal Serial Bus) or other external interface to take a photographed image by the computer. -Can be imported in the form of a file. On the device 102, an application that executes three-dimensional position / orientation measurement processing based on marker detection in the image frame is running, and the object teaching index 1
Based on the three-dimensional position of the marker and the position on the input image, the real world situation such as the three-dimensional position and posture of the marker is measured from the scene image including 03. Then, the mixed reality apparatus 102
Provide augmented reality service (described later) according to the real world situation.

【0049】図1に示す例では、物体教示指標104
は、リビング内でスピーカに挟まれたテレビ台の上に配
置されて、仮想的にテレビ受像機(以下、「テレビ」と
する)の存在を代行する。このとき、カメラ101を用
いて物体教示指標104を含んだ領域(シーン)が撮影
される。
In the example shown in FIG. 1, the object teaching index 104.
Is placed on a TV stand sandwiched between speakers in a living room, and virtually acts as a TV receiver (hereinafter referred to as "TV"). At this time, an area (scene) including the object teaching index 104 is photographed using the camera 101.

【0050】カメラ101で取得された画像データは、
空間分解能を持ち、複合現実感装置102へ入力され
て、物体教示指標104の識別情報とその空間的位置や
姿勢が抽出される。そして、抽出された物体教示指標1
04の識別情報に対応した仮想物体105(ここではテ
レビの3次元モデル)を入力された画像データに合成し
て、画像表示装置103に出力する。このとき、テレビ
の3次元モデルは、物体教示指標104から得られた空
間的位置や姿勢などの実世界状況に基づいて現実空間の
座標系にマッピングされる。
The image data acquired by the camera 101 is
It has a spatial resolution and is input to the mixed reality apparatus 102, and the identification information of the object teaching index 104 and its spatial position and orientation are extracted. Then, the extracted object teaching index 1
The virtual object 105 (here, the three-dimensional model of the television) corresponding to the identification information 04 is synthesized with the input image data and output to the image display device 103. At this time, the three-dimensional model of the television is mapped to the coordinate system of the real space based on the real world situation such as the spatial position and orientation obtained from the object teaching index 104.

【0051】このようにして、カメラ101からの入力
画像を表示出力する画像表示装置103の表示スクリー
ン上には、実際に存在しない仮想物体105(テレビ)
が現実空間を撮影した画像上に現れる(重畳表示され
る)。したがって、ユーザは、現実空間内に家具や電化
製品などの実物体を配置することなく、その大きさや色
などといった外観が周囲環境に調和しているかを表示す
ることが可能である。
In this way, the virtual object 105 (television) that does not actually exist on the display screen of the image display device 103 that displays and outputs the input image from the camera 101.
Appears on the image of the real space (superimposed display). Therefore, the user can display whether or not the appearance such as the size and the color of the real object is in harmony with the surrounding environment without arranging the real objects such as furniture and appliances in the real space.

【0052】図2には、本実施形態に係る複合現実感装
置102のハードウェア構成を模式的に示している。
FIG. 2 schematically shows the hardware configuration of the mixed reality apparatus 102 according to this embodiment.

【0053】メイン・コントローラであるCPU(Cent
ral Processing Unit)1は、オペレーティング・システ
ム(OS)の制御下で、各種のアプリケーションを実行
する。
CPU (Cent) which is the main controller
The ral processing unit) 1 executes various applications under the control of an operating system (OS).

【0054】本実施形態では、CPU1は、例えば、カ
メラ101の撮影画像のような空間的解像度を持つデー
タを基に物体教示指標104の空間的な位置や姿勢を計
測するための3次元位置・姿勢計測アプリケーション
や、物体教示指標104の空間的な位置や姿勢などを始
めとする実世界オブジェクトについての実世界状況を利
用した拡張現実感(AR)サービスを提供するARサー
ビス・アプリケーションなどを実行することができる。
In the present embodiment, the CPU 1 uses, for example, a three-dimensional position for measuring the spatial position and orientation of the object teaching index 104 based on data having a spatial resolution such as a captured image of the camera 101. Executes a posture measurement application, an AR service application that provides an augmented reality (AR) service that uses the real-world situation of a real-world object such as the spatial position and orientation of the object teaching index 104, etc. be able to.

【0055】図示の通り、CPU1は、バス8によって
他の機器類(後述)と相互接続されている。
As shown in the figure, the CPU 1 is interconnected with other devices (described later) by a bus 8.

【0056】主メモリ2は、CPU1において実行され
るプログラム・コードをロードしたり、実行プログラム
の作業データを一時保管するために使用される記憶装置
であり、例えばDRAM(Dynamic RAM)のような半導
体メモリが使用される。例えば、カメラ101の撮影画
像のような空間的解像度を持つデータを基に物体教示指
標104の空間的な位置や姿勢を計測するための3次元
位置・姿勢計測アプリケーションや、物体教示指標10
4の空間的な位置や姿勢などを始めとする実世界オブジ
ェクトについての実世界状況に応じた拡張現実感(A
R)サービスを提供するARサービス・アプリケーショ
ンなどが主メモリ2にロードされる。また、カメラ10
1による撮影画像に基づく物体教示指標104の空間的
位置や姿勢に関する計算結果や、この計算結果から得ら
れた実世界状況に応じて生成される各種のARサービス
・コンテンツ(例えば、家具や電化製品、インテリアな
ど仮想物体の3次元モデル)などが作業データとして主
メモリ2に一時的に格納される。
The main memory 2 is a storage device used for loading a program code executed in the CPU 1 and temporarily storing work data of an execution program, and is a semiconductor such as a DRAM (Dynamic RAM). Memory is used. For example, a three-dimensional position / orientation measurement application for measuring the spatial position and orientation of the object teaching index 104 based on data having a spatial resolution such as a captured image of the camera 101, and the object teaching index 10
Augmented Reality (A) according to the real-world situation of the real-world object including the spatial position and posture of 4
R) An AR service application or the like that provides a service is loaded into the main memory 2. Also, the camera 10
The calculation result regarding the spatial position and orientation of the object teaching index 104 based on the captured image by No. 1 and various AR service contents (for example, furniture and electric appliances) generated according to the real world situation obtained from the calculation result. , A three-dimensional model of a virtual object such as an interior) is temporarily stored in the main memory 2 as work data.

【0057】また、ROM(Read Only Memory)3は、
データを恒久的に格納する半導体メモリであり、例え
ば、起動時の自己診断テスト(POST:Power On Sel
f Test)や、ハードウェア入出力用のプログラム・コー
ド(BIOS:Basic Input/Output System)などが書
き込まれている。
The ROM (Read Only Memory) 3 is
A semiconductor memory that permanently stores data, such as a self-diagnosis test (POST: Power On Sel) at startup.
f Test) and hardware input / output program code (BIOS: Basic Input / Output System).

【0058】ディスプレイ・コントローラ4は、CPU
1が発行する描画命令を実際に処理するための専用コン
トローラである。ディスプレイ・コントローラ4におい
て処理された描画データは、例えばフレーム・バッファ
(図示しない)に一旦書き込まれた後、CRT(Cathod
e Ray Tube:陰極線管)ディスプレイやLCD(Liquid
Crystal Display:液晶表示ディスプレイ)などからな
る画像表示装置103によって画面出力される。
The display controller 4 is a CPU
1 is a dedicated controller for actually processing the drawing command issued by 1. The drawing data processed by the display controller 4 is once written in, for example, a frame buffer (not shown), and then the CRT (Cathod).
e Ray Tube: Cathode ray tube display and LCD (Liquid
The image is displayed on the screen by the image display device 103 such as a crystal display.

【0059】画像表示装置103の表示画面は、一般
に、ユーザからの入力内容やその処理結果、あるいはエ
ラーその他のシステム・メッセージをユーザに視覚的に
フィードバックする役割を持つ。また、本実施形態にお
いては、画像表示装置103の表示画面には、物体教示
指標104に対応した仮想物体105をカメラ101に
よる撮影画像に合成した拡張現実感シーンのようなAR
サービス・コンテンツなどを表示出力するために利用さ
れる。ここで言うARサービス・コンテンツには、例え
ば、家具や電化製品、インテリアなど仮想物体の3次元
モデルがカメラ101による撮影画像に組み込まれた複
合現実感画像を挙げることができる。複合現実感画像の
生成方法の詳細については後述に譲る。
The display screen of the image display device 103 generally has a role of visually feeding back the contents of input from the user, the processing result thereof, or an error or other system message to the user. Further, in the present embodiment, on the display screen of the image display device 103, an AR such as an augmented reality scene in which the virtual object 105 corresponding to the object teaching index 104 is combined with the image captured by the camera 101.
It is used to display and output services and contents. The AR service content referred to here can be, for example, a mixed reality image in which a three-dimensional model of a virtual object such as furniture, an electric appliance, or an interior is incorporated in an image captured by the camera 101. Details of the mixed reality image generation method will be given later.

【0060】入力機器インターフェース5は、キーボー
ド12やマウス13などのユーザ入力機器を複合現実感
装置102に接続するための装置である。
The input device interface 5 is a device for connecting user input devices such as the keyboard 12 and the mouse 13 to the mixed reality apparatus 102.

【0061】キーボード12やマウス13は、データや
コマンドなどのユーザ入力をシステムに取り込む役割を
持つ。本実施形態では、キーボード12やマウス13
は、3次元位置・姿勢計測アプリケーションの起動、A
Rサービス・アプリケーションの起動、ARサービスの
指定などをユーザが指示するために使用される。
The keyboard 12 and the mouse 13 have a role of taking user input such as data and commands into the system. In this embodiment, the keyboard 12 and the mouse 13
Starts the 3D position / orientation measurement application, A
It is used by the user to instruct activation of R service application, designation of AR service, and the like.

【0062】ネットワーク・インターフェース6は、E
thernet(登録商標)などの所定の通信プロトコ
ルに従って、システム102をLAN(Local Area Net
work)などの局所的ネットワーク、さらにはインターネ
ットのような広域ネットワークに接続することができ
る。
The network interface 6 is E
According to a predetermined communication protocol such as Internet (registered trademark), the system 102 is connected to a LAN (Local Area Net).
work) and even wide area networks such as the Internet.

【0063】ネットワーク上では、複数のホスト端末
(図示しない)がトランスペアレントな状態で接続さ
れ、分散コンピューティング環境が構築されている。ネ
ットワーク上では、ソフトウェア・プログラムやデータ
・コンテンツなどの配信サービスを行なうことができ
る。例えば、カメラ101の撮影画像のような空間的解
像度を持つデータを基に物体教示指標104の空間的な
位置や姿勢を計測するための3次元位置・姿勢計測アプ
リケーションや、撮影画像から検出された複数点のマー
カを基に3次元位置・推定を行なう複数のアルゴリズム
(例えばライブラリ化されている)、物体教示指標10
4の空間的な位置や姿勢などを始めとする実世界オブジ
ェクトについての実世界状況に応じた拡張現実感(A
R)サービスを提供するARサービス・アプリケーショ
ンなどを、ネットワーク経由でダウンロードすることが
できる。また、ARサービス・アプリケーションにおい
て利用されるARサービス・コンテンツ(例えば、家具
や電化製品、インテリアなど仮想物体の3次元モデル)
などを、ネットワーク経由で他のホスト装置との間で配
信・配布することができる。また、複合現実感画像を提
供するARサービスとして、家具や電化製品、インテリ
アなどの商品を取り扱う場合には、その価格(若しくは
拡張現実感サービスの利用料金)や製品仕様、在庫数な
ど、実物体に関する付加情報をネットワーク経由でダウ
ンロードしてもよい。
On the network, a plurality of host terminals (not shown) are connected in a transparent state to construct a distributed computing environment. Distribution services such as software programs and data contents can be provided on the network. For example, a three-dimensional position / orientation measurement application for measuring the spatial position or orientation of the object teaching index 104 based on data having a spatial resolution such as the captured image of the camera 101, or detected from the captured image. A plurality of algorithms (for example, in a library) for three-dimensional position / estimation based on a plurality of markers, object teaching index 10
Augmented Reality (A) according to the real-world situation of the real-world object including the spatial position and posture of 4
R) AR services and applications that provide services can be downloaded via the network. Also, AR service contents used in AR service applications (for example, three-dimensional models of virtual objects such as furniture, appliances, interiors, etc.)
Can be distributed / distributed to / from other host devices via a network. Further, when handling products such as furniture, electric appliances, and interiors as an AR service that provides a mixed reality image, the price (or the usage fee for the augmented reality service), product specifications, the number of stocks, and other real objects Additional information regarding may be downloaded via the network.

【0064】外部機器インターフェース7は、ハード・
ディスク・ドライブ(HDD)14やメディア・ドライブ
15などの外部装置を複合現実感装置102に接続する
ための装置である。
The external device interface 7 is a hardware
It is a device for connecting an external device such as a disk drive (HDD) 14 and a media drive 15 to the mixed reality device 102.

【0065】HDD14は、記憶担体としての磁気ディ
スクを固定的に搭載した外部記憶装置であり(周知)、
記憶容量やデータ転送速度などの点で他の外部記憶装置
よりも優れている。ソフトウェア・プログラムを実行可
能な状態でHDD14上に置くことを、プログラムのシ
ステムへの「インストール」と呼ぶ。通常、HDD14
には、CPU1が実行すべきオペレーティング・システ
ムのプログラム・コードや、アプリケーション・プログラ
ム、デバイス・ドライバなどが不揮発的に格納されてい
る。例えば、カメラ101の撮影画像のような空間的解
像度を持つデータを基に物体教示指標104の空間的な
位置や姿勢を計測するための3次元位置・姿勢計測アプ
リケーションや、物体教示指標104の空間的な位置や
姿勢などを始めとする実世界オブジェクトについての実
世界状況に応じた拡張現実感(AR)サービスを提供す
るARサービス・アプリケーションなどを、HDD14
上にインストールすることができる。また、撮影画像か
ら検出された複数点のマーカを基に3次元位置・姿勢推
定を行なう複数のアルゴリズム(例えばライブラリ化さ
れている)や、ARサービス・アプリケーションにおい
て利用されるARサービス・コンテンツ(例えば、家具
や電化製品、インテリアなど仮想物体の3次元モデル)
などをHDD14上に蓄積しておいてもよい。また、複
合現実感画像を提供するARサービスとして、家具や電
化製品、インテリアなどの商品を取り扱う場合には、そ
の価格(若しくは拡張現実感サービスの利用料金)や製
品仕様、在庫数など、実物体に関する付加情報を蓄積し
ていてもよい。
The HDD 14 is an external storage device in which a magnetic disk as a storage carrier is fixedly mounted (well known),
It is superior to other external storage devices in terms of storage capacity and data transfer speed. Placing the software program on the HDD 14 in an executable state is called "installing" the program in the system. Usually HDD14
The operating system program code to be executed by the CPU 1, application programs, device drivers, etc. are stored in a non-volatile manner. For example, a three-dimensional position / orientation measurement application for measuring the spatial position or orientation of the object teaching index 104 based on data having a spatial resolution such as the image captured by the camera 101, or the space of the object teaching index 104. HDD 14 includes an AR service application that provides an augmented reality (AR) service according to the real world situation of real world objects such as physical position and posture.
Can be installed on. In addition, a plurality of algorithms (for example, in a library) that perform three-dimensional position / orientation estimation based on a plurality of markers detected from a captured image and AR service contents (for example, a library) used in an AR service application (for example, , 3D models of virtual objects such as furniture, appliances, interiors)
Etc. may be stored in the HDD 14. Further, when handling products such as furniture, electric appliances, and interiors as an AR service that provides a mixed reality image, the price (or the usage fee for the augmented reality service), product specifications, the number of stocks, and other real objects Additional information regarding the information may be stored.

【0066】メディア・ドライブ15は、CD(Compact
Disc)やMO(Magneto-Optical disc)、DVD(Dig
ital Versatile Disc)などの可搬型メディアを装填し
て、そのデータ記録面にアクセスするための装置であ
る。
The media drive 15 is a CD (Compact
Disc), MO (Magneto-Optical disc), DVD (Dig)
Ital Versatile Disc) is a device for loading a portable medium such as a disc and accessing the data recording surface thereof.

【0067】可搬型メディアは、主として、ソフトウェ
ア・プログラムやデータ・ファイルなどをコンピュータ可
読形式のデータとしてバックアップすることや、これら
をシステム間で移動(すなわち販売・流通・配布を含む)
する目的で使用される。例えば、カメラ101の撮影画
像のような空間的解像度を持つデータを基に物体教示指
標104の空間的な位置や姿勢を計測するための3次元
位置・姿勢計測アプリケーションや、物体教示指標10
4の空間的な位置や姿勢などを始めとする実世界オブジ
ェクトについての実世界状況に応じた拡張現実感(A
R)サービスを提供するARサービス・アプリケーショ
ンなどを、これら可搬型メディアを利用して複数の機器
間で物理的に流通・配布することができる。また、撮影
画像から検出された複数点のマーカを基に3次元位置・
姿勢推定を行なう複数のアルゴリズム(例えばライブラ
リ化されている)や、ARサービス・アプリケーション
において利用されるARサービス・コンテンツ(例え
ば、家具や電化製品、インテリアなど仮想物体の3次元
モデル)などを他の装置との間で交換するために、可搬
型メディアを利用することができる。また、複合現実感
画像を提供するARサービスとして、家具や電化製品、
インテリアなどの商品を取り扱う場合には、その価格
(若しくは拡張現実感サービスの利用料金)や製品仕
様、在庫数など、実物体に関する付加情報を可搬型メデ
ィア経由で流通させてもよい。
The portable medium mainly backs up software programs, data files, etc. as computer-readable data, and moves them between systems (that is, including sales, distribution and distribution).
It is used for the purpose. For example, a three-dimensional position / orientation measurement application for measuring the spatial position and orientation of the object teaching index 104 based on data having a spatial resolution such as a captured image of the camera 101, and the object teaching index 10
Augmented Reality (A) according to the real-world situation of the real-world object including the spatial position and posture of 4
R) AR services and applications that provide services can be physically distributed / distributed among a plurality of devices using these portable media. In addition, based on the markers of multiple points detected from the captured image,
A plurality of algorithms for estimating the posture (for example, in a library) and AR service contents used in the AR service application (for example, a three-dimensional model of a virtual object such as furniture, electric appliances, and interiors) are stored in another Portable media may be utilized to exchange with the device. As an AR service that provides mixed reality images, furniture and appliances,
When a product such as an interior is handled, additional information about the actual object such as the price (or usage fee of the augmented reality service), product specifications, and the number of stocks may be distributed via a portable medium.

【0068】カメラ・インターフェース9は、カメラ1
01を接続するための装置であり、例えばUSBインタ
ーフェースで構成される。あるいはビデオ・キャプチャ
・カードのようにカメラ101から動画像を取得するイ
ンターフェースで構成されていてもよい。カメラ101
は、画素が2次元アレイ上に配置された構成で、物体教
示指標104から光学信号並びにその空間的情報を全画
素でデコードする。
The camera interface 9 is the camera 1
01 is a device for connecting, and is composed of, for example, a USB interface. Alternatively, it may be composed of an interface for acquiring a moving image from the camera 101 like a video capture card. Camera 101
Is a configuration in which pixels are arranged on a two-dimensional array, and an optical signal from the object teaching index 104 and its spatial information are decoded by all pixels.

【0069】なお、図2に示すような複合現実感装置1
02の一例は、米IBM社のパーソナル・コンピュータ"
PC/AT(Personal Computer/Advanced Technolog
y)"の互換機又は後継機である。勿論、他のアーキテク
チャで構成されるコンピュータを、本実施形態に係る複
合現実感装置102として適用することも可能である。
Note that the mixed reality apparatus 1 as shown in FIG.
An example of 02 is a personal computer of IBM Corp.
PC / AT (Personal Computer / Advanced Technolog
y) "compatible machine or successor machine. Of course, a computer configured with another architecture can also be applied as the mixed reality apparatus 102 according to the present embodiment.

【0070】図3には、複合現実感装置102上で実行
される複合現実感表示の処理手順をフローチャートの形
式で示している。この処理手順は、実際には、CPU1
が所定の複合現実感処理アプリケーションを起動して、
カメラ101からの入力画像を処理して、画面表示装置
103に処理結果を表示出力するという形態で実現され
る。以下、このフローチャートを参照しながら、複合現
実感表示処理について詳解する。
FIG. 3 shows, in the form of a flow chart, a mixed reality display processing procedure executed on the mixed reality apparatus 102. This processing procedure is actually the CPU 1
Launches the given mixed reality processing application,
This is realized by processing an input image from the camera 101 and displaying and outputting the processing result on the screen display device 103. Hereinafter, the mixed reality display process will be described in detail with reference to this flowchart.

【0071】カメラ101から画像データが入力される
と(ステップS1)、別途定義されている「物体教示指
標の抽出、その識別情報、3次元位置・姿勢情報の取
得」処理ルーチン(後述)により、撮影された画像デー
タ中の物体教示指標104が抽出され、さらにその識別
情報並びに3次元位置・姿勢情報が取得される(ステッ
プS2)。
When image data is input from the camera 101 (step S1), a separately defined "extraction of object teaching index, identification information thereof, acquisition of three-dimensional position / orientation information" processing routine (described later) The object teaching index 104 in the imaged image data is extracted, and its identification information and three-dimensional position / orientation information are acquired (step S2).

【0072】実世界状況に応じた拡張現実感サービス
(ステップS7,S8)において、画像データ中の物体
教示指標104の位置にその識別情報に対応した2次元
画像を単に重ねて表示する場合には、ステップS2にお
ける処理ルーチンでは、物体教示指標104の3次元位
置・姿勢情報の取得は省略してもよい。物体教示指標1
04の識別情報並びに3次元位置・姿勢情報の取得方法
は物体教示指標104の態様に依存する処理であるの
で、後述で物体教示指標104の実施形態とともに詳細
に説明する。
In the augmented reality service according to the real world situation (steps S7 and S8), when the two-dimensional image corresponding to the identification information is simply displayed at the position of the object teaching index 104 in the image data, In the processing routine in step S2, the acquisition of the three-dimensional position / orientation information of the object teaching index 104 may be omitted. Object teaching index 1
The identification information 04 and the method for acquiring the three-dimensional position / orientation information are processes that depend on the aspect of the object teaching index 104, and will be described in detail later together with the embodiment of the object teaching index 104.

【0073】次いで、カメラ101から入力された画像
から物体教示指標104が抽出されたがどうかを判定す
る(ステップS3)。抽出された場合には、後続のステ
ップS4へ進み、抽出された物体教示指標104の識別
情報に対応した実物体についての3次元モデルの取得を
試みる。
Next, it is determined whether the object teaching index 104 is extracted from the image input from the camera 101 (step S3). If it is extracted, the process proceeds to the subsequent step S4, and an attempt is made to acquire a three-dimensional model of the real object corresponding to the extracted identification information of the object teaching index 104.

【0074】ここで、3次元モデルは、実物体の販売者
あるいは3次元モデル作成サービスを行なう第3者など
が実物体を模倣し作成したものであり、例えばハード・
ディスク装置14上にあらかじめ格納されていたり、あ
るいはネットワークを介して所定の情報提供サーバ(例
えば、3次元モデル・データベース)から逐次的にダウ
ンロードするようにしてもよい。また、実物体が家具や
電化製品、インテリアなどの商品である場合にはその価
格(若しくは拡張現実感サービスの利用料金)や製品仕
様、在庫数など、実物体に関する付加情報やその他のリ
アルタイム・コンテンツなどを同時にダウンロードして
もよい。
Here, the three-dimensional model is created by imitating the real object by a seller of the real object or a third party who performs a three-dimensional model creation service.
It may be stored in advance on the disk device 14 or may be sequentially downloaded from a predetermined information providing server (for example, a three-dimensional model database) via a network. In addition, if the real object is a product such as furniture, electrical appliances, interior, etc., additional information about the real object such as its price (or usage fee of augmented reality service), product specifications, and inventory quantity, and other real-time contents Etc. may be downloaded at the same time.

【0075】次いで、3次元モデルが成功裏に取得され
たがどうかを判定する(ステップS5)。
Next, it is determined whether the three-dimensional model has been successfully acquired (step S5).

【0076】3次元モデルを無事に取得することができ
た場合には、さらに次ステップS6に進み、取得した3
次元モデルを、先行ステップS2で取得した物体教示指
標104の3次元位置・姿勢情報に合わせて回転・移動
させる。そして、ステップS1においてカメラ101か
ら入力された現実空間のシーンである画像データと3次
元モデルとを合成して、複合現実空間画像を作成する
(ステップS7)。このとき、ARサービスに関連する
料金や商品の仕様、在庫数など、実物体に関する付加情
報と画像データとをさらに合成してもよい。
If the three-dimensional model can be successfully acquired, the process proceeds to the next step S6, and the acquired three-dimensional model is acquired.
The dimensional model is rotated / moved in accordance with the three-dimensional position / orientation information of the object teaching index 104 acquired in the preceding step S2. Then, the mixed reality space image is created by synthesizing the image data which is the scene in the real space input from the camera 101 in step S1 and the three-dimensional model (step S7). At this time, additional information relating to the real object such as the charge related to the AR service, the specification of the product, the number of stocks, and the image data may be further combined.

【0077】次いで、前ステップS7によって合成され
た複合現実空間画像を画像表示装置103で表示出力す
る(ステップS8)。実空間上のシーンに仮想物体が合
成された複合現実感画像を基に、家庭内の家具や電化製
品、インテリアなどが部屋の大きさに合っているのか、
部屋や他の家具などの色と調和しているのかなどを、実
際に購入する前に判断することが可能となる。
Next, the mixed reality space image synthesized in the previous step S7 is displayed and output on the image display device 103 (step S8). Based on the mixed reality image in which a virtual object is combined with a scene in the real space, whether home furniture, electrical appliances, interior, etc. fit the size of the room,
It is possible to judge whether or not it is in harmony with the color of the room or other furniture before actually purchasing.

【0078】また、ステップS3において入力画像から
物体教示指標104が抽出されないと判定された場合
や、ステップS5において3次元モデルを取得すること
ができなかった場合には、ステップS1で取得された画
像データをそのまま画像表示装置103で表示出力する
ようにしてもよい。
When it is determined in step S3 that the object teaching index 104 is not extracted from the input image, or when the three-dimensional model cannot be acquired in step S5, the image acquired in step S1 is acquired. The data may be displayed and output on the image display device 103 as it is.

【0079】次いで、この複合現実感表示処理を続行さ
せるかどうか判定する(ステップS9)。そして、本処
理ルーチンを続行するならば、ステップS1へ戻って上
述と同様の動作を繰り返し実行する。他方、非続行なら
ば、ここで本処理ルーチン全体を終了させる。
Then, it is determined whether or not to continue the mixed reality display processing (step S9). Then, if this processing routine is continued, the process returns to step S1 and the same operation as described above is repeatedly executed. On the other hand, if it is not continued, the entire processing routine is ended here.

【0080】本処理ルーチンの終了条件は、例えばキー
ボード12やマウス13を介したユーザ入力であっても
よいし、アプリケーション内であらかじめ定められたル
ール(例えばゲームにおけるゲーム・オーバー)であって
もよい。また、メモリフルなどのハードウェア又はソフ
トウェア上の制約を終了条件にしてもよい。
The end condition of this processing routine may be, for example, a user input via the keyboard 12 or the mouse 13, or a rule (for example, game over in a game) predetermined in the application. . Further, a restriction on hardware or software such as memory full may be used as the end condition.

【0081】B.物体教示指標の構成例 (1)構成例1:図4には、物体教示指標104の1つ
の構成例を示している。同図に示すように、物体教示指
標104は板状の三角形をしており、その各頂点には光
学的に識別可能なマーカ105a〜105cが配置され
ている。各マーカ105a〜105cが持つ識別情報の
組み合わせにより対応する実物体を特定することができ
る。また、物体教示指標104には、対応する実物体に
関連した情報(例えば、製品型番の文字情報など)が明
記(印字)されている。
B. Configuration Example of Object Teaching Index (1) Configuration Example 1: FIG. 4 shows one configuration example of the object teaching index 104. As shown in the figure, the object teaching index 104 has a plate-like triangle, and optically identifiable markers 105a to 105c are arranged at respective vertices thereof. The corresponding real object can be specified by the combination of the identification information held by each of the markers 105a to 105c. Further, in the object teaching index 104, information (for example, character information of the product model number) related to the corresponding real object is specified (printed).

【0082】各マーカ105a〜105cは、それぞれ
固有の色、形状、パターンなどからなる光学的に一意な
識別情報を持ち、マーカ毎に識別可能である。また、各
マーカ105a〜105cが持つこれらの視覚的識別情
報や各マーカ間の空間的な位置関係は、本システムにお
いて既知であるとする。したがって、物体教示指標10
4は、ある実物体に取り付けられることにより、各マー
カ105a〜105cが持つ識別情報の組み合わせによ
りこのオブジェクトを特定するための情報を与えるとと
もに、空間的な位置や姿勢などの実世界状況に関する情
報を与えることができる。
Each of the markers 105a to 105c has optically unique identification information consisting of a unique color, shape, pattern, etc., and can be identified for each marker. Further, it is assumed that the visual identification information of the markers 105a to 105c and the spatial positional relationship between the markers are known in the present system. Therefore, the object teaching index 10
When attached to a certain real object, 4 gives information for identifying this object by a combination of identification information held by the respective markers 105a to 105c, and also provides information on the real world situation such as spatial position and posture. Can be given.

【0083】一方、複合現実感表示装置102に接続さ
れているカメラ101は、例えばCMOSセンサやCC
Dセンサなどのように、無数の受光素子すなわち画素が
2次元アレイ上に配置されたイメージ・センサ(図示し
ない)を備えており、物体教示指標104上の各マーカ
105a〜105cに対して空間的な分解能を持つ。
On the other hand, the camera 101 connected to the mixed reality display device 102 is, for example, a CMOS sensor or CC.
An image sensor (not shown) in which an infinite number of light receiving elements, that is, pixels is arranged in a two-dimensional array, such as a D sensor, is provided, and spatially with respect to each of the markers 105a to 105c on the object teaching index 104. Has a high resolution.

【0084】ここで、物体教示指標104上に配置され
ているすべてのマーカ105a〜105cの3次元的な
位置関係は既知である。物体教示指標104を例えばX
軸回りにα、Y軸回りにβ、Z軸回りにγだけそれぞれ
回転したものとすると、計測対象物体101の回転行列
Rは以下のように表される。
Here, the three-dimensional positional relationship of all the markers 105a to 105c arranged on the object teaching index 104 is known. The object teaching index 104 is, for example, X
The rotation matrix R of the measurement target object 101 is expressed as follows, where α is rotated around the axis, β is rotated around the Y axis, and γ is rotated around the Z axis.

【0085】[0085]

【数1】 [Equation 1]

【0086】また、物体教示指標104がカメラ座標系
の位置(Xt,Yt,Zt)に移動したものとすると、平
行移動行列Tは以下のように表される。
If the object teaching index 104 is moved to the position (X t , Y t , Z t ) in the camera coordinate system, the translation matrix T is expressed as follows.

【0087】[0087]

【数2】 [Equation 2]

【0088】ここで、物体教示指標104の点(Xm
m,Zm)に位置するマーカ105が回転及び平行移動
した後、点(Xc,Yc,Zc)に変換されたものとする
と、これらの関係は以下のように表される。
Here, the point (X m ,
When the marker 105 located at Y m , Z m ) is rotated and translated, and then converted into a point (X c , Y c , Z c ), these relationships are expressed as follows.

【0089】[0089]

【数3】 [Equation 3]

【0090】上式は物体教示指標104を撮像した画像
上から空間的な位置関係が既知である3点のマーカを検
出することができれば、連立方程式の解としてR及び
T、すなわち物体教示指標104の3次元位置及び姿勢
を求められることを示している。例えば、Robert M. Ha
ralick、Chung-nan Lee、Karsten Ottenberg、及びMich
ael Nolle共著の論文"Analysis and Solutions of The
Three Point Perspective Pose Estimation Problem"
(In Proceedings of the Conference on ComputerVisi
on and Pattern Recognition, Maui, Hawaii, USA, pp.
592-598, 1991)には対象物体上に配設された既知の3
点の位置から該物体の3次元位置及び姿勢を計測する方
法について記述されている。
In the above equation, if three markers having known spatial positional relationships can be detected from the image of the object teaching index 104, R and T, that is, the object teaching index 104, can be obtained as a solution of simultaneous equations. It is shown that the three-dimensional position and orientation of can be obtained. For example, Robert M. Ha
ralick, Chung-nan Lee, Karsten Ottenberg, and Mich
ael Nolle co-authored paper "Analysis and Solutions of The
Three Point Perspective Pose Estimation Problem "
(In Proceedings of the Conference on ComputerVisi
on and Pattern Recognition, Maui, Hawaii, USA, pp.
592-598, 1991), a known 3 mounted on the target object.
A method for measuring the three-dimensional position and orientation of the object from the position of a point is described.

【0091】なお、点(Xc,Yc,Zc)に移動したマ
ーカ105の2次元撮像画像上の座標値(X,Y)は以
下の通りとなる。
The coordinate values (X, Y) of the marker 105 moved to the point (X c , Y c , Z c ) on the two-dimensional captured image are as follows.

【0092】[0092]

【数4】 [Equation 4]

【0093】したがって、撮像画像上から空間的な位置
関係が既知である3点のマーカを検出することができれ
ば、連立方程式の解としてR及びT、すなわち物体教示
指標104の3次元位置及び姿勢を数学的な算出により
求めることができる。
Therefore, if it is possible to detect three markers whose spatial positional relationship is known from the picked-up image, R and T, that is, the three-dimensional position and orientation of the object teaching index 104, can be determined as the solution of the simultaneous equations. It can be obtained by mathematical calculation.

【0094】また、加藤博一、Mark Billinghurst、浅
野浩一、橘啓八郎共著の論文『マーカー追跡に基づく拡
張現実感システムとそのキャリブレーション』(日本バ
ーチャルリアリティ学会論文誌, Vol.4, No.4, 1999)
には、平行四辺形の各頂点に配置された4つのマーカを
基に平行四辺形の3次元位置及び姿勢を計測する方法に
ついて記載されている。したがって、物体教示指標10
4に4つのマーカ105a〜105dを平行四辺形状に
配置することによって、加藤外著の論文で記述された方
法に従って、物体教示指標104の位置・姿勢を数学的
に算出することもできる。3点より4点の情報を用いた
方が、より精度の高い計測が期待できるということを充
分理解されたい。
Also, Hirokazu Kato, Mark Billinghurst, Koichi Asano, and Keihachiro Tachibana, "Augmented Reality System Based on Marker Tracking and Its Calibration" (The Virtual Reality Society of Japan, Vol.4, No.4) , 1999)
Describes a method of measuring a three-dimensional position and orientation of a parallelogram based on four markers arranged at each vertex of the parallelogram. Therefore, the object teaching index 10
By arranging the four markers 105a to 105d in a parallelogram shape in No. 4, the position / orientation of the object teaching index 104 can also be calculated mathematically according to the method described in the paper by Kato. It should be fully understood that more accurate measurement can be expected by using the information of 4 points rather than 3 points.

【0095】図5には、図4に示した物体教示指標10
4を用いた場合の物体教示指標104の抽出、並びにそ
の識別情報及び3次元位置・姿勢情報を取得するための
処理手順をフローチャートの形式で示している。この処
理手順は、図3に示した処理ルーチンのステップS2に
相当し、実際には、CPU1が所定の物体教示指標の抽
出、並びにその識別情報及び3次元位置・姿勢情報の取
得処理アプリケーションを起動して、カメラ101から
の入力画像を処理するという形態で実現される。以下、
このフローチャートを参照しながら、物体教示指標10
4の認識処理について詳解する。
FIG. 5 shows the object teaching index 10 shown in FIG.
4 shows the processing procedure for extracting the object teaching index 104 and acquiring the identification information and the three-dimensional position / orientation information thereof in the case of using 4 in the form of a flowchart. This processing procedure corresponds to step S2 of the processing routine shown in FIG. 3, and in actuality, the CPU 1 extracts a predetermined object teaching index, and activates the identification information and 3D position / orientation information acquisition processing application. Then, the input image from the camera 101 is processed. Less than,
With reference to this flowchart, the object teaching index 10
The recognition process of No. 4 will be described in detail.

【0096】カメラ101からの入力画像からマーカが
抽出されると(ステップS11)、抽出されたマーカが
3つかどうかを判定する(ステップS12)。これは、
Robert外著の論文(前述)に記述された数学的算
出方法によれば3点の画像座標から3次元位置及び姿勢
を推定できることに依拠する。物体教示指標104上に
3点以上のマーカを設置した場合、3次元位置及び姿勢
を推定するアルゴリズムによっては、必要なマーカの数
は3つ以上に設定してもよい。
When the markers are extracted from the input image from the camera 101 (step S11), it is determined whether there are three extracted markers (step S12). this is,
This is based on the fact that the mathematical calculation method described in the paper by Robert et al. (Described above) can estimate the three-dimensional position and orientation from the image coordinates of three points. When three or more markers are set on the object teaching index 104, the number of required markers may be set to three or more depending on the algorithm for estimating the three-dimensional position and orientation.

【0097】ステップS12において、抽出されたマー
カの数は3つと判定された場合には、次いで、Robe
rt外著の論文(前述)に記述されている数学的算出方
法に従い3次元位置及び姿勢を推定する(ステップS1
3)。
If it is determined in step S12 that the number of extracted markers is three, then the Robe
Estimate the three-dimensional position and orientation according to the mathematical calculation method described in the paper by rt (above) (step S1).
3).

【0098】また、ステップS12及びS13における
3次元位置及び姿勢の代替的な処理として、物体教示指
標104上に平行四辺形を形成するように4つのマーカ
を配設しておき、カメラ101からの入力画像から平行
四辺形状に4つのマーカを抽出することができたとき
に、加藤外著の論文(前述)に記載されている方法に従
い、数学的算出により物体教示指標104の3次元位置
及び姿勢を推定する。また、この場合で3つのマーカし
か抽出できないときに、Robert外著の論文(前
述)に記述されている数学的算出方法に従い3次元位置
及び姿勢を推定するようにしてもよい。
Further, as an alternative process of the three-dimensional position and orientation in steps S12 and S13, four markers are arranged so as to form a parallelogram on the object teaching index 104, and the camera 101 is used. When four markers having a parallelogram shape can be extracted from the input image, the three-dimensional position and orientation of the object teaching index 104 is calculated by mathematical calculation according to the method described in the article by Kato Soto (above). To estimate. Further, in this case, when only three markers can be extracted, the three-dimensional position and orientation may be estimated according to the mathematical calculation method described in the article by Robert et al.

【0099】次いで、物体教示指標104の識別情報を
認識する(ステップS14)。物体教示指標104には
型番などの識別情報が例えば文字情報の形式で明記され
ているので、これを文字認識技術などを用いて認識す
る。あるいは、物体教示指標104には文字ではなくバ
ーコードやその他のビジュアル・コードの形式で識別情
報が明記されている場合には、そのパターン認識によっ
て識別情報を認識することも可能である。
Then, the identification information of the object teaching index 104 is recognized (step S14). Identification information such as a model number is specified in the object teaching index 104, for example, in the form of character information, and thus this is recognized using a character recognition technique or the like. Alternatively, if the identification information is specified in the object teaching index 104 in the form of a bar code or other visual code instead of characters, the identification information can be recognized by the pattern recognition.

【0100】一方、ステップS12において、抽出され
たマーカの個数が3つに満たないと判定された場合に
は、物体教示指標104の識別は不可能という結果を返
して、本処理ルーチンを終了する。
On the other hand, if it is determined in step S12 that the number of the extracted markers is less than three, the result that the object teaching index 104 cannot be identified is returned, and this processing routine ends. .

【0101】上述したように、カメラ101及び複合現
実感表示装置102からなる本実施形態に係るシステム
によれば、物体教示指標104からその識別情報及び3
次元位置・姿勢情報を同時に取得することができる。
As described above, according to the system including the camera 101 and the mixed reality display device 102 according to the present embodiment, the identification information and 3 of the object teaching index 104 are acquired.
Dimensional position / orientation information can be acquired at the same time.

【0102】図4に示したように物体教示指標104に
複数のマーカ105a〜105cを設置するのは、カメ
ラ101による撮像画像に対する物体教示指標104の
3次元位置及び姿勢を推定したいため(言い換えれば、
物体認識においてカメラ101が持つ空間的分解能を活
用したいため)である。したがって、物体教示指標10
4の認識において3次元位置及び姿勢が必要でない場
合、例えば、画像データ中の物体教示指標104の位置
に識別情報に対応した2次元画像を単に重ねて表示する
場合には、識別情報を得るための単一のマーカのみを物
体教示指標104に配設しておけば充分である。
As shown in FIG. 4, the plurality of markers 105a to 105c are installed on the object teaching index 104 because it is desired to estimate the three-dimensional position and orientation of the object teaching index 104 with respect to the image picked up by the camera 101 (in other words, in other words). ,
This is because it is desired to utilize the spatial resolution of the camera 101 in object recognition). Therefore, the object teaching index 10
In the case where the 3D position and orientation are not required in the recognition of 4, for example, when the 2D image corresponding to the identification information is simply displayed at the position of the object teaching index 104 in the image data in an overlapping manner, the identification information is obtained. It is sufficient to dispose only a single marker in the object teaching index 104.

【0103】また、物体教示指標104にマーカ105
が1つであっても、カメラ101を複数用いることによ
って、三角測量の原理(周知)より物体教示指標104
の3次元位置および姿勢を推定することが可能である。
Further, a marker 105 is added to the object teaching index 104.
Even if there is only one, by using a plurality of cameras 101, the object teaching index 104 can be obtained from the principle of triangulation (well known).
It is possible to estimate the three-dimensional position and orientation of the.

【0104】(2)構成例2:図6には、物体教示指標
104の他の構成例を示している。同図において、物体
教示指標104の各頂点に配設されているマーカは、
色、形状、パターンなどの静的な光学識別情報の代わり
に、パルス発信が可能なLEDなどの光源105a’〜
105c’が設置されている。これらの光源はそれぞれ
識別可能なようにIDを持っており、各IDに応じた点
滅パターンに従って、光源を点滅させる。また、各光源
105a’〜105c’は、ID以外の送信データを点
滅パターンに符号化して送信することもできる。
(2) Configuration Example 2: FIG. 6 shows another configuration example of the object teaching index 104. In the figure, the markers arranged at the respective vertices of the object teaching index 104 are
Instead of static optical identification information such as color, shape, pattern, etc., a light source 105a ′ such as an LED capable of pulse transmission
105c 'is installed. Each of these light sources has an ID so that they can be identified, and the light sources are caused to blink according to a blinking pattern corresponding to each ID. Further, each of the light sources 105a 'to 105c' can also encode transmission data other than the ID into a blinking pattern for transmission.

【0105】また、物体教示指標104の略中央には、
対応する実物体に関連した情報(例えば、製品型番の文
字情報など)が明記(印字)されている。但し、各光源
105a’〜105c’のIDと物体教示指標の識別情
報をともに点滅パターンに符号化して同時に送信するこ
とも可能である。例えば、8ビットのデータを送信する
場合、上位6ビットを物体教示指標104が持つ識別情
報に割り当て、下位2ビットを各光源105a’〜10
5c’のIDに割り当てることができる。このような場
合、物体教示指標104本体への情報の印字(並びに印
字情報の画像認識)を省略することができる。
Further, in the approximate center of the object teaching index 104,
Information (for example, character information of the product model number) related to the corresponding real object is specified (printed). However, it is also possible to encode both the IDs of the light sources 105a ′ to 105c ′ and the identification information of the object teaching index into a blinking pattern and transmit them simultaneously. For example, when transmitting 8-bit data, the upper 6 bits are assigned to the identification information of the object teaching index 104, and the lower 2 bits are assigned to each of the light sources 105a'-10.
It can be assigned to the ID of 5c '. In such a case, printing of information on the body of the object teaching index 104 (and image recognition of print information) can be omitted.

【0106】複合現実感表示装置102に接続されてい
るカメラ101は、例えばCMOSセンサやCCDセン
サなどのように、無数の受光素子すなわち画素が2次元
アレイ上に配置されたイメージ・センサ(図示しない)
を備えており、物体教示指標104上の点滅光源からな
る各マーカ105a’〜105c’に対して空間的な分
解能を持つ。そして、カメラ101で捕捉される動画像
を基に各光源105a’〜105c’の点滅パターンを
空間的に認識して、それぞれの点滅パターンの受光位置
及び点滅パターンによって表されるIDを認識すること
ができる。
The camera 101 connected to the mixed reality display device 102 has an image sensor (not shown) in which an infinite number of light receiving elements, that is, pixels are arranged in a two-dimensional array, such as a CMOS sensor or a CCD sensor. )
And has a spatial resolution with respect to each of the markers 105a ′ to 105c ′ formed of blinking light sources on the object teaching index 104. Then, spatially recognizing the blinking pattern of each of the light sources 105a ′ to 105c ′ based on the moving image captured by the camera 101, and recognizing the light receiving position of each blinking pattern and the ID represented by the blinking pattern. You can

【0107】このように各マーカ105a’〜105
c’がLEDのように光の点滅するデバイスで構成され
ている場合、各マーカ105a’〜105c ’は、デ
ータを点滅パターンなどの時系列の光学信号に符号化し
て送信することができる。このような場合、各マーカ1
05a’〜105c’を備えた物体教示指標104は、
単に実物体の識別情報や空間的な位置や姿勢を計測する
ための指標としてだけでなく、送信装置としても機能す
ることができる。また、光学信号は距離に応じてデータ
が変化しないことから、距離に関しロバストなデータ伝
送を行なうことができる。このような光の点滅パターン
を利用したデータ通信システムに関しては、本出願人に
既に譲渡されている特願2001−325356号明細
書(前述)に開示されている。
In this way, each of the markers 105a 'to 105a
When c ′ is composed of a device that blinks light such as an LED, each of the markers 105a ′ to 105c ′ can encode data and transmit it in a time-series optical signal such as a blinking pattern. In such a case, each marker 1
The object teaching index 104 including 05a ′ to 105c ′ is
It can function not only as identification information of a real object or as an index for measuring a spatial position and orientation, but also as a transmitting device. Further, since the data of the optical signal does not change according to the distance, it is possible to perform robust data transmission with respect to the distance. A data communication system using such a blinking pattern of light is disclosed in the specification of Japanese Patent Application No. 2001-325356 (mentioned above) already assigned to the present applicant.

【0108】図7には、物体教示指標104が各マーカ
105a’〜105c’として3個の発光ダイオードを
装備したときのカメラ101及び複合現実感表示装置1
02側での動作特性を模式的に示している。それぞれの
発光ダイオード105a’〜105c ’は識別情報等
の送信したいデータを光の点滅パターンに符号化して光
学信号として送出することができる。勿論、送信データ
からなるベースバンド信号をそのまま光の点滅パターン
で表してもよいし、あるいは周波数変調や振幅変調など
の変調処理を施した後に光学信号を出力するようにして
もよい。
In FIG. 7, the camera 101 and the mixed reality display device 1 when the object teaching index 104 is equipped with three light emitting diodes as the respective markers 105a 'to 105c'.
The operation characteristics on the 02 side are schematically shown. Each of the light emitting diodes 105a 'to 105c' can encode data to be transmitted, such as identification information, into a blinking pattern of light and send it as an optical signal. Of course, the baseband signal composed of the transmission data may be represented as it is by a light blinking pattern, or the optical signal may be output after performing modulation processing such as frequency modulation or amplitude modulation.

【0109】この場合、各発光ダイオードの点滅パター
ンは、集光レンズ系(図示しない)によってカメラ10
1側の2次元イメージ・センサの受光面上に結像され
て、物体教示指標104の実空間上の位置や姿勢に対応
した位置の受光素子で検出される。
In this case, the blinking pattern of each light emitting diode is controlled by a condenser lens system (not shown).
An image is formed on the light receiving surface of the one-dimensional two-dimensional image sensor and detected by the light receiving element at a position corresponding to the position or orientation of the object teaching index 104 in the real space.

【0110】例えば、イメージ・センサが持つ2次元受
光面において各発光ダイオード105a’〜105c
’の点灯光が結像される受光素子(画素)の座標値を
それぞれ(10,10)、(90,90)、(40,7
0)とすると、各画素位置では対応する発光ダイオード
の点滅パターンが受光強度(明るさ)の時間的変化とし
て検出される。受光強度を所定の閾値で2値化処理する
ことにより、元の送信データに相当する1/0のビット
列を復元することができる。
For example, each of the light emitting diodes 105a 'to 105c on the two-dimensional light receiving surface of the image sensor.
The coordinate values of the light receiving element (pixel) on which the lit light of 'is formed are (10, 10), (90, 90), (40, 7), respectively.
0), the blinking pattern of the corresponding light emitting diode is detected as a temporal change in the received light intensity (brightness) at each pixel position. By binarizing the received light intensity with a predetermined threshold value, the 1/0 bit string corresponding to the original transmission data can be restored.

【0111】このように、複合現実感表示装置102
は、カメラ101によって測定対象物体101を含んだ
シーンの撮影画像を全画素でデコードすることによっ
て、各マーカ105a’〜105c ’から送出される
光学信号、並びに物体教示指標104の空間的情報をす
ることができる。すなわち、光学信号により物体教示指
標104との間でデータ伝送を行なうことができるとと
もに、空間的情報が意味する実世界状況に基づく拡張現
実サービスを提供することができる。
As described above, the mixed reality display device 102
Decodes the captured image of the scene including the measurement target object 101 by all the pixels by the camera 101 to obtain the optical signal transmitted from each of the markers 105a ′ to 105c ′ and the spatial information of the object teaching index 104. be able to. That is, it is possible to perform data transmission with the object teaching index 104 by an optical signal, and it is possible to provide an augmented reality service based on the real world situation that spatial information means.

【0112】図8には、図6に示した物体教示指標10
4を用いた場合の物体教示指標104の抽出、並びにそ
の識別情報及び3次元位置・姿勢情報を取得するための
処理手順をフローチャートの形式で示している。この処
理手順は、図3に示した処理ルーチンのステップS2に
相当し、実際には、CPU1が所定の物体教示指標の抽
出、並びにその識別情報及び3次元位置・姿勢情報の取
得処理アプリケーションを起動して、カメラ101から
の入力画像を処理するという形態で実現される。以下、
このフローチャートを参照しながら、物体教示指標10
4の認識処理について詳解する。
FIG. 8 shows the object teaching index 10 shown in FIG.
4 shows the processing procedure for extracting the object teaching index 104 and acquiring the identification information and the three-dimensional position / orientation information thereof in the case of using 4 in the form of a flowchart. This processing procedure corresponds to step S2 of the processing routine shown in FIG. 3, and in reality, the CPU 1 extracts a predetermined object teaching index and activates an identification information and 3D position / orientation information acquisition processing application. Then, the input image from the camera 101 is processed. Less than,
With reference to this flowchart, the object teaching index 10
The recognition process of No. 4 will be described in detail.

【0113】まず、カメラ101からの入力画像を画像
処理して、点滅パターンの抽出、並びに点滅パターンに
よって表される送信データのデコードを行なう(ステッ
プS21)
First, the input image from the camera 101 is subjected to image processing to extract a blinking pattern and decode transmission data represented by the blinking pattern (step S21).

【0114】次いで、抽出された点滅パターンが3つか
どうかを判定する(ステップS22)。これは、Rob
ert外著の論文(前述)に記述された数学的算出方法
によれば3点の画像座標から3次元位置及び姿勢を推定
できることに依拠する。
Then, it is determined whether or not there are three extracted blink patterns (step S22). This is Rob
This is based on the fact that the mathematical calculation method described in the paper by Ert et al. (described above) can estimate the three-dimensional position and orientation from the image coordinates of three points.

【0115】ステップS22において、抽出されたマー
カの数は3つと判定された場合には、次いで、Robe
rt外著の論文(前述)に記述されている数学的算出方
法に従い3次元位置及び姿勢を推定する(ステップS2
3)。また、点滅パターンの形式で物体教示指標104
からデータが送られてくる場合には、そのデコード結果
と統合して、3次元位置及び姿勢を推定するようにして
もよい。
If it is determined in step S22 that the number of extracted markers is three, then the Robe
The three-dimensional position and orientation are estimated according to the mathematical calculation method described in a paper by rt (above) (step S2).
3). In addition, the object teaching index 104 in the form of a blinking pattern
When the data is sent from the device, it may be integrated with the decoding result to estimate the three-dimensional position and orientation.

【0116】また、ステップS22及びS23における
3次元位置及び姿勢の代替的な処理として、物体教示指
標104上に平行四辺形を形成するように4つの点滅光
源を配設しておき、カメラ101からの入力画像から平
行四辺形状に4つの点滅パターンを抽出することができ
たときに、加藤外著の論文(前述)に記載されている方
法に従い、数学的算出により物体教示指標104の3次
元位置及び姿勢を推定する。
Further, as an alternative process of the three-dimensional position and posture in steps S22 and S23, four blinking light sources are arranged so as to form a parallelogram on the object teaching index 104, and the camera 101 is operated. When four blinking patterns in a parallelogram shape can be extracted from the input image of, the three-dimensional position of the object teaching index 104 by mathematical calculation according to the method described in the paper by Kato, et al. And the attitude is estimated.

【0117】次いで、物体教示指標104の識別情報を
認識する(ステップS24)。物体教示指標104には
型番などの識別情報が例えば文字情報の形式で明記され
ているので、これを文字認識技術などを用いて認識す
る。あるいは、物体教示指標104には文字ではなくバ
ーコードやその他のビジュアル・コードの形式で識別情
報が明記されている場合には、そのパターン認識によっ
て識別情報を認識することも可能である。
Then, the identification information of the object teaching index 104 is recognized (step S24). Identification information such as a model number is specified in the object teaching index 104, for example, in the form of character information, and thus this is recognized using a character recognition technique or the like. Alternatively, if the identification information is specified in the object teaching index 104 in the form of a bar code or other visual code instead of characters, the identification information can be recognized by the pattern recognition.

【0118】また、点滅パターンの形式で物体教示指標
104からデータが送られてくる場合には、ステップS
24では、そのデコード結果と統合して、識別情報を認
識するようにしてもよい。
If data is sent from the object teaching index 104 in the form of a blinking pattern, step S
At 24, the identification information may be recognized by integrating with the decoding result.

【0119】あるいは、各光源105a’〜105c’
により点滅パターンの形式で送信されるIDのみで情報
が伝達され、物体教示指標104に情報の印字がない場
合には、ステップS24では各光源105a’〜105
c’における点滅パターンのデコード結果のみにより識
別情報の認識を行なう。例えば、各光源105a’〜1
05c’からは上位6ビットを物体教示指標104が持
つ識別情報に割り当て、下位2ビットを各光源105
a’〜105c’のIDに割り当てた8ビットのデータ
が送信されており、これをデコード処理する。
Alternatively, each of the light sources 105a 'to 105c'
If the information is transmitted only by the ID transmitted in the form of a blinking pattern by and the information is not printed on the object teaching index 104, in step S24, each of the light sources 105a 'to 105
The identification information is recognized only by the decoding result of the blinking pattern in c '. For example, each light source 105a'-1
From 05c ', the upper 6 bits are assigned to the identification information of the object teaching index 104, and the lower 2 bits are assigned to each light source 105
The 8-bit data assigned to the IDs a'to 105c 'is transmitted, and is decoded.

【0120】図9には、図6に示した物体教示指標10
4の変形例を示している。同図において、物体教示指標
104の各頂点には、パルス発信が可能なLEDなどの
光源105a’〜105c’が設置されている。また、
物体教示指標104の略中央には、対応する実物体に関
連した情報(例えば、製品型番の文字情報など)を印字
する代わりに、これらの情報を光の点滅パターンに符号
化して送信する光源106が追加して配設されている。
FIG. 9 shows the object teaching index 10 shown in FIG.
4 shows a modification of No. 4. In the figure, light sources 105a 'to 105c' such as LEDs capable of pulse transmission are installed at each vertex of the object teaching index 104. Also,
Instead of printing information (for example, character information of the product model number) related to the corresponding real object in the approximate center of the object teaching index 104, a light source 106 that encodes and transmits this information in a blinking pattern of light. Are additionally provided.

【0121】このような場合、複合現実感表示装置10
2側では、カメラ101からの入力画像を基に、光源1
06の点滅パターンを空間的に認識することによって、
物体教示指標104における識別情報をデコードするこ
とができる。
In such a case, the mixed reality display device 10
On the second side, the light source 1 is based on the input image from the camera 101.
By spatially recognizing the 06 blinking pattern,
The identification information in the object teaching index 104 can be decoded.

【0122】(3)構成例3:図10には、物体教示指
標104の他の構成例を示している。同図に示す物体教
示指標104の光学的な識別情報は、「サイバーコード
(Cybercode)」で構成されている。
(3) Configuration Example 3: FIG. 10 shows another configuration example of the object teaching index 104. The optical identification information of the object teaching index 104 shown in the figure is composed of "Cybercode".

【0123】このサイバーコードは、2次元的なビジュ
アル・コードの一種であり、サイバーコードの所在を表
すための「ガイド・バー表示領域」と、2次元状のコー
ド・パターンを表示する「コード・パターン表示領域」
とで構成されてモザイク状の模様をなす。コード・パタ
ーン表示領域内は、n×mマトリックス(同図では7×
7)に配列されたセルで構成され、各セルを白又は黒の
2値表現することで識別情報を付与することができる。
但し、コード・パターン表示領域の4隅のコーナー・セ
ルは、識別情報としてではなく位置合わせ(Image Regi
stration)パターンとして、常に黒パターンとなってい
る。
This cyber code is a kind of two-dimensional visual code, and includes a "guide bar display area" for indicating the whereabouts of the cyber code and a "code. Code bar" for displaying a two-dimensional code pattern. Pattern display area "
It is composed of and forms a mosaic pattern. The code pattern display area has an n × m matrix (7 × in the figure).
It is composed of cells arranged in 7), and the identification information can be added by expressing each cell in binary with white or black.
However, the corner cells at the four corners of the code pattern display area are aligned (Image Regi
stration) pattern is always a black pattern.

【0124】サイバーコードの認識手順は、撮像画像を
2値化するステップと、2値画像中からガイド・バー1
002の候補を発見するステップと、ガイド・バー10
02の位置や方向に基づいてコーナー・セル1003を
探索するステップと、ガイド・バー1002及びコーナ
ー・セル1003を検出したことに応答して画像ビット
マップ・パターンを復号化するステップとに大別され
る。さらに、エラービットの検査を行うことで、撮像画
像中に正しいサイバー・コードが含まれていることを確
認して、該コードの識別情報や位置情報を導出すること
ができる。また、コーナー・セル1003の位置に基づ
いて、カメラやオブジェクトの傾きによって生じる歪み
を算出して補償することができる。
The cyber code recognition procedure includes the steps of binarizing a captured image and the guide bar 1 from the binary image.
002 candidate discovery step and guide bar 10
02, the step of searching for the corner cell 1003 based on the position and the direction of the cell, and the step of decoding the image bitmap pattern in response to the detection of the guide bar 1002 and the corner cell 1003. It Furthermore, by checking the error bit, it is possible to confirm that the captured image contains the correct cyber code, and derive the identification information and the position information of the code. Further, based on the position of the corner cell 1003, the distortion caused by the tilt of the camera or the object can be calculated and compensated.

【0125】サイバーコードの詳細については、例え
ば、本出願人に既に譲渡されている特開2000−82
108号公報(「2次元コ―ド認識処理方法、2次元コ
―ド認識処理装置、および媒体」)にも開示されてい
る。
For details of the cyber code, for example, Japanese Patent Laid-Open No. 2000-82 already assigned to the present applicant.
No. 108 (“two-dimensional code recognition processing method, two-dimensional code recognition processing device, and medium”).

【0126】図11には、図10に示した物体教示指標
104を用いた場合の物体教示指標104の抽出、並び
にその識別情報及び3次元位置・姿勢情報を取得するた
めの処理手順をフローチャートの形式で示している。こ
の処理手順は、図3に示した処理ルーチンのステップS
2に相当し、実際には、CPU1が所定の物体教示指標
の抽出、並びにその識別情報及び3次元位置・姿勢情報
の取得処理アプリケーションを起動して、カメラ101
からの入力画像を処理するという形態で実現される。以
下、このフローチャートを参照しながら、物体教示指標
104の認識処理について詳解する。
FIG. 11 is a flowchart showing a processing procedure for extracting the object teaching index 104 when the object teaching index 104 shown in FIG. 10 is used, and acquiring its identification information and three-dimensional position / orientation information. It is shown in the format. This processing procedure is step S of the processing routine shown in FIG.
2, the CPU 1 actually activates an application for extracting a predetermined object teaching index and an acquisition processing application for its identification information and three-dimensional position / orientation information,
It is realized by processing the input image from. Hereinafter, the recognition process of the object teaching index 104 will be described in detail with reference to this flowchart.

【0127】まず、カメラ101からの入力画像の2値
化処理を行ない(ステップS31)、次いでこの2値化
画像中からガイド・バー1002の候補を抽出する(ス
テップS32)。そして、ガイド・バー1002が抽出
されたかどうかを判定する(ステップS33)。
First, the input image from the camera 101 is binarized (step S31), and then the candidates for the guide bar 1002 are extracted from the binarized image (step S32). Then, it is determined whether or not the guide bar 1002 is extracted (step S33).

【0128】ガイド・バー1002が抽出されたなら
ば、後続のステップS34へ進み、ガイド・バー100
2の位置や方向を基準にして、さらにコーナー・セル1
003を探索する。そして、コーナー・セル1003が
抽出されたかどうかを判定する(ステップS35)。
If the guide bar 1002 is extracted, the process proceeds to the subsequent step S34, and the guide bar 1002 is extracted.
Corner cell 1 based on the position and direction of 2
Search for 003. Then, it is determined whether the corner cell 1003 has been extracted (step S35).

【0129】そして、コーナー・セル1003を抽出す
ることができたならば、さらに後続のステップS36へ
進んで、ガイド・バー1002及びコーナー・セル10
03を検出したことに応答して画像ビットマップ・パタ
ーンを復号化して、物体教示指標1001の識別情報を
取得する。
If the corner cell 1003 can be extracted, the process proceeds to the subsequent step S36 and the guide bar 1002 and the corner cell 10
In response to the detection of 03, the image bitmap pattern is decoded and the identification information of the object teaching index 1001 is acquired.

【0130】次いで、入力画像中で検出されたガイド・
バー1002及びコーナー・セル1003の位置から物
体教示指標1001のカメラ101に対する3次元位置
及び姿勢を推定する(ステップS37)。
Next, the guides detected in the input image
The three-dimensional position and orientation of the object teaching index 1001 with respect to the camera 101 is estimated from the positions of the bar 1002 and the corner cell 1003 (step S37).

【0131】ここで、サイバーコードの4箇所のコーナ
ー・セル1003の画像座標から3次元位置及び姿勢を
推定するためには、例えば、加藤博一、Mark Billinghu
rst、浅野浩一、橘啓八郎共著の論文“マーカー追跡に
基づく拡張現実感システムとそのキャリブレーション”
(日本バーチャルリアリティ学会論文誌, Vol.4, No.4,
1999)(前述)に記載されているような、識別可能な
平行四辺形の4頂点に基づいてその3次元位置及び姿勢
を数学的に算出する方法を適用することができる。
Here, in order to estimate the three-dimensional position and orientation from the image coordinates of four corner cells 1003 of the cyber code, for example, Hirokazu Kato, Mark Billinghu
A paper co-authored by rst, Koichi Asano and Keihachiro Tachibana "Augmented Reality System Based on Marker Tracking and Its Calibration"
(Journal of Virtual Reality Society of Japan, Vol.4, No.4,
1999) (supra), a method of mathematically calculating the three-dimensional position and orientation based on the four vertices of an identifiable parallelogram can be applied.

【0132】なお、図4に示した構成の物体教示指標1
04では、各コーナー・セル1003を単体では識別す
ることはできないが、ガイド・バー1002との位置関
係を用いると識別することができ、同様の手法により3
次元位置及び姿勢を推定することが可能である。
The object teaching index 1 having the configuration shown in FIG.
In 04, each corner cell 1003 cannot be identified by itself, but it can be identified by using the positional relationship with the guide bar 1002.
It is possible to estimate the dimensional position and orientation.

【0133】一方、ステップS33においてガイド・バ
ー1002を発見することができなかった場合、及びス
テップS35においてコーナー・セル1003を認識す
ることができなかった場合には、物体教示指標104の
3次元位置及び姿勢の取得が不能である旨の結果を返し
て、本処理ルーチン全体を終了する。
On the other hand, if the guide bar 1002 cannot be found in step S33 and the corner cell 1003 cannot be recognized in step S35, the three-dimensional position of the object teaching index 104 is determined. Then, the result indicating that the posture cannot be acquired is returned, and the entire processing routine ends.

【0134】C.画像データの合成 B項で示したような方法によって、現実空間に配置した
物体教示指標104の識別情報及びカメラ101に対す
る3次元位置・姿勢を取得することができる。さらに、
仮想空間において、検出した識別情報に対応する3次元
モデルを、物体教示指標104から求められた3次元位
置・姿勢に配置することによって、複合現実空間を作成
することができる。
C. By combining the image data with the method shown in the section B, the identification information of the object teaching index 104 arranged in the physical space and the three-dimensional position / orientation with respect to the camera 101 can be acquired. further,
By arranging the three-dimensional model corresponding to the detected identification information in the virtual space at the three-dimensional position / posture obtained from the object teaching index 104, a mixed reality space can be created.

【0135】家具、家電製品、インテリアなど、製品毎
に物体教示指標104を作成することが望ましい。例え
ば、図12に示すような商品パンフレット1201の一
部に物体教示指標1202を貼り付ける。
It is desirable to create the object teaching index 104 for each product such as furniture, home electric appliances, and interiors. For example, the object teaching index 1202 is attached to a part of the product brochure 1201 as shown in FIG.

【0136】消費者は、例えば訪れた店舗で、商品を購
入しなくても、商品パンフレット1201だけを持ち帰
ればよい。そして、自宅の部屋の所望の位置に、該当す
る商品についての物体教示指標1202を配置して、カ
メラ101で室内の風景を撮影する。
The consumer only needs to bring back the product brochure 1201 at the store he / she visited, for example, without purchasing the product. Then, the object teaching index 1202 for the corresponding product is arranged at a desired position in the room at home, and the camera 101 captures an image of the indoor scene.

【0137】この撮影画像を複合現実感表示装置102
に投入すると、現実空間に配置した物体教示指標104
の識別情報及びカメラ101に対する3次元位置・姿勢
を取得する。さらに、仮想空間において、検出した識別
情報に対応する商品の3次元モデルを、物体教示指標1
04から求められた3次元位置・姿勢に配置することに
よって、複合現実空間画像を作成して、画面表示装置1
03に出力する。この結果、消費者は、実際に商品を室
内に配置することなく、複合現実空間画像の表示出力を
基に、商品のサイズや色など、部屋との調和を購入前に
確認することが可能となる。
This photographed image is displayed on the mixed reality display device 102.
, The object teaching index 104 placed in the physical space
And the three-dimensional position / orientation with respect to the camera 101 are acquired. Furthermore, in the virtual space, the three-dimensional model of the product corresponding to the detected identification information is set as the object teaching index 1
By arranging in the three-dimensional position / orientation obtained from 04, a mixed reality space image is created, and the screen display device 1
Output to 03. As a result, consumers can confirm the harmony with the room, such as the size and color of the product, before purchasing, based on the display output of the mixed reality space image without actually arranging the product indoors. Become.

【0138】このような仮想空間上に3次元モデルを合
成する処理は、図3に示したフローチャートのステップ
S7で行われる処理に相当する。以下、画像データと3
次元モデルの合成方法について、再び図3を参照しなが
ら説明する。
The process of synthesizing a three-dimensional model in such a virtual space corresponds to the process performed in step S7 of the flowchart shown in FIG. Below, image data and 3
The method of synthesizing the dimensional model will be described with reference to FIG. 3 again.

【0139】まず、カメラ101から入力された画像デ
ータを出力画像に相当するフレームバッファに描画する
(ステップS1)。このとき、入力画像の大きさと出力
画像の大きさが異なる場合には、入力画像を縮小又は拡
大して、出力画像の大きさに合わせる。
First, the image data input from the camera 101 is drawn in the frame buffer corresponding to the output image (step S1). At this time, if the size of the input image and the size of the output image are different, the input image is reduced or enlarged to match the size of the output image.

【0140】次いで、物体教示指標の抽出、その識別情
報、3次元位置・姿勢情報の取得処理ルーチンにより、
撮影された画像データ中の物体教示指標104を抽出し
て(ステップS2,S3)、さらに、抽出された物体教
示指標104の識別情報に対応した実物体(家具、家電
製品、インテリアなど)についての3次元モデルを取得
する(ステップS4)。
Next, by the extraction processing of the object teaching index, the identification information thereof, and the acquisition processing routine of the three-dimensional position / orientation information,
The object teaching index 104 in the photographed image data is extracted (steps S2 and S3), and the real object (furniture, home electric appliance, interior, etc.) corresponding to the identification information of the extracted object teaching index 104 is extracted. A three-dimensional model is acquired (step S4).

【0141】次いで、ステップS4で取得された3次元
モデルを、カメラ101の入力画像で示される現実空間
上でステップS2で取得された3次元位置・姿勢に配置
して(ステップS6)、レンダリングする。このとき、
画角などといった仮想空間上のカメラの属性を現実世界
のカメラの属性(カメラの種類やレンズ歪など)に合わ
せなければならない。
Next, the three-dimensional model acquired in step S4 is placed in the three-dimensional position / orientation acquired in step S2 in the real space indicated by the input image of the camera 101 (step S6) and rendered. . At this time,
The attributes of the camera in the virtual space, such as the angle of view, must match the attributes of the camera in the real world (type of camera, lens distortion, etc.).

【0142】このようにして入力画像が表す現実空間上
に仮想的な3次元モデルを重ねて表示することによっ
て、複合現実空間画像を作成することが可能である。
In this way, it is possible to create a mixed reality space image by superimposing and displaying a virtual three-dimensional model on the real space represented by the input image.

【0143】上記の方法では、入力画像上に3次元モデ
ルを重ねて描画しているだけである。このため、例えば
図13に示すように、カメラ101と物体教示指標10
4の間にユーザの手などの障害物がある場合(但し、物
体教示指標104のマーカ105a〜105cは手で隠
れていないものとする)、合成画像A03は、図示のよ
うに、手の上に仮想物体A02が表示され、不自然な画
像になる。
In the above method, the three-dimensional model is simply drawn on the input image. Therefore, for example, as shown in FIG. 13, the camera 101 and the object teaching index 10
When there is an obstacle such as the hand of the user between 4 (however, it is assumed that the markers 105a to 105c of the object teaching index 104 are not hidden by the hand), the composite image A03 is on the hand as illustrated. The virtual object A02 is displayed on the screen, resulting in an unnatural image.

【0144】一方、例えば"Entertainment Vision Sens
or"のようなカメラからの距離情報を検出できる3次元
計測機能を搭載したイメージセンサを用いた場合には、
画像データと同時にカメラに対する物体の距離情報を取
得することができるので、上記の問題を回避することが
できる。あるいは、カメラ101に対する物体教示指標
104の位置関係が既知である空間内では、カメラ10
1からの距離情報に基づいて描画する物体を判断するこ
とができるので、同様に上記の問題を回避することがで
きる。
On the other hand, for example, "Entertainment Vision Sens
When using an image sensor equipped with a three-dimensional measurement function that can detect distance information from the camera such as "or",
Since the distance information of the object with respect to the camera can be acquired at the same time as the image data, the above problem can be avoided. Alternatively, in the space in which the positional relationship of the object teaching index 104 with respect to the camera 101 is known, the camera 10
Since the object to be drawn can be determined based on the distance information from 1, the above problem can be similarly avoided.

【0145】つまり、各画素を描画する際に最もカメラ
に近い物体を選択し描画することによって、図14に示
すような自然な合成画像B01を得ることが可能であ
る。
That is, when each pixel is drawn, by selecting and drawing the object closest to the camera, it is possible to obtain a natural composite image B01 as shown in FIG.

【0146】なお、"Entertainment Vision Sensor"
は、1チップでカラー動画像と3次元距離情報の両方
を、毎秒15フレーム又は30フレームで取得可能な高
機能CMOSイメージ・センサである。これら動画像と
距離情報を同時に利用することにより、画像認識、物体
認識、動き検出など、これまで外部に複雑な情報処理を
必要としていた機能を小規模なシステムで実現すること
ができます。これにより、PC、ゲームなどのユーザ・
インターフェースや3次元モデリング、ロボットの障害
物検知・人物検知、セキュリティ・システムにおける個
人認証、テレビ電話の画像抽出機能など、さまざまな分
野において多様なアプリケーションを提供することがで
きる(http://www.sony.co.jp/SonyInfo/News/Press
/)。
"Entertainment Vision Sensor"
Is a high-performance CMOS image sensor capable of acquiring both a color moving image and three-dimensional distance information with one chip at 15 or 30 frames per second. By using these moving images and distance information at the same time, it is possible to realize functions such as image recognition, object recognition, and motion detection that previously required complicated information processing in a small system. This allows users of PCs, games, etc.
Various applications can be provided in various fields such as interface and 3D modeling, robot obstacle detection / person detection, personal authentication in security system, and image extraction function of videophone (http: // www. sony.co.jp/SonyInfo/News/Press
/).

【0147】[追補]以上、特定の実施形態を参照しな
がら、本発明について詳解してきた。しかしながら、本
発明の要旨を逸脱しない範囲で当業者が該実施形態の修
正や代用を成し得ることは自明である。すなわち、例示
という形態で本発明を開示してきたのであり、本明細書
の記載内容を限定的に解釈するべきではない。本発明の
要旨を判断するためには、冒頭に記載した特許請求の範
囲の欄を参酌すべきである。
[Supplement] The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiments without departing from the scope of the present invention. That is, the present invention has been disclosed in the form of exemplification, and the contents of this specification should not be construed in a limited manner. In order to determine the gist of the present invention, the section of the claims described at the beginning should be taken into consideration.

【0148】[0148]

【発明の効果】以上詳記したように、本発明によれば、
コンピュータやネットワーク上で実装された仮想空間上
で実世界の様相を組み込むことができる、優れた複合現
実感表示装置及び方法、記憶媒体、並びにコンピュータ
・プログラムを提供することができる。
As described above in detail, according to the present invention,
It is possible to provide an excellent mixed reality display device and method, a storage medium, and a computer program that can incorporate aspects of the real world in a virtual space implemented on a computer or a network.

【0149】また、本発明によれば、ユーザが存在する
場所や実世界オブジェクトの実空間上の位置・姿勢など
の実世界状況を積極的に利用して仮想空間を現実世界に
拡張することができる、優れた複合現実感表示装置及び
方法、記憶媒体、並びにコンピュータ・プログラムを提
供することができる。
Further, according to the present invention, the virtual space can be expanded to the real world by positively utilizing the real world situation such as the place where the user exists and the position / orientation of the real world object in the real space. It is possible to provide an excellent mixed reality display device and method, a storage medium, and a computer program that can be performed.

【0150】また、本発明によれば、現実空間に実物体
を配置することなく実物体の大きさや色などといった外
観と周囲環境との調和が図られた仮想現実世界をユーザ
に提示することができる、優れた複合現実感表示装置及
び方法、記憶媒体、並びにコンピュータ・プログラムを
提供することができる。
Further, according to the present invention, it is possible to present the virtual reality world in which the appearance such as the size and color of the real object and the surrounding environment are harmonized without arranging the real object in the real space. It is possible to provide an excellent mixed reality display device and method, a storage medium, and a computer program that can be performed.

【0151】また、本発明によれば、実物体を模倣した
仮想物体を現実空間に合成して表示することができる、
優れた複合現実感表示装置及び方法、記憶媒体、並びに
コンピュータ・プログラムを提供することができる。
Also, according to the present invention, a virtual object imitating a real object can be synthesized and displayed in the real space,
An excellent mixed reality display device and method, a storage medium, and a computer program can be provided.

【0152】本発明に係る複合現実感表示装置によれ
ば、実空間上のシーンに仮想物体が合成された複合現実
感画像を基に、家庭内の家具や電化製品、インテリアな
どが部屋の大きさに合っているのか、部屋や他の家具な
どの色と調和しているのかなどを、実際に購入する前に
判断することが可能である。また、家具や電化製品、イ
ンテリアなどの仮想物体以外の室内の風景や物体は、カ
メラから取り込まれた現実の画像をそのまま利用する。
すなわち、現実空間について完全なモデルを作成あるい
は入手する必要がなく、容易に拡張現実感画像を生成す
ることができる。
According to the mixed reality display device of the present invention, the furniture, electric appliances, interiors, etc. in the home are the size of the room based on the mixed reality image in which the virtual object is combined with the scene in the real space. It is possible to judge whether it is suitable or not and whether it is in harmony with the color of the room or other furniture before actually purchasing. In addition, for indoor scenes and objects other than virtual objects such as furniture, electrical appliances, and interiors, the actual images captured by the camera are used as they are.
That is, the augmented reality image can be easily generated without the need to create or obtain a complete model for the physical space.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態に係る複合現実感システム
の構成を模式的に示した図である。
FIG. 1 is a diagram schematically showing a configuration of a mixed reality system according to an embodiment of the present invention.

【図2】本実施形態に係る複合現実感装置102のハー
ドウェア構成を模式的に示した図である。
FIG. 2 is a diagram schematically showing a hardware configuration of a mixed reality apparatus 102 according to the present embodiment.

【図3】複合現実感装置102上で実行される複合現実
感表示の処理手順を示したフローチャートである。
FIG. 3 is a flowchart showing a mixed reality display processing procedure executed on the mixed reality apparatus 102.

【図4】物体教示指標104の1つの構成例を示した図
である。
FIG. 4 is a diagram showing one configuration example of an object teaching index 104.

【図5】図4に示した物体教示指標104を用いた場合
の物体教示指標の抽出、並びにその識別情報及び3次元
位置・姿勢情報を取得するための処理手順を示したフロ
ーチャートである。
5 is a flowchart showing a processing procedure for extracting an object teaching index when using the object teaching index 104 shown in FIG. 4, and acquiring its identification information and three-dimensional position / orientation information.

【図6】物体教示指標104の他の構成例を示した図で
ある。
FIG. 6 is a diagram showing another configuration example of the object teaching index 104.

【図7】物体教示指標104が各マーカ105a’〜1
05c’として3個の発光ダイオードを装備したときの
カメラ101及び複合現実感表示装置102側での動作
特性を模式的に示した図である。
FIG. 7 shows the object teaching index 104 as markers 105a ′ to 1
FIG. 10 is a diagram schematically showing operating characteristics on the side of the camera 101 and the mixed reality display device 102 when three light emitting diodes are equipped as 05c ′.

【図8】図6に示した物体教示指標104を用いた場合
の物体教示指標104の抽出、並びにその識別情報及び
3次元位置・姿勢情報を取得するための処理手順を示し
たフローチャートである。
8 is a flowchart showing a processing procedure for extracting the object teaching index 104 when using the object teaching index 104 shown in FIG. 6, and acquiring its identification information and three-dimensional position / orientation information.

【図9】図6に示した物体教示指標104の変形例を示
した図である。
9 is a diagram showing a modified example of the object teaching index 104 shown in FIG.

【図10】物体教示指標104の他の構成例を示した図
である。
10 is a diagram showing another configuration example of the object teaching index 104. FIG.

【図11】図10に示した物体教示指標104を用いた
場合の物体教示指標104の抽出、並びにその識別情報
及び3次元位置・姿勢情報を取得するための処理手順を
示したフローチャートである。
11 is a flowchart showing a processing procedure for extracting the object teaching index 104 when the object teaching index 104 shown in FIG. 10 is used, and acquiring its identification information and three-dimensional position / orientation information.

【図12】複合現実感画像の構成例を示した図である。FIG. 12 is a diagram showing a configuration example of a mixed reality image.

【図13】複合現実感画像の構成例を示した図である。FIG. 13 is a diagram showing a configuration example of a mixed reality image.

【図14】複合現実感画像の構成例を示した図である。FIG. 14 is a diagram showing a configuration example of a mixed reality image.

【符号の説明】[Explanation of symbols]

1…CPU 2…主メモリ,3…ROM 4…ディスプレイ・コントローラ 5…入力機器インターフェース 6…ネットワーク・インターフェース 7…外部機器インターフェース 8…バス,9…カメラ・インターフェース 11…ディスプレイ 12…キーボード,13…マウス 14…ハード・ディスク装置 15…メディア・ドライブ 101…カメラ 102…複合現実感装置 103…画像表示装置 104…物体教示指標 105a〜105c…マーカ 105a’〜105c’…マーカ(光源) 106…光源 1 ... CPU 2 ... Main memory, 3 ... ROM 4 ... Display controller 5: Input device interface 6 ... Network interface 7 ... External device interface 8 ... Bus, 9 ... Camera interface 11 ... Display 12 ... Keyboard, 13 ... Mouse 14 ... Hard disk drive 15 ... Media drive 101 ... Camera 102 ... Mixed reality device 103 ... Image display device 104 ... Object teaching index 105a to 105c ... Markers 105a 'to 105c' ... Marker (light source) 106 ... Light source

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA37 BB05 BB29 FF04 JJ03 JJ26 QQ31 UU05 5B050 AA10 BA07 BA08 BA11 BA13 BA18 CA07 CA08 DA02 DA04 DA10 EA06 EA07 EA19 FA02 FA05 FA08 FA13 FA19 GA04 5B057 BA02 CA01 CA08 CA12 CA13 CA16 CA17 CB01 CB08 CB13 CB16 CC01 CE08 CH07 CH08 CH11 CH12 CH18 DA02 DA07 DA16 DB03 DB06 DB09 DC08 DC09 5C023 AA03 AA04 AA10 AA11 AA38 BA02 DA02 DA03 DA08    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2F065 AA04 AA37 BB05 BB29 FF04                       JJ03 JJ26 QQ31 UU05                 5B050 AA10 BA07 BA08 BA11 BA13                       BA18 CA07 CA08 DA02 DA04                       DA10 EA06 EA07 EA19 FA02                       FA05 FA08 FA13 FA19 GA04                 5B057 BA02 CA01 CA08 CA12 CA13                       CA16 CA17 CB01 CB08 CB13                       CB16 CC01 CE08 CH07 CH08                       CH11 CH12 CH18 DA02 DA07                       DA16 DB03 DB06 DB09 DC08                       DC09                 5C023 AA03 AA04 AA10 AA11 AA38                       BA02 DA02 DA03 DA08

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】仮想物体を現実空間に合成して表示する複
合現実感表示装置であって、 物体教示指標を含んだ現実空間上のシーンを捕捉する画
像入力部と、 前記画像入力部による入力画像を基に前記物体教示指標
の空間的位置及び姿勢を計算する位置・姿勢計算部と、 前記画像入力部による入力画像を基に前記物体教示指標
が持つ識別情報を認識して対応する現実物体を認識する
物体認識部と、 前記物体認識部により認識された現実物体についての3
次元モデルからなる仮想物体を前記位置・姿勢計算部に
より算出された空間的な位置及び姿勢に応じて回転・移
動させて入力画像上に合成する画像合成部と、を具備す
ることを特徴とする複合現実感表示装置。
1. A mixed reality display device for synthesizing and displaying a virtual object in a real space, comprising: an image input unit for capturing a scene in the real space including an object teaching index; and an input by the image input unit. A position / orientation calculation unit that calculates the spatial position and orientation of the object teaching index based on an image, and a corresponding physical object that recognizes the identification information of the object teaching index based on the image input by the image input unit Of the physical object recognized by the object recognition unit and the physical object recognized by the object recognition unit.
An image synthesizing unit configured to rotate and move a virtual object composed of a dimensional model in accordance with the spatial position and orientation calculated by the position / orientation calculating unit and synthesize the image on an input image. Mixed reality display device.
【請求項2】前記画像合成部は、前記物体認識部により
認識された現実物体に関する料金や仕様、あるいはその
他の関連情報を入力画像上にさらに合成する、ことを特
徴とする請求項1に記載の複合現実感表示装置。
2. The image synthesizing unit further synthesizes a charge, a specification, or other related information regarding the physical object recognized by the object recognizing unit on an input image. Mixed reality display device.
【請求項3】さらに前記物体教示指標までの距離を測定
する距離測定部を備え、 前記画像合成部は、前記距離測定部により得られた距離
に基づいて前記仮想物体に陰面処理を適用する、ことを
特徴とする請求項1に記載の複合現実感表示装置。
3. A distance measuring section for measuring a distance to the object teaching index, wherein the image synthesizing section applies hidden surface processing to the virtual object based on the distance obtained by the distance measuring section. The mixed reality display device according to claim 1, wherein:
【請求項4】前記物体教示指標には光学的識別情報が配
設されており、 前記物体認識部は、入力画像から光学的識別情報を抽出
して物体の識別情報を取得する、ことを特徴とする請求
項1に記載の複合現実感表示装置。
4. The object teaching index is provided with optical identification information, and the object recognition unit extracts the optical identification information from an input image to acquire the identification information of the object. The mixed reality display device according to claim 1.
【請求項5】前記物体教示指標には互いの位置関係が既
知である複数の光学的識別情報が配設されており、 前記位置・姿勢計算部は、入力画像から光学的識別情報
を抽出して、該入力画像における各光学的識別情報の検
出位置に基づいてその空間的な位置及び姿勢を算出す
る、ことを特徴とする請求項1に記載の複合現実感表示
装置。
5. The object teaching index is provided with a plurality of optical identification information whose positional relationship is known to each other, and the position / orientation calculation unit extracts the optical identification information from the input image. 2. The mixed reality display device according to claim 1, wherein the spatial position and orientation of the optical image are calculated based on the detected position of each optical identification information in the input image.
【請求項6】前記物体教示指標には互いの位置関係が既
知である複数の点滅光源が配設されて、各点滅光源は識
別情報又はその他のデータを光の点滅パターンに符号化
して送信する、ことを特徴とする請求項1に記載の複合
現実感表示装置。
6. The object teaching index is provided with a plurality of blinking light sources whose positional relationship is known to each other, and each blinking light source encodes identification information or other data into a blinking pattern of light and transmits it. The mixed reality display device according to claim 1, wherein:
【請求項7】前記物体認識部は、入力画像を基に各点滅
光源からの点滅パターンを抽出するとともにこれらを復
号化して前記物体教示指標が持つ識別情報を認識する、
ことを特徴とする請求項6に記載の複合現実感表示装
置。
7. The object recognition section extracts blinking patterns from each blinking light source on the basis of an input image and decodes them to recognize identification information possessed by the object teaching index.
The mixed reality display device according to claim 6, wherein:
【請求項8】前記位置・姿勢計算部は、入力画像を基に
各点滅光源からの点滅パターンを抽出しこれらを復号化
して各々を識別するとともに、該入力画像における各点
滅光源の検出位置に基づいてその空間的な位置及び姿勢
を算出する、ことを特徴とする請求項6に記載の複合現
実感表示装置。
8. The position / orientation calculation unit extracts blinking patterns from each blinking light source based on the input image, decodes these to identify each, and identifies the blinking light source detection position in the input image. The mixed reality display device according to claim 6, wherein the spatial position and orientation thereof are calculated based on the spatial position and orientation.
【請求項9】仮想物体を現実空間に合成して表示する複
合現実感表示方法であって、 物体教示指標を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、 前記画像入力ステップにおける入力画像を基に前記物体
教示指標の空間的位置及び姿勢を計算する位置・姿勢計
算ステップと、 前記画像入力ステップにおける入力画像を基に前記物体
教示指標が持つ識別情報を認識して対応する現実物体を
認識する物体認識ステップと、 前記物体認識ステップにおいて認識された現実物体につ
いての3次元モデルからなる仮想物体を前記位置・姿勢
計算ステップにおいて算出された空間的な位置及び姿勢
に応じて回転・移動させて入力画像上に合成する画像合
成ステップと、を具備することを特徴とする複合現実感
表示方法。
9. A mixed reality display method for synthesizing and displaying a virtual object in a real space, comprising: an image input step of capturing a scene in the real space including an object teaching index; and an input in the image input step. A position / orientation calculation step of calculating a spatial position and orientation of the object teaching index based on an image, and a real object corresponding to recognition information identified by the object teaching index based on the input image in the image input step Recognizing the object, and rotating / moving a virtual object consisting of a three-dimensional model of the physical object recognized in the object recognizing step according to the spatial position and attitude calculated in the position / orientation calculating step. An image synthesizing step of synthesizing the image on the input image.
【請求項10】前記画像合成ステップでは、前記物体認
識ステップにおいて認識された現実物体に関する料金や
仕様、あるいはその他の関連情報を入力画像上にさらに
合成する、ことを特徴とする請求項9に記載の複合現実
感表示方法。
10. The image synthesizing step further synthesizes, on an input image, a charge, a specification, or other related information regarding the real object recognized in the object recognizing step. Mixed Reality Display Method.
【請求項11】さらに前記物体教示指標までの距離を測
定する距離測定ステップを備え、 前記画像合成ステップでは、前記距離測定ステップにお
いて得られた距離に基づいて前記仮想物体に陰面処理を
適用する、ことを特徴とする請求項9に記載の複合現実
感表示方法。
11. A distance measuring step for measuring a distance to the object teaching index, wherein in the image synthesizing step, hidden surface processing is applied to the virtual object based on the distance obtained in the distance measuring step. The mixed reality display method according to claim 9, wherein:
【請求項12】前記物体教示指標には光学的識別情報が
配設されており、 前記物体認識ステップでは、入力画像から光学的識別情
報を抽出して物体の識別情報を取得する、ことを特徴と
する請求項9に記載の複合現実感表示方法。
12. The object teaching index is provided with optical identification information, and in the object recognition step, the optical identification information is extracted from an input image to obtain the identification information of the object. The mixed reality display method according to claim 9.
【請求項13】前記物体教示指標には互いの位置関係が
既知である複数の光学的識別情報が配設されており、 前記位置・姿勢計算ステップでは、入力画像から光学的
識別情報を抽出して、該入力画像における各光学的識別
情報の検出位置に基づいてその空間的な位置及び姿勢を
算出する、ことを特徴とする請求項9に記載の複合現実
感表示方法。
13. The object teaching index is provided with a plurality of optical identification information whose mutual positional relationship is known, and in the position / orientation calculation step, the optical identification information is extracted from the input image. 10. The mixed reality display method according to claim 9, further comprising calculating the spatial position and orientation of the optical image based on the detected position of each optical identification information in the input image.
【請求項14】前記物体教示指標には互いの位置関係が
既知である複数の点滅光源が配設されて、各点滅光源は
識別情報又はその他のデータを光の点滅パターンに符号
化して送信する、ことを特徴とする請求項9に記載の複
合現実感表示方法。
14. The object teaching index is provided with a plurality of blinking light sources whose positional relationships are known to each other, and each blinking light source encodes identification information or other data into a blinking pattern of light and transmits it. The mixed reality display method according to claim 9, wherein:
【請求項15】前記物体認識ステップでは、入力画像を
基に各点滅光源からの点滅パターンを抽出するとともに
これらを復号化して前記物体教示指標が持つ識別情報を
認識する、ことを特徴とする請求項14に記載の複合現
実感表示方法。
15. The object recognizing step is characterized by extracting blinking patterns from each blinking light source based on an input image and decoding these to recognize identification information possessed by the object teaching index. Item 15. The mixed reality display method according to Item 14.
【請求項16】前記位置・姿勢計算ステップは、入力画
像を基に各点滅光源からの点滅パターンを抽出しこれら
を復号化して各々を識別するとともに、該入力画像にお
ける各点滅光源の検出位置に基づいてその空間的な位置
及び姿勢を算出する、ことを特徴とする請求項14に記
載の複合現実感表示方法。
16. The position / orientation calculating step extracts a blinking pattern from each blinking light source based on an input image, decodes these to identify each, and determines a detection position of each blinking light source in the input image. 15. The mixed reality display method according to claim 14, wherein the spatial position and orientation are calculated based on the spatial position and orientation.
【請求項17】仮想物体を現実空間に合成して表示する
ための処理をコンピュータ・システム上で実行するよう
に記述されたコンピュータ・ソフトウェアをコンピュー
タ可読形式で物理的に格納した記憶媒体であって、前記
コンピュータ・ソフトウェアは、 物体教示指標を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、 前記画像入力ステップにおける入力画像を基に前記物体
教示指標の空間的位置及び姿勢を計算する位置・姿勢計
算ステップと、 前記画像入力ステップにおける入力画像を基に前記物体
教示指標が持つ識別情報を認識して対応する現実物体を
認識する物体認識ステップと、 前記物体認識ステップにおいて認識された現実物体につ
いての3次元モデルからなる仮想物体を前記位置・姿勢
計算ステップにおいて算出された空間的な位置及び姿勢
に応じて回転・移動させて入力画像上に合成する画像合
成ステップと、を具備することを特徴とする記憶媒体。
17. A storage medium which physically stores computer software in a computer-readable format, which is written so as to execute a process for synthesizing and displaying a virtual object in a physical space on a computer system. , The computer software includes: an image input step of capturing a scene in a real space including an object teaching index; and a position for calculating a spatial position and orientation of the object teaching index based on the input image in the image input step. An orientation calculation step; an object recognition step of recognizing the corresponding physical object by recognizing the identification information of the object teaching index based on the input image in the image input step; and a physical object recognized in the object recognition step. A virtual object consisting of a three-dimensional model of An image synthesizing step of synthesizing on an input image by rotating / moving in accordance with the spatial position and orientation of the storage medium.
【請求項18】仮想物体を現実空間に合成して表示する
ための処理をコンピュータ・システム上で実行するよう
にコンピュータ可読形式で記述されたコンピュータ・プ
ログラムであって、 物体教示指標を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、 前記画像入力ステップにおける入力画像を基に前記物体
教示指標の空間的位置及び姿勢を計算する位置・姿勢計
算ステップと、 前記画像入力ステップにおける入力画像を基に前記物体
教示指標が持つ識別情報を認識して対応する現実物体を
認識する物体認識ステップと、 前記物体認識ステップにおいて認識された現実物体につ
いての3次元モデルからなる仮想物体を前記位置・姿勢
計算ステップにおいて算出された空間的な位置及び姿勢
に応じて回転・移動させて入力画像上に合成する画像合
成ステップと、を具備することを特徴とするコンピュー
タ・プログラム。
18. A computer program written in a computer-readable format so as to execute a process for synthesizing and displaying a virtual object in a real space on a computer system, the reality including an object teaching index. An image input step of capturing a scene in space, a position / posture calculation step of calculating a spatial position and a posture of the object teaching index based on the input image in the image input step, and an input image in the image input step. An object recognition step of recognizing the identification information of the object teaching index to recognize a corresponding physical object based on the basis, and a virtual object including a three-dimensional model of the physical object recognized in the object recognition step, Rotate / move according to the spatial position and orientation calculated in the calculation step An image synthesizing step of synthesizing, a computer program.
JP2002057838A 2002-03-04 2002-03-04 Mixed reality display apparatus and method, storage medium, and computer program Expired - Fee Related JP4032776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002057838A JP4032776B2 (en) 2002-03-04 2002-03-04 Mixed reality display apparatus and method, storage medium, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002057838A JP4032776B2 (en) 2002-03-04 2002-03-04 Mixed reality display apparatus and method, storage medium, and computer program

Publications (2)

Publication Number Publication Date
JP2003256876A true JP2003256876A (en) 2003-09-12
JP4032776B2 JP4032776B2 (en) 2008-01-16

Family

ID=28668010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002057838A Expired - Fee Related JP4032776B2 (en) 2002-03-04 2002-03-04 Mixed reality display apparatus and method, storage medium, and computer program

Country Status (1)

Country Link
JP (1) JP4032776B2 (en)

Cited By (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107968A (en) * 2003-09-30 2005-04-21 Canon Inc Image display device and method, and information processing method
WO2006025137A1 (en) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. Image processor, game machine, and image processing method
WO2006041149A1 (en) * 2004-10-15 2006-04-20 Sony Computer Entertainment Inc. Object, image data, image data transmission method, card, game mat, card game system, image analysis device, and image analysis method
JP2006127468A (en) * 2004-09-28 2006-05-18 Canon Inc Information processing method and apparatus
WO2006109829A1 (en) * 2005-04-12 2006-10-19 Pioneer Corporation Communication system, communication device and method, and computer program
JP2007058296A (en) * 2005-08-22 2007-03-08 Fujifilm Holdings Corp Information providing system
JP2007206807A (en) * 2006-01-31 2007-08-16 Nippon Hoso Kyokai <Nhk> Image composing device and image composing program
JP2007219082A (en) * 2006-02-15 2007-08-30 Canon Inc Composite reality feeling display system
JP2007286851A (en) * 2006-04-14 2007-11-01 Canon Inc Image processing system, image processor, imaging device, and control method thereof
JP2009087176A (en) * 2007-10-02 2009-04-23 Casio Comput Co Ltd Object generation system, object generation device, and object generation program
JP2009150883A (en) * 2007-12-18 2009-07-09 General Electric Co <Ge> System and method of extension reality inspection and data visualization
JP2009271822A (en) * 2008-05-09 2009-11-19 Dainippon Printing Co Ltd Interior furniture purchase support system, method, program, and medium
JP2010045621A (en) * 2008-08-13 2010-02-25 Casio Comput Co Ltd Imaging apparatus
JP2010515189A (en) * 2007-01-05 2010-05-06 トタル イメルシオン Method and apparatus for inserting virtual objects in real time into an image stream using data from a real scene represented by an image
JP2010157034A (en) * 2008-12-26 2010-07-15 Ritsumeikan System, method, and program for displaying composite image
JP2010157035A (en) * 2008-12-26 2010-07-15 Ritsumeikan System, method, and program for displaying composite image
JP2010170316A (en) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd Apparatus, method and program for displaying augmented reality
JP2010179403A (en) * 2009-02-05 2010-08-19 Denso Wave Inc Robot simulation image display system
JP2010257359A (en) * 2009-04-28 2010-11-11 Sony Corp Information processing device, information processing method and program
JP2010540973A (en) * 2007-10-05 2010-12-24 ヴォルカノ コーポレイション Real-time spectral domain optical coherence tomography using distributed acquisition and processing
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2010541054A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2011095964A (en) * 2009-10-29 2011-05-12 Toppan Printing Co Ltd Portable terminal, method, and program
WO2011065680A2 (en) * 2009-11-25 2011-06-03 Lg Electronics Inc. Managing multimedia contents using general objects
JP2011198150A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Head-mounted augmented reality video presentation device and virtual display object operation method
JP2011242934A (en) * 2010-05-17 2011-12-01 Ntt Docomo Inc Object display device, object display system and object display method
EP2434458A2 (en) 2010-09-27 2012-03-28 Nintendo Co., Ltd. Image processing program, apparatus, system, and method for mixed reality
JP2012202876A (en) * 2011-03-25 2012-10-22 Fuji Xerox Co Ltd Recognition object, object recognition apparatus and program, and object recognition system
JP2013024586A (en) * 2011-07-15 2013-02-04 Univ Of Yamanashi Monospectral marker, method and device for detecting the same
WO2013061504A1 (en) * 2011-10-27 2013-05-02 Sony Corporation Image processing apparatus, image processing method, and program
JP2013515275A (en) * 2010-03-08 2013-05-02 エンパイア テクノロジー ディベロップメント エルエルシー Broadband passive tracking for augmented reality
WO2013069196A1 (en) 2011-11-11 2013-05-16 Sony Corporation Information processing device, information processing method, and program
WO2013069189A1 (en) 2011-11-11 2013-05-16 Sony Corporation Information processing apparatus, information processing method, and program
JP2013105329A (en) * 2011-11-14 2013-05-30 Konica Minolta Business Technologies Inc Simulation method, simulation device and control program for simulation device
JP2013105328A (en) * 2011-11-14 2013-05-30 Konica Minolta Business Technologies Inc Simulation method, simulation device and control program for simulation device
JP2013130919A (en) * 2011-12-20 2013-07-04 Casio Comput Co Ltd Information processing device, information processing method, and program
WO2013145883A1 (en) 2012-03-26 2013-10-03 ソニー株式会社 Information processing device, information processing method and program
WO2013145673A1 (en) 2012-03-26 2013-10-03 Sony Corporation Information processing apparatus, information processing method, and program
WO2013145566A1 (en) 2012-03-26 2013-10-03 Sony Corporation Information processing apparatus, information processing method, and program
KR101330811B1 (en) 2010-08-25 2013-11-18 주식회사 팬택 Apparatus and Method for augmented reality using instant marker
KR101348680B1 (en) * 2013-01-09 2014-01-09 국방과학연구소 Target acquisition method for video tracker, and target acquisition apparatus using the same
JP2014056450A (en) * 2012-09-13 2014-03-27 Casio Comput Co Ltd Image processing device and program
WO2014050957A1 (en) * 2012-09-27 2014-04-03 京セラ株式会社 Display device, control method, and control program
JP2014072570A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
JP2014071520A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control method and control program
US20140240652A1 (en) * 2011-03-29 2014-08-28 Sharp Kabushiki Kaisha See-through display device, and electrical device and furniture piece each of which is provided with see-through display device
KR101539087B1 (en) * 2013-08-22 2015-07-29 김정한 Augmented reality device using mobile device and method of implementing augmented reality
JP2015154854A (en) * 2014-02-20 2015-08-27 株式会社三洋物産 Game machine
JP2015179392A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 Code symbol display device, information processor, and program
US9286673B2 (en) 2012-10-05 2016-03-15 Volcano Corporation Systems for correcting distortions in a medical image and methods of use thereof
JP2016038796A (en) * 2014-08-08 2016-03-22 東芝テック株式会社 Information processor and program
US9292918B2 (en) 2012-10-05 2016-03-22 Volcano Corporation Methods and systems for transforming luminal images
US9301687B2 (en) 2013-03-13 2016-04-05 Volcano Corporation System and method for OCT depth calibration
US9307926B2 (en) 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
US9324141B2 (en) 2012-10-05 2016-04-26 Volcano Corporation Removal of A-scan streaking artifact
US9360630B2 (en) 2011-08-31 2016-06-07 Volcano Corporation Optical-electrical rotary joint and methods of use
US9367965B2 (en) 2012-10-05 2016-06-14 Volcano Corporation Systems and methods for generating images of tissue
US9383263B2 (en) 2012-12-21 2016-07-05 Volcano Corporation Systems and methods for narrowing a wavelength emission of light
JP2016149022A (en) * 2015-02-12 2016-08-18 株式会社キヌガワ京都 Sales support program and sales support device
JP2016531276A (en) * 2013-06-13 2016-10-06 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting the orientation of at least one object
US9478940B2 (en) 2012-10-05 2016-10-25 Volcano Corporation Systems and methods for amplifying light
US9486143B2 (en) 2012-12-21 2016-11-08 Volcano Corporation Intravascular forward imaging device
US9508174B2 (en) 2014-02-03 2016-11-29 Brother Kogyo Kabushiki Kaisha Display device and non-transitory storage medium storing instructions executable by the display device
US9596993B2 (en) 2007-07-12 2017-03-21 Volcano Corporation Automatic calibration systems and methods of use
JP6105117B1 (en) * 2016-03-25 2017-03-29 東芝エレベータ株式会社 Elevator hoistway shape information generating apparatus and marker member used therefor
US9612105B2 (en) 2012-12-21 2017-04-04 Volcano Corporation Polarization sensitive optical coherence tomography system
US9622706B2 (en) 2007-07-12 2017-04-18 Volcano Corporation Catheter for in vivo imaging
US9709379B2 (en) 2012-12-20 2017-07-18 Volcano Corporation Optical coherence tomography system that is reconfigurable between different imaging modes
US9730613B2 (en) 2012-12-20 2017-08-15 Volcano Corporation Locating intravascular images
US9770172B2 (en) 2013-03-07 2017-09-26 Volcano Corporation Multimodal segmentation in intravascular images
WO2017215308A1 (en) * 2016-06-14 2017-12-21 珠海格力电器股份有限公司 Method, device and system for controlling electrical appliance
US9858668B2 (en) 2012-10-05 2018-01-02 Volcano Corporation Guidewire artifact removal in images
US9867530B2 (en) 2006-08-14 2018-01-16 Volcano Corporation Telescopic side port catheter device with imaging system and method for accessing side branch occlusions
US10058284B2 (en) 2012-12-21 2018-08-28 Volcano Corporation Simultaneous imaging, monitoring, and therapy
US10070827B2 (en) 2012-10-05 2018-09-11 Volcano Corporation Automatic image playback
US10166003B2 (en) 2012-12-21 2019-01-01 Volcano Corporation Ultrasound imaging with variable line density
US10191220B2 (en) 2012-12-21 2019-01-29 Volcano Corporation Power-efficient optical circuit
US10219780B2 (en) 2007-07-12 2019-03-05 Volcano Corporation OCT-IVUS catheter for concurrent luminal imaging
US10219887B2 (en) 2013-03-14 2019-03-05 Volcano Corporation Filters with echogenic characteristics
US10226597B2 (en) 2013-03-07 2019-03-12 Volcano Corporation Guidewire with centering mechanism
JP2019040490A (en) * 2017-08-28 2019-03-14 株式会社ヒナタデザイン Display apparatus, display method, and display system
US10238367B2 (en) 2012-12-13 2019-03-26 Volcano Corporation Devices, systems, and methods for targeted cannulation
US10292677B2 (en) 2013-03-14 2019-05-21 Volcano Corporation Endoluminal filter having enhanced echogenic properties
US10332228B2 (en) 2012-12-21 2019-06-25 Volcano Corporation System and method for graphical processing of medical data
US10413317B2 (en) 2012-12-21 2019-09-17 Volcano Corporation System and method for catheter steering and operation
US10420530B2 (en) 2012-12-21 2019-09-24 Volcano Corporation System and method for multipath processing of image signals
US10426590B2 (en) 2013-03-14 2019-10-01 Volcano Corporation Filters with echogenic characteristics
JP2020009076A (en) * 2018-07-05 2020-01-16 凸版印刷株式会社 Object arrangement support system, object arrangement support method, and program
US10568586B2 (en) 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
US10595820B2 (en) 2012-12-20 2020-03-24 Philips Image Guided Therapy Corporation Smooth transition catheters
US10638939B2 (en) 2013-03-12 2020-05-05 Philips Image Guided Therapy Corporation Systems and methods for diagnosing coronary microvascular disease
US10724082B2 (en) 2012-10-22 2020-07-28 Bio-Rad Laboratories, Inc. Methods for analyzing DNA
US10758207B2 (en) 2013-03-13 2020-09-01 Philips Image Guided Therapy Corporation Systems and methods for producing an image from a rotational intravascular ultrasound device
US10942022B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Manual calibration of imaging system
US10939826B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Aspirating and removing biological material
US10993694B2 (en) 2012-12-21 2021-05-04 Philips Image Guided Therapy Corporation Rotational ultrasound imaging catheter with extended catheter body telescope
US11026591B2 (en) 2013-03-13 2021-06-08 Philips Image Guided Therapy Corporation Intravascular pressure sensor calibration
US11040140B2 (en) 2010-12-31 2021-06-22 Philips Image Guided Therapy Corporation Deep vein thrombosis therapeutic methods
US11141063B2 (en) 2010-12-23 2021-10-12 Philips Image Guided Therapy Corporation Integrated system architectures and methods of use
US11154313B2 (en) 2013-03-12 2021-10-26 The Volcano Corporation Vibrating guidewire torquer and methods of use
US11272845B2 (en) 2012-10-05 2022-03-15 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
US11406498B2 (en) 2012-12-20 2022-08-09 Philips Image Guided Therapy Corporation Implant delivery system and implants

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6020446B2 (en) 2011-04-20 2016-11-02 日本電気株式会社 Image display system, image display apparatus, image display method, and program
EP3046080A3 (en) 2015-01-14 2016-11-30 Ricoh Company, Ltd. Information processing apparatus, information processing method, and computer-readable recording medium
JP6582847B2 (en) 2015-10-07 2019-10-02 株式会社リコー Information processing apparatus, information processing method, and program
CN109586998B (en) * 2018-11-09 2021-06-04 珠海格力电器股份有限公司 Method for indicating running state of equipment, cloud end and equipment

Cited By (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107968A (en) * 2003-09-30 2005-04-21 Canon Inc Image display device and method, and information processing method
WO2006025137A1 (en) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. Image processor, game machine, and image processing method
US7991220B2 (en) * 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
JP2006127468A (en) * 2004-09-28 2006-05-18 Canon Inc Information processing method and apparatus
JP4689380B2 (en) * 2004-09-28 2011-05-25 キヤノン株式会社 Information processing method and apparatus
US8066195B2 (en) 2004-10-15 2011-11-29 Sony Computer Entertainment Inc. Object, image data, image data transmission method, card, game mat, card game system, image analysis apparatus, and image analysis method
WO2006041149A1 (en) * 2004-10-15 2006-04-20 Sony Computer Entertainment Inc. Object, image data, image data transmission method, card, game mat, card game system, image analysis device, and image analysis method
US7661601B2 (en) 2004-10-15 2010-02-16 Sony Computer Entertainment Inc. Object, image data, image data transmission method, card, game mat, card game system, image analysis device, and image analysis method
WO2006109829A1 (en) * 2005-04-12 2006-10-19 Pioneer Corporation Communication system, communication device and method, and computer program
JP2007058296A (en) * 2005-08-22 2007-03-08 Fujifilm Holdings Corp Information providing system
JP2007206807A (en) * 2006-01-31 2007-08-16 Nippon Hoso Kyokai <Nhk> Image composing device and image composing program
JP2007219082A (en) * 2006-02-15 2007-08-30 Canon Inc Composite reality feeling display system
US8345952B2 (en) 2006-04-14 2013-01-01 Canon Kabushiki Kaisha Image processing system, image processing apparatus, image sensing apparatus, and control method thereof
JP2007286851A (en) * 2006-04-14 2007-11-01 Canon Inc Image processing system, image processor, imaging device, and control method thereof
US9867530B2 (en) 2006-08-14 2018-01-16 Volcano Corporation Telescopic side port catheter device with imaging system and method for accessing side branch occlusions
JP2010515189A (en) * 2007-01-05 2010-05-06 トタル イメルシオン Method and apparatus for inserting virtual objects in real time into an image stream using data from a real scene represented by an image
US9596993B2 (en) 2007-07-12 2017-03-21 Volcano Corporation Automatic calibration systems and methods of use
US10219780B2 (en) 2007-07-12 2019-03-05 Volcano Corporation OCT-IVUS catheter for concurrent luminal imaging
US9622706B2 (en) 2007-07-12 2017-04-18 Volcano Corporation Catheter for in vivo imaging
US11350906B2 (en) 2007-07-12 2022-06-07 Philips Image Guided Therapy Corporation OCT-IVUS catheter for concurrent luminal imaging
JP2010541054A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
US10043315B2 (en) 2007-09-25 2018-08-07 Apple Inc. Method and apparatus for representing a virtual object in a real environment
US9165405B2 (en) 2007-09-25 2015-10-20 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
JP2012226766A (en) * 2007-09-25 2012-11-15 Metaio Gmbh Method and device for drawing virtual object in real environment
US11080932B2 (en) 2007-09-25 2021-08-03 Apple Inc. Method and apparatus for representing a virtual object in a real environment
US10665025B2 (en) 2007-09-25 2020-05-26 Apple Inc. Method and apparatus for representing a virtual object in a real environment
JP2014238883A (en) * 2007-09-25 2014-12-18 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and device for drawing virtual object in real environment
US10366538B2 (en) 2007-09-25 2019-07-30 Apple Inc. Method and device for illustrating a virtual object in a real environment
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
JP2009087176A (en) * 2007-10-02 2009-04-23 Casio Comput Co Ltd Object generation system, object generation device, and object generation program
JP2010540973A (en) * 2007-10-05 2010-12-24 ヴォルカノ コーポレイション Real-time spectral domain optical coherence tomography using distributed acquisition and processing
JP2009150883A (en) * 2007-12-18 2009-07-09 General Electric Co <Ge> System and method of extension reality inspection and data visualization
JP2009271822A (en) * 2008-05-09 2009-11-19 Dainippon Printing Co Ltd Interior furniture purchase support system, method, program, and medium
JP2010045621A (en) * 2008-08-13 2010-02-25 Casio Comput Co Ltd Imaging apparatus
JP2010157035A (en) * 2008-12-26 2010-07-15 Ritsumeikan System, method, and program for displaying composite image
JP2010157034A (en) * 2008-12-26 2010-07-15 Ritsumeikan System, method, and program for displaying composite image
JP2010170316A (en) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd Apparatus, method and program for displaying augmented reality
JP2010179403A (en) * 2009-02-05 2010-08-19 Denso Wave Inc Robot simulation image display system
JP2010257359A (en) * 2009-04-28 2010-11-11 Sony Corp Information processing device, information processing method and program
US9772683B2 (en) 2009-04-28 2017-09-26 Sony Corporation Information processing apparatus to process observable virtual objects
JP2011095964A (en) * 2009-10-29 2011-05-12 Toppan Printing Co Ltd Portable terminal, method, and program
WO2011065680A2 (en) * 2009-11-25 2011-06-03 Lg Electronics Inc. Managing multimedia contents using general objects
WO2011065680A3 (en) * 2009-11-25 2011-10-20 Lg Electronics Inc. Managing multimedia contents using general objects
US9390503B2 (en) 2010-03-08 2016-07-12 Empire Technology Development Llc Broadband passive tracking for augmented reality
JP2013515275A (en) * 2010-03-08 2013-05-02 エンパイア テクノロジー ディベロップメント エルエルシー Broadband passive tracking for augmented reality
US8610771B2 (en) 2010-03-08 2013-12-17 Empire Technology Development Llc Broadband passive tracking for augmented reality
JP2011198150A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Head-mounted augmented reality video presentation device and virtual display object operation method
JP2011242934A (en) * 2010-05-17 2011-12-01 Ntt Docomo Inc Object display device, object display system and object display method
KR101330811B1 (en) 2010-08-25 2013-11-18 주식회사 팬택 Apparatus and Method for augmented reality using instant marker
EP2434458A2 (en) 2010-09-27 2012-03-28 Nintendo Co., Ltd. Image processing program, apparatus, system, and method for mixed reality
US8698902B2 (en) 2010-09-27 2014-04-15 Nintendo Co., Ltd. Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
US11141063B2 (en) 2010-12-23 2021-10-12 Philips Image Guided Therapy Corporation Integrated system architectures and methods of use
US11040140B2 (en) 2010-12-31 2021-06-22 Philips Image Guided Therapy Corporation Deep vein thrombosis therapeutic methods
JP2012202876A (en) * 2011-03-25 2012-10-22 Fuji Xerox Co Ltd Recognition object, object recognition apparatus and program, and object recognition system
US20140240652A1 (en) * 2011-03-29 2014-08-28 Sharp Kabushiki Kaisha See-through display device, and electrical device and furniture piece each of which is provided with see-through display device
JP2013024586A (en) * 2011-07-15 2013-02-04 Univ Of Yamanashi Monospectral marker, method and device for detecting the same
US9360630B2 (en) 2011-08-31 2016-06-07 Volcano Corporation Optical-electrical rotary joint and methods of use
US10068382B2 (en) 2011-10-27 2018-09-04 Sony Corporation Image processing apparatus, image processing method, and program
WO2013061504A1 (en) * 2011-10-27 2013-05-02 Sony Corporation Image processing apparatus, image processing method, and program
US9626806B2 (en) 2011-10-27 2017-04-18 Sony Corporation Image processing apparatus, image processing method, and program
US10902682B2 (en) 2011-10-27 2021-01-26 Sony Corporation Image processing apparatus, image processing method, and program
US9292974B2 (en) 2011-10-27 2016-03-22 Sony Corporation Image processing apparatus, image processing method, and program
US10453266B2 (en) 2011-10-27 2019-10-22 Sony Corporation Image processing apparatus, image processing method, and program
US11468647B2 (en) 2011-10-27 2022-10-11 Sony Corporation Image processing apparatus, image processing method, and program
US9704297B2 (en) 2011-10-27 2017-07-11 Sony Corporation Image processing apparatus, image processing method, and program
US11941766B2 (en) 2011-10-27 2024-03-26 Sony Group Corporation Image processing apparatus, image processing method, and program
WO2013069196A1 (en) 2011-11-11 2013-05-16 Sony Corporation Information processing device, information processing method, and program
US9928626B2 (en) 2011-11-11 2018-03-27 Sony Corporation Apparatus, method, and program for changing augmented-reality display in accordance with changed positional relationship between apparatus and object
US9497389B2 (en) 2011-11-11 2016-11-15 Sony Corporation Information processing device, information processing method, and program for reduction of noise effects on a reference point
WO2013069189A1 (en) 2011-11-11 2013-05-16 Sony Corporation Information processing apparatus, information processing method, and program
US10614605B2 (en) 2011-11-11 2020-04-07 Sony Corporation Information processing apparatus, information processing method, and program for displaying a virtual object on a display
JP2013105329A (en) * 2011-11-14 2013-05-30 Konica Minolta Business Technologies Inc Simulation method, simulation device and control program for simulation device
JP2013105328A (en) * 2011-11-14 2013-05-30 Konica Minolta Business Technologies Inc Simulation method, simulation device and control program for simulation device
JP2013130919A (en) * 2011-12-20 2013-07-04 Casio Comput Co Ltd Information processing device, information processing method, and program
US9984468B2 (en) 2012-03-26 2018-05-29 Sony Corporation Information processing device and method for recognising an image
WO2013145883A1 (en) 2012-03-26 2013-10-03 ソニー株式会社 Information processing device, information processing method and program
WO2013145673A1 (en) 2012-03-26 2013-10-03 Sony Corporation Information processing apparatus, information processing method, and program
WO2013145566A1 (en) 2012-03-26 2013-10-03 Sony Corporation Information processing apparatus, information processing method, and program
JP2014056450A (en) * 2012-09-13 2014-03-27 Casio Comput Co Ltd Image processing device and program
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
WO2014050957A1 (en) * 2012-09-27 2014-04-03 京セラ株式会社 Display device, control method, and control program
JP2014071520A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control method and control program
JP2014072570A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
US11272845B2 (en) 2012-10-05 2022-03-15 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
US9324141B2 (en) 2012-10-05 2016-04-26 Volcano Corporation Removal of A-scan streaking artifact
US11864870B2 (en) 2012-10-05 2024-01-09 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
US11510632B2 (en) 2012-10-05 2022-11-29 Philips Image Guided Therapy Corporation Systems for indicating parameters in an imaging data set and methods of use
US9292918B2 (en) 2012-10-05 2016-03-22 Volcano Corporation Methods and systems for transforming luminal images
US10568586B2 (en) 2012-10-05 2020-02-25 Volcano Corporation Systems for indicating parameters in an imaging data set and methods of use
US9858668B2 (en) 2012-10-05 2018-01-02 Volcano Corporation Guidewire artifact removal in images
US9478940B2 (en) 2012-10-05 2016-10-25 Volcano Corporation Systems and methods for amplifying light
US11890117B2 (en) 2012-10-05 2024-02-06 Philips Image Guided Therapy Corporation Systems for indicating parameters in an imaging data set and methods of use
US9307926B2 (en) 2012-10-05 2016-04-12 Volcano Corporation Automatic stent detection
US9286673B2 (en) 2012-10-05 2016-03-15 Volcano Corporation Systems for correcting distortions in a medical image and methods of use thereof
US10070827B2 (en) 2012-10-05 2018-09-11 Volcano Corporation Automatic image playback
US9367965B2 (en) 2012-10-05 2016-06-14 Volcano Corporation Systems and methods for generating images of tissue
US10724082B2 (en) 2012-10-22 2020-07-28 Bio-Rad Laboratories, Inc. Methods for analyzing DNA
US10238367B2 (en) 2012-12-13 2019-03-26 Volcano Corporation Devices, systems, and methods for targeted cannulation
US11892289B2 (en) 2012-12-20 2024-02-06 Philips Image Guided Therapy Corporation Manual calibration of imaging system
US10939826B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Aspirating and removing biological material
US10942022B2 (en) 2012-12-20 2021-03-09 Philips Image Guided Therapy Corporation Manual calibration of imaging system
US9730613B2 (en) 2012-12-20 2017-08-15 Volcano Corporation Locating intravascular images
US11141131B2 (en) 2012-12-20 2021-10-12 Philips Image Guided Therapy Corporation Smooth transition catheters
US10595820B2 (en) 2012-12-20 2020-03-24 Philips Image Guided Therapy Corporation Smooth transition catheters
US11406498B2 (en) 2012-12-20 2022-08-09 Philips Image Guided Therapy Corporation Implant delivery system and implants
US9709379B2 (en) 2012-12-20 2017-07-18 Volcano Corporation Optical coherence tomography system that is reconfigurable between different imaging modes
US10420530B2 (en) 2012-12-21 2019-09-24 Volcano Corporation System and method for multipath processing of image signals
US10058284B2 (en) 2012-12-21 2018-08-28 Volcano Corporation Simultaneous imaging, monitoring, and therapy
US10413317B2 (en) 2012-12-21 2019-09-17 Volcano Corporation System and method for catheter steering and operation
US9612105B2 (en) 2012-12-21 2017-04-04 Volcano Corporation Polarization sensitive optical coherence tomography system
US9486143B2 (en) 2012-12-21 2016-11-08 Volcano Corporation Intravascular forward imaging device
US10332228B2 (en) 2012-12-21 2019-06-25 Volcano Corporation System and method for graphical processing of medical data
US10166003B2 (en) 2012-12-21 2019-01-01 Volcano Corporation Ultrasound imaging with variable line density
US11253225B2 (en) 2012-12-21 2022-02-22 Philips Image Guided Therapy Corporation System and method for multipath processing of image signals
US10191220B2 (en) 2012-12-21 2019-01-29 Volcano Corporation Power-efficient optical circuit
US11786213B2 (en) 2012-12-21 2023-10-17 Philips Image Guided Therapy Corporation System and method for multipath processing of image signals
US10993694B2 (en) 2012-12-21 2021-05-04 Philips Image Guided Therapy Corporation Rotational ultrasound imaging catheter with extended catheter body telescope
US9383263B2 (en) 2012-12-21 2016-07-05 Volcano Corporation Systems and methods for narrowing a wavelength emission of light
KR101348680B1 (en) * 2013-01-09 2014-01-09 국방과학연구소 Target acquisition method for video tracker, and target acquisition apparatus using the same
US10226597B2 (en) 2013-03-07 2019-03-12 Volcano Corporation Guidewire with centering mechanism
US9770172B2 (en) 2013-03-07 2017-09-26 Volcano Corporation Multimodal segmentation in intravascular images
US10638939B2 (en) 2013-03-12 2020-05-05 Philips Image Guided Therapy Corporation Systems and methods for diagnosing coronary microvascular disease
US11154313B2 (en) 2013-03-12 2021-10-26 The Volcano Corporation Vibrating guidewire torquer and methods of use
US9301687B2 (en) 2013-03-13 2016-04-05 Volcano Corporation System and method for OCT depth calibration
US11026591B2 (en) 2013-03-13 2021-06-08 Philips Image Guided Therapy Corporation Intravascular pressure sensor calibration
US10758207B2 (en) 2013-03-13 2020-09-01 Philips Image Guided Therapy Corporation Systems and methods for producing an image from a rotational intravascular ultrasound device
US10219887B2 (en) 2013-03-14 2019-03-05 Volcano Corporation Filters with echogenic characteristics
US10292677B2 (en) 2013-03-14 2019-05-21 Volcano Corporation Endoluminal filter having enhanced echogenic properties
US10426590B2 (en) 2013-03-14 2019-10-01 Volcano Corporation Filters with echogenic characteristics
JP2016531276A (en) * 2013-06-13 2016-10-06 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting the orientation of at least one object
KR101539087B1 (en) * 2013-08-22 2015-07-29 김정한 Augmented reality device using mobile device and method of implementing augmented reality
US9508174B2 (en) 2014-02-03 2016-11-29 Brother Kogyo Kabushiki Kaisha Display device and non-transitory storage medium storing instructions executable by the display device
JP2015154854A (en) * 2014-02-20 2015-08-27 株式会社三洋物産 Game machine
JP2015179392A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 Code symbol display device, information processor, and program
JP2016038796A (en) * 2014-08-08 2016-03-22 東芝テック株式会社 Information processor and program
JP2016149022A (en) * 2015-02-12 2016-08-18 株式会社キヌガワ京都 Sales support program and sales support device
JP2017171495A (en) * 2016-03-25 2017-09-28 東芝エレベータ株式会社 Hoist-way shape information generation device for elevator and marker member used for the same
JP6105117B1 (en) * 2016-03-25 2017-03-29 東芝エレベータ株式会社 Elevator hoistway shape information generating apparatus and marker member used therefor
WO2017215308A1 (en) * 2016-06-14 2017-12-21 珠海格力电器股份有限公司 Method, device and system for controlling electrical appliance
JP7041868B2 (en) 2017-08-28 2022-03-25 株式会社ヒナタデザイン Display device, display method and display system
JP2019040490A (en) * 2017-08-28 2019-03-14 株式会社ヒナタデザイン Display apparatus, display method, and display system
JP7275484B2 (en) 2018-07-05 2023-05-18 凸版印刷株式会社 Object Placement Support System, Object Placement Support Method and Program
JP2020009076A (en) * 2018-07-05 2020-01-16 凸版印刷株式会社 Object arrangement support system, object arrangement support method, and program

Also Published As

Publication number Publication date
JP4032776B2 (en) 2008-01-16

Similar Documents

Publication Publication Date Title
JP4032776B2 (en) Mixed reality display apparatus and method, storage medium, and computer program
Rohs Real-world interaction with camera phones
US20180336734A1 (en) Augmented Reality System, Method, and Apparatus for Displaying an Item Image in a Contextual Environment
Rekimoto Matrix: A realtime object identification and registration method for augmented reality
CN102792338B (en) Messaging device and information processing method
KR101636027B1 (en) Methods and systems for capturing and moving 3d models and true-scale metadata of real world objects
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
JP6674192B2 (en) Image processing apparatus and image processing method
CN111638796A (en) Virtual object display method and device, computer equipment and storage medium
JP2003254716A (en) Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
JP2022505998A (en) Augmented reality data presentation methods, devices, electronic devices and storage media
CN101213507A (en) Control device for information display, corresponding system, method and program product
CN111737547A (en) Merchant information acquisition system, method, device, equipment and storage medium
US9875546B1 (en) Computer vision techniques for generating and comparing three-dimensional point clouds
TW201243387A (en) Color channels and optical markers
CN109741462A (en) Showpiece based on AR leads reward device, method and storage medium
JP2009271822A (en) Interior furniture purchase support system, method, program, and medium
WO2019214641A1 (en) Optical tag based information apparatus interaction method and system
KR20120050714A (en) Augmented reality system and method of a printed matter and video
CN111309212A (en) Split-screen comparison fitting method, device, equipment and storage medium
CN113867875A (en) Method, device, equipment and storage medium for editing and displaying marked object
Shao et al. Marble: Mobile augmented reality using a distributed ble beacon infrastructure
JP4288904B2 (en) Data communication system, data transmission apparatus and method, and data reception apparatus and method
Abbas et al. Augmented reality-based real-time accurate artifact management system for museums

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees