JP2015087909A - Information processing system, information processing device, information processing server, information processing method and program - Google Patents
Information processing system, information processing device, information processing server, information processing method and program Download PDFInfo
- Publication number
- JP2015087909A JP2015087909A JP2013225224A JP2013225224A JP2015087909A JP 2015087909 A JP2015087909 A JP 2015087909A JP 2013225224 A JP2013225224 A JP 2013225224A JP 2013225224 A JP2013225224 A JP 2013225224A JP 2015087909 A JP2015087909 A JP 2015087909A
- Authority
- JP
- Japan
- Prior art keywords
- information
- display
- digital image
- user
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラムに関する。詳細には、拡張現実(Augmented Reality)表示技術を用いてモバイル表示装置などにおいて合成表示を行う情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing system, an information processing apparatus, an information processing server, an information processing method, and a program. Specifically, the present invention relates to an information processing system, an information processing apparatus, an information processing server, an information processing method, and a program that perform composite display on a mobile display device or the like using augmented reality display technology.
あるコンテンツをARコンテンツとして表示する際に、あたかもそれが現実世界に存在しているかのように見えるように、AR閲覧者の位置とARコンテンツを表示する位置の位置関係から、コンテンツの見え方を算出し、ARコンテンツを表示する技術がある。このようなARコンテンツとして、例えば文書を表示した場合、あたかもそこにホワイトボードが存在するかのように見せることが可能である。このようなARコンテンツを複数名で閲覧するユースケースに於いて、誰かがホワイトボードに書かれた内容を他の者に指し示すのと同様に、AR閲覧者がARコンテンツを他のAR閲覧者に指などで指し示すことが考えられる。しかし、その際に、ARコンテンツよりも手前に見えて欲しいAR閲覧者が、表示されたARコンテンツに隠されてしまうオクルージョンの問題が発生する。 When displaying a certain content as AR content, the way the content is viewed from the positional relationship between the position of the AR viewer and the position where the AR content is displayed so that it appears as if it exists in the real world. There is a technique for calculating and displaying AR content. As such AR content, for example, when a document is displayed, it is possible to make it appear as if there is a whiteboard. In such a use case where the AR content is viewed by multiple people, the AR viewer makes the AR content available to other AR viewers in the same way that someone points to the content written on the whiteboard. It is possible to point with a finger. However, at this time, there arises an occlusion problem that an AR viewer who wants to be seen in front of the AR content is hidden in the displayed AR content.
この問題に対し、AR閲覧者の視点位置と現実世界の物体の位置とに基づいて、ARコンテンツの合成制御を変更することで、現実世界の物体とARコンテンツとの間で発生するオクルージョン問題を解決するものがある(例えば、特許文献1)。また、ARコンテンツが現実世界の物体を隠している場合に、隠しているARコンテンツを透明化して表示することで、現実世界の物体とARコンテンツとの間で発生するオクルージョン問題を解決するものがある(例えば、特許文献2)。 In response to this problem, the occlusion problem that occurs between the real world object and the AR content can be reduced by changing the composition control of the AR content based on the viewpoint position of the AR viewer and the position of the real world object. There is a solution (for example, Patent Document 1). In addition, when AR content hides an object in the real world, it is possible to solve the occlusion problem that occurs between the object in the real world and the AR content by making the hidden AR content transparent. There is (for example, Patent Document 2).
主にセキュリティ面から、あるARコンテンツ(AR−X)を閲覧する権利を有する閲覧者(AR−X閲覧者)には該ARコンテンツXが見えるが、他の人(AR−X非閲覧者)には該ARコンテンツXが見えないように、AR表示を制御することが考えられる。その際、AR−X非閲覧者が、AR−X閲覧者には見えているARコンテンツの表示に気付かずに、該AR−X閲覧者と該ARコンテンツが表示されている場所の間に割り込んでしまい、該AR−X閲覧者の視界を妨げる場合がある。 Mainly from the security aspect, a viewer who has a right to view a certain AR content (AR-X) (AR-X viewer) can see the AR content X, but other people (AR-X non-viewers) It is conceivable to control the AR display so that the AR content X is not visible to the user. At that time, the AR-X non-browser does not notice the display of the AR content visible to the AR-X viewer, and interrupts between the AR-X viewer and the place where the AR content is displayed. Therefore, the AR-X viewer's field of view may be obstructed.
このような課題を解決するために、AR−X閲覧者とARコンテンツの間に割り込んだ人がAR−X閲覧者であれば該AR−X閲覧者が表示され、AR−X非閲覧者であれば表示されないようにしたいが、このような表示の制御は、従来技術では実現できなかった。 In order to solve such a problem, if the person who interrupted between the AR-X viewer and the AR content is an AR-X viewer, the AR-X viewer is displayed, and the AR-X non-viewer is displayed. Although it is desired to prevent display if there is, such control of display cannot be realized by the conventional technology.
本発明に係る情報処理システムは、現実空間及びデジタル画像情報を表示画面に表示して該表示画面において拡張現実空間を提示する表示装置を備える情報処理システムであって、前記現実空間における前記表示装置の存在位置を示す第1の情報を取得する第1の取得手段、前記表示装置を装着するユーザが前記デジタル画像情報を閲覧可能に設定されているか否かを示す第2の情報を取得する第2の取得手段、前記拡張現実空間における前記デジタル画像情報の表示のための位置及び大きさを示す第3の情報を取得する第3の取得手段、前記第1乃至第3の情報に基づき、前記ユーザごとに、前記表示のための位置に対応する前記現実空間における位置と前記存在位置との間に存在する、前記デジタル画像情報を閲覧可能に設定された閲覧ユーザ及び設定されていない非閲覧ユーザを判定する判定手段、並びに、前記閲覧ユーザの前記拡張現実空間における表示と重なる領域の画像を消去した前記デジタル画像情報及び前記現実空間を前記表示画面に表示することで、前記拡張現実空間において前記閲覧ユーザが前記デジタル画像情報より手前に位置し且つ前記非閲覧ユーザが前記デジタル画像情報より奥に位置するように、前記表示画面における表示を制御する制御手段、を備えることを特徴とする。 An information processing system according to the present invention is an information processing system including a display device that displays real space and digital image information on a display screen and presents an augmented reality space on the display screen, and the display device in the real space First acquisition means for acquiring first information indicating the presence position of the display device; second information for acquiring whether or not a user wearing the display device is set to be able to view the digital image information; 2 acquisition means, third acquisition means for acquiring third information indicating the position and size for display of the digital image information in the augmented reality space, based on the first to third information, Browsing that is set to allow browsing of the digital image information that exists between the position in the real space corresponding to the position for display and the presence position for each user A determination means for determining a user and a non-browsing user who is not set, and displaying the digital image information and the real space in which the image of the region overlapping the display in the augmented reality space of the browsing user is displayed on the display screen Thus, in the augmented reality space, control means for controlling display on the display screen so that the browsing user is positioned in front of the digital image information and the non-viewing user is positioned in the back of the digital image information. It is characterized by providing.
デジタル画像情報と現実空間におけるユーザのオクルージョン問題に関し、見えるべき閲覧ユーザは表示画面に表示され、見える必要のない非閲覧ユーザは表示画面に表示されない制御動作を実現できる。 Regarding the digital image information and the occlusion problem of the user in the real space, it is possible to realize a control operation in which a viewing user who should be seen is displayed on the display screen and a non-viewing user who does not need to see is not displayed on the display screen.
以下、本発明を実施するための形態について図面を用いて説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<ヘッドマウントディスプレイ(HMD)>
図1は本実施形態で用いるHMD100のハードウェア構成を示すブロック図である。HMD100は、透過型ディスプレイ101、カメラ102、コントローラ120を有する。ディスプレイ101は表示画面を有し、現実空間すなわち現実世界及びデジタル画像情報を表示画面に表示して、これにより、表示画面において拡張現実空間が実現される。
<Head-mounted display (HMD)>
FIG. 1 is a block diagram showing a hardware configuration of the HMD 100 used in the present embodiment. The HMD 100 includes a transmissive display 101, a camera 102, and a controller 120. The display 101 has a display screen, and displays the real space, that is, the real world and digital image information on the display screen, thereby realizing an augmented reality space on the display screen.
図2は、上記構成を備えるHMD100をユーザ200が装着する様子を示す図である。HMD100は市販されているものと同様のものであり、フレーム130によりユーザ200の頭部に装着するようになっている。透過型ディスプレイ101は片目で見る構造でも、両目で見る構造でもよい。HMD100が有するカメラ102は、ユーザ200の目に近い視点で撮像することができる。ユーザは透過型ディスプレイ101の表示画面に表示されたデジタル画像情報と透過型ディスプレイ101の先にある実像を同時に見ることが出来る。 FIG. 2 is a diagram illustrating a state in which the user 200 wears the HMD 100 having the above configuration. The HMD 100 is similar to a commercially available one, and is attached to the user's 200 head by a frame 130. The transmissive display 101 may be viewed with one eye or viewed with both eyes. The camera 102 included in the HMD 100 can capture images from a viewpoint close to the eyes of the user 200. The user can simultaneously view the digital image information displayed on the display screen of the transmissive display 101 and the real image ahead of the transmissive display 101.
図1に戻って、コントローラ120の構成について詳細に説明する。 Returning to FIG. 1, the configuration of the controller 120 will be described in detail.
内部バス112は、メモリコントローラ107とI/Oコントローラ109の間で情報の伝達が出来るよう、電気信号を送受信する。メモリコントローラ107は、メインメモリ108に対するメモリアクセス全般を統括する。I/Oコントローラ109は、ROM110、LANポート103、透過型ディスプレイ101、MEMSセンサ111、内部バス112を介して接続している各構成要素との間で情報の送受信を行う。LANポート103は、図4に示すワイヤレスアクセスポイント400および/またはネットワーク900を介して接続されている処理サーバ300などの他の機器、I/Oコントローラ109との間で情報の送受信を行う。 The internal bus 112 transmits and receives electrical signals so that information can be transmitted between the memory controller 107 and the I / O controller 109. The memory controller 107 controls all memory accesses to the main memory 108. The I / O controller 109 transmits / receives information to / from each component connected via the ROM 110, the LAN port 103, the transmissive display 101, the MEMS sensor 111, and the internal bus 112. The LAN port 103 transmits / receives information to / from other devices such as the processing server 300 and the I / O controller 109 connected via the wireless access point 400 and / or the network 900 shown in FIG.
ROM110にはブートローダプログラム及びHMD制御プログラムが格納されている。メインメモリ108は揮発性メモリであり、また高速アクセスが可能であり、ROM110に記憶されている情報や一時的に使用する情報を格納する。HMD100の電源投入時には、CPU104がはじめにブートローダプログラムを読み出して実行し、次いでROM110に格納されているHMD制御プログラムを取り出してメインメモリ108に格納する。そして、CPU104がメインメモリ108に格納されたHMD制御プログラムを実行し、HMD100の有する各機能を実行する。また、CPU104がこのHMD制御プログラムを実行することで、処理サーバ300とのデータ通信や、該データ通信で取得したデータに基づく透過型ディスプレイ101への情報表示等のHMD100の行う処理が実行される。コントローラ120はその他の記憶デバイスを備えることができる。 The ROM 110 stores a boot loader program and an HMD control program. The main memory 108 is a volatile memory and can be accessed at high speed, and stores information stored in the ROM 110 and information used temporarily. When the HMD 100 is powered on, the CPU 104 first reads and executes the boot loader program, and then extracts the HMD control program stored in the ROM 110 and stores it in the main memory 108. Then, the CPU 104 executes the HMD control program stored in the main memory 108, and executes each function of the HMD 100. In addition, when the CPU 104 executes this HMD control program, processing performed by the HMD 100 such as data communication with the processing server 300 and information display on the transmissive display 101 based on data acquired by the data communication is executed. . The controller 120 can include other storage devices.
情報を表示するための透過型ディスプレイ101は、コントローラ120が備えるグラフィックコントローラ106によって制御される。HMD100は、ユーザに情報を提示する際には透過型ディスプレイ101に情報を表示する。カメラ102は撮影した撮像画像をデジタルデータに変換し出力する。カメラ102は、I/Oコントローラ109との情報の送受信を行う。コントローラ120が備えるMEMSセンサ111は、東西南北の方位と、三次元方向の傾き、加速度を計測することが可能であり、計測した情報をデジタル情報に変換する。MEMSセンサ111は、I/Oコントローラ109との間で情報の送受信を行う。MEMSセンサ111により、HMD100を装着しているユーザが、物理空間上でどの方向に顔を向けているのかが把握可能である。コントローラ120が備えるバッテリ105は、電力をHMD100全体に供給する。 The transmissive display 101 for displaying information is controlled by a graphic controller 106 included in the controller 120. The HMD 100 displays information on the transmissive display 101 when presenting information to the user. The camera 102 converts the captured image into digital data and outputs it. The camera 102 transmits / receives information to / from the I / O controller 109. The MEMS sensor 111 included in the controller 120 can measure the east, west, north, and south directions, the inclination in the three-dimensional direction, and acceleration, and converts the measured information into digital information. The MEMS sensor 111 transmits / receives information to / from the I / O controller 109. With the MEMS sensor 111, it is possible to grasp in which direction the user wearing the HMD 100 is facing in the physical space. A battery 105 provided in the controller 120 supplies power to the entire HMD 100.
<処理サーバ>
図3は本実施形態で用いる処理サーバ(情報処理サーバ)のハードウェア構成を示すブロック図である。処理サーバ300はコントローラ320、ディスプレイ301、キーボード302、マウス303を有する。
<Processing server>
FIG. 3 is a block diagram showing a hardware configuration of a processing server (information processing server) used in the present embodiment. The processing server 300 includes a controller 320, a display 301, a keyboard 302, and a mouse 303.
コントローラ320の構成について詳細に説明する。 The configuration of the controller 320 will be described in detail.
内部バス311は、メモリコントローラ307とI/Oコントローラ309の間で情報の伝達が出来るよう、電気信号を送受信する。 The internal bus 311 transmits and receives electrical signals so that information can be transmitted between the memory controller 307 and the I / O controller 309.
メモリコントローラ307は、メインメモリ308に対するメモリアクセス全般を統括する。I/Oコントローラ309は、HDD310、LANポート304、キーボード302、マウス303、内部バス311を介して接続している各構成要素との間で情報の送受信を行う。LANポート304は、ネットワーク900または図4に示すワイヤレスアクセスポイント400を介して接続されている他の機器、I/Oコントローラ309との情報の送受信を行う。 The memory controller 307 controls overall memory access to the main memory 308. The I / O controller 309 transmits / receives information to / from each component connected via the HDD 310, the LAN port 304, the keyboard 302, the mouse 303, and the internal bus 311. The LAN port 304 transmits / receives information to / from the I / O controller 309 and other devices connected via the network 900 or the wireless access point 400 shown in FIG.
HDD310にはブートローダプログラム及び処理サーバ制御プログラムが格納されている。メインメモリ308は揮発性メモリであり、また高速アクセスが可能であるので、HDD310に記憶されている情報や一時的に使用する情報を格納する。処理サーバ300の電源投入時には、CPU305がはじめにブートローダプログラムを読み出して実行し、次いでHDD310に格納されている処理サーバ制御プログラムを取り出してメインメモリ308に格納する。そして、CPU305がメインメモリ308に格納された処理サーバ制御プログラムを実行し、処理サーバの有する各機能を実行する。また、CPU305がこの処理サーバ制御プログラムを実行することで、ARコンテンツと該ARコンテンツを閲覧する人の間に割り込んだ人の抽出等の処理サーバが行う処理が実行される。該処理により得られたデータはネットワーク900を介してHMD100に送られる。 情報を表示するためのディスプレイ301は、コントローラ320が備えるグラフィックコントローラ306よって制御される。 The HDD 310 stores a boot loader program and a processing server control program. The main memory 308 is a volatile memory and can be accessed at high speed, and therefore stores information stored in the HDD 310 and information used temporarily. When the processing server 300 is powered on, the CPU 305 first reads and executes the boot loader program, and then extracts the processing server control program stored in the HDD 310 and stores it in the main memory 308. Then, the CPU 305 executes a processing server control program stored in the main memory 308 and executes each function of the processing server. In addition, when the CPU 305 executes this processing server control program, processing performed by the processing server, such as extraction of an AR content and a person who interrupts between the viewers of the AR content, is executed. Data obtained by the processing is sent to the HMD 100 via the network 900. A display 301 for displaying information is controlled by a graphic controller 306 provided in the controller 320.
処理サーバ300は、ユーザに情報を提示する際にはディスプレイ301に情報を表示し、ユーザは、キーボード302又はマウス303に対する操作を行うことで、処理サーバ300への情報入力が可能である。 The processing server 300 displays information on the display 301 when presenting information to the user, and the user can input information to the processing server 300 by operating the keyboard 302 or the mouse 303.
<システム構成>
図4は本実施形態のシステム構成を示す図である。本実施形態のシステムは、人が装着するHMD(Head Mounted Display)100を複数備え、ワイヤレスアクセスポイント400、処理サーバ300、ネットワーク900を有する。各HMD100とワイヤレスアクセスポイント400は無線で接続されており、処理サーバ300とワイヤレスアクセスポイント400はネットワーク900で接続されている。
<System configuration>
FIG. 4 is a diagram showing a system configuration of the present embodiment. The system of this embodiment includes a plurality of HMDs (Head Mounted Displays) 100 worn by a person, and includes a wireless access point 400, a processing server 300, and a network 900. Each HMD 100 and the wireless access point 400 are connected by radio, and the processing server 300 and the wireless access point 400 are connected by a network 900.
本システムでは、各ユーザの装着するHMD100に内蔵されているカメラ102による撮像画像とMEMSセンサによる方位、加速度、傾き情報が、ワイヤレスアクセスポイント400とネットワーク900を経由して処理サーバ300に逐一、送信される。処理サーバ300はこれらの情報を元に、各ユーザの現実空間における存在位置を推定する。カメラの撮像画像からの位置推定技術に関してはSLAM(Simultaneously Localization and Mapping)に代表される既存技術がある。また、MEMSセンサからの位置推定技術に関してはPDR(Pedestrian Dead Reckoning)に代表される既存技術がある。処理サーバ300の処理にこれらの技術を用い目ことで、各ユーザの存在位置情報とMEMSセンサの方位情報から、各ユーザのHMD100に内蔵されるカメラが撮像した人物がどのHMD100のユーザであるかを特定することが可能となる。HMD100に内蔵されるカメラ102の向きと透過型ディスプレイ101の向きが固定的に決まっていれば、あるHMD100のユーザの視野のどの向きにどのHMD100のユーザがいるかを特定することが可能となる。 In this system, images captured by the camera 102 built in the HMD 100 worn by each user and azimuth, acceleration, and tilt information from the MEMS sensor are transmitted to the processing server 300 via the wireless access point 400 and the network 900 one by one. Is done. Based on these pieces of information, the processing server 300 estimates each user's location in the real space. There are existing techniques represented by SLAM (Simultaneously Localization and Mapping) for position estimation techniques from captured images of cameras. In addition, regarding a position estimation technique from a MEMS sensor, there is an existing technique represented by PDR (Pedestrian Dead Reckoning). By using these technologies for the processing of the processing server 300, which HMD 100 user the person captured by the camera built into each user's HMD 100 is determined based on the location information of each user and the azimuth information of the MEMS sensor. Can be specified. If the orientation of the camera 102 incorporated in the HMD 100 and the orientation of the transmissive display 101 are fixedly determined, it is possible to specify which HMD 100 user is in which orientation in the field of view of a certain HMD 100 user.
以下の説明において、ARコンテンツとは、ディスプレイに表示するためにコンピュータにより作成された仮想オブジェクトである種々のデジタル画像情報のことを言う。ARコンテンツの例示として、2次元または3次元CG画像、文書作成アプリケーションによるドキュメント、PDFファイルなどが挙げられる。AR閲覧者または閲覧ユーザとは、あるARコンテンツを閲覧する権利を有し、HMD100上で該ARコンテンツの閲覧を許可され、閲覧可能な設定がされているHMD100のユーザを言う。AR非閲覧者または非閲覧ユーザとは、あるARコンテンツを閲覧する権利を有せず、HMD100上で該ARコンテンツの閲覧が禁止され、閲覧可能な設定がされていないHMD100のユーザを言う。参照AR閲覧者とは、HMD100のユーザであって、図示されるARコンテンツ、AR閲覧者、およびAR非閲覧者を見ることができるユーザを言う。 In the following description, AR content refers to various digital image information that is a virtual object created by a computer for display on a display. Examples of AR content include a two-dimensional or three-dimensional CG image, a document created by a document creation application, and a PDF file. The AR viewer or browsing user refers to a user of the HMD 100 who has a right to browse a certain AR content, is permitted to browse the AR content on the HMD 100, and is set to be viewable. The AR non-browser or non-browsing user refers to a user of the HMD 100 who does not have the right to browse certain AR content, is prohibited from browsing the AR content on the HMD 100, and is not set to be viewable. The reference AR viewer is a user of the HMD 100 who can see the AR content, the AR viewer, and the non-AR viewer shown in the figure.
(実施形態1)
本実施形態は、ARコンテンツとARコンテンツを参照しているAR閲覧者(閲覧ユーザ)Aの間にAR閲覧者BとAR非閲覧者(非閲覧ユーザ)Cがいる状況に対応して、HMD100が備える透過型ディスプレイ101の表示画面における表示の制御を行う。すなわち、参照AR閲覧者AにはAR閲覧者BがARコンテンツよりも手前に見え、AR非閲覧者CがARコンテンツに隠されて見えない制御を提供する。
(Embodiment 1)
In the present embodiment, the HMD 100 corresponds to a situation in which there is an AR viewer B and an AR non-browser (non-browsing user) C between the AR content and the AR viewer (browsing user) A referring to the AR content. The display on the display screen of the transmissive display 101 included in is controlled. That is, the reference AR viewer A is provided with a control in which the AR viewer B is seen in front of the AR content, and the AR non-viewer C is hidden by the AR content and cannot be seen.
図5は、本実施形態における人とARコンテンツの位置関係の例を示す平面図である。 FIG. 5 is a plan view showing an example of the positional relationship between a person and AR content in the present embodiment.
ARコンテンツ50には、予め設定された既知の表示の大きさがあり、具体的にはARコンテンツ50の幅はwtである。表示の大きさはユーザが予め設定し、例えば、60インチのディスプレイに相当するサイズ、80インチのディスプレイに相当するサイズなどに設定して保持することができる。ARコンテンツ50は、ARコンテンツ位置管理テーブル(図10に示す参照符号100で示す)で管理される位置情報の値で投影位置の中心(ARコンテンツ表示位置原点O)が決まり、ARコンテンツ位置管理テーブルで管理される向き情報で投影向きが決まる。参照AR閲覧者Aから表示位置原点Oまでの距離はdistorgである。表示の大きさは設定を行ったユーザが装着するHMD100の記憶デバイスに保持してもよいが、後述するARコンテンツ位置管理テーブル(図10)で、表示の大きさを管理してもよい。 The AR content 50 has a known display size set in advance, and specifically, the width of the AR content 50 is wt. The display size can be preset by the user, for example, set to a size corresponding to a 60-inch display, set to a size corresponding to an 80-inch display, and held. In the AR content 50, the center of the projection position (AR content display position origin O) is determined by the position information value managed in the AR content position management table (indicated by reference numeral 100 shown in FIG. 10), and the AR content position management table. The direction of projection is determined by the direction information managed by. The distance from the reference AR viewer A to the display position origin O is dist org . The display size may be held in the storage device of the HMD 100 worn by the user who has made the setting, but the display size may be managed by an AR content position management table (FIG. 10) described later.
説明を簡単にするために、参照AR閲覧者Aの位置を(0,0)、参照AR閲覧者Aから水平方向を基準として角度0の方向に表示位置原点Oがあるように座標空間を考える。 In order to simplify the description, the coordinate space is considered such that the position of the reference AR viewer A is (0, 0) and the display position origin O is in the direction of angle 0 with respect to the horizontal direction from the reference AR viewer A. .
参照AR閲覧者Aと表示位置原点Oを結ぶ線と、参照AR閲覧者AおよびAR非閲覧者Cを通る線の為す角度をαとする。AR非閲覧者Cが座標(xc,yc)にいるものとすると、αは次式の通りとなる。 An angle formed by a line connecting the reference AR viewer A and the display position origin O and a line passing through the reference AR viewer A and the non-AR viewer C is α. If the AR non-browser C is at the coordinates (x c , y c ), α is as follows:
参照AR閲覧者Aと表示位置原点Oを結ぶ線と、参照AR閲覧者AとARコンテンツの図中上端を結ぶ線の為す角度をβとすると、βは次式の通りとなる。 If an angle formed by a line connecting the reference AR viewer A and the display position origin O and a line connecting the reference AR viewer A and the upper end of the AR content in the figure is β, β is as follows.
参照AR閲覧者AとAR非閲覧者Cの間の距離distACは次式の通りとなる。 The distance dist AC between the reference AR viewer A and the non-AR viewer C is expressed by the following equation.
参照AR閲覧者Aと角度α方向のARコンテンツまでの距離distcontは次式の通りとなる。 The distance dist cont between the reference AR viewer A and the AR content in the angle α direction is expressed by the following equation.
以下の2つの条件、 The following two conditions:
が共に満足される場合、参照AR閲覧者AとARコンテンツ50の間にAR非閲覧者Cが割り込んでいると判断することができる。 If both are satisfied, it can be determined that the AR non-browser C is interrupted between the reference AR viewer A and the AR content 50.
上の説明から、座標(xc,yc)、表示幅wt、参照AR閲覧者AとARコンテンツ表示位置原点Oとの距離distorgの各値が解っていれば、ARコンテンツと参照AR閲覧者の間に他のAR閲覧者またはAR非閲覧者が割り込んだことを判定できる。 If the values of the coordinates (x c , y c ), the display width wt, and the distance dist org between the reference AR viewer A and the AR content display position origin O are known from the above description, the AR content and the reference AR browsing are known. It can be determined that another AR viewer or AR non-browser has interrupted the user.
図6は、本実施形態において参照AR閲覧者AがHMD100を通して見る映像を具体的に説明する図である。 FIG. 6 is a diagram for specifically explaining an image viewed by the reference AR viewer A through the HMD 100 in the present embodiment.
ARコンテンツより手前に人を表示させる従来の技術によれば、図中の(a)に示すように、AR閲覧者BだけでなくAR非閲覧者Cまで前面に見えていた。これにより、予期せぬ人により、参照AR閲覧者AがARコンテンツ50の閲覧を妨げられる問題が発生していた。この問題を解決するために、本実施形態では、図中の(b)のように、AR閲覧者BはARコンテンツより手前に見え、AR非閲覧者CはARコンテンツの背後に隠れて見えるように表示にする。しかし、この場合、参照AR閲覧者AがARコンテンツ50との間に割り込んだAR非閲覧者Cに気付かずに、例えば、参照AR閲覧者AがARコンテンツ50を手で指し示した際に、その手がAR非閲覧者Cに当たってしまうことがある。したがって、改良された形態において、図中の(c)のように、AR非閲覧者Cの存在する領域の輪郭に、人の輪郭線60をAR表示として付加するとより好ましい。これにより、参照AR閲覧者Aは、AR非閲覧者CによりARコンテンツ50の閲覧を妨げられることが無いことに加え、AR非閲覧者Cの存在に気づくことができ、参照AR閲覧者Aが非閲覧者Cにぶつかることを防止できる。AR非閲覧者Cの存在を示すための表示は輪郭線に限られることがなく、例えば、存在する領域についてARコンテンツ50の輝度を他の領域と異ならせること、濃淡を反転表示すること、存在する領域について輝度フリッカを与えることなどが考えられる。 According to the conventional technique for displaying a person in front of the AR content, not only the AR viewer B but also the AR non-viewer C can be seen in front as shown in FIG. As a result, there has been a problem that an unexpected person can prevent the reference AR viewer A from browsing the AR content 50. In order to solve this problem, in this embodiment, as shown in (b) in the figure, the AR viewer B appears to be in front of the AR content, and the AR non-viewer C appears to be hidden behind the AR content. To display. However, in this case, for example, when the reference AR viewer A points to the AR content 50 by hand without noticing the AR non-browser C that has interrupted the AR content 50, the reference AR viewer A A hand may hit AR non-browser C. Therefore, in the improved form, it is more preferable to add a human contour line 60 as an AR display to the contour of the region where the AR non-browser C exists as shown in FIG. Thereby, in addition to the AR non-browser C not being prevented from browsing the AR content 50, the reference AR viewer A can notice the presence of the AR non-browser C. It is possible to prevent hitting the non-browser C. The display for indicating the presence of the AR non-browser C is not limited to the contour line. For example, the brightness of the AR content 50 in the existing area is different from that in the other areas, the shade is highlighted, and the presence is present. It is conceivable to give luminance flicker to the area to be performed.
図7は、本実施形態によるユーザ位置登録処理における処理の流れを示すフローチャートである。この処理により、本情報処理システムは、現実世界(現実空間)をセンシングした情報を元に、現実空間中にいてHMD100を装着し使用しているユーザ位置を算出し、処理サーバ300が保持する。本情報処理システムは、常に最新の情報を保持しておくために、本処理を所定の周期で定期的に実行する。図4に示された各HMD100のCPU104がROM110に格納された制御プログラムを実行することで、本フローチャートの各処理ステップS701からS702が実施される。処理サーバ300のCPU305がHDD310に格納された制御プログラムを実行することで、本フローチャートの各処理ステップS703からS704が実施される。 FIG. 7 is a flowchart showing a process flow in the user location registration process according to the present embodiment. By this processing, the information processing system calculates the user position in the real space where the HMD 100 is worn and used based on the information sensed in the real world (real space), and the processing server 300 holds it. This information processing system periodically executes this processing at a predetermined cycle in order to always keep the latest information. The CPU 104 of each HMD 100 shown in FIG. 4 executes the control program stored in the ROM 110, whereby each processing step S701 to S702 of this flowchart is performed. When the CPU 305 of the processing server 300 executes the control program stored in the HDD 310, the processing steps S703 to S704 of this flowchart are performed.
S701で、HMD100が、内蔵するカメラ102が撮像した撮像画像を利用する方法、また、MEMSセンサ111が出力するセンサ信号を解析する方法により、自己位置の推定処理を行なう。ここで推定した自己位置が、HMD100が現実世界において存在する位置であり、該HMD100を装着したユーザの位置情報となる。 In step S <b> 701, the HMD 100 performs self-position estimation processing by using a captured image captured by the built-in camera 102 or analyzing a sensor signal output from the MEMS sensor 111. The self-position estimated here is a position where the HMD 100 is present in the real world, and is position information of the user wearing the HMD 100.
撮像画像を利用する自己位置推定には、例えば、非特許文献1のようなランドマークから自己位置を推定する方法と、マーカーを用いて自己位置を推定する方法がある。同文献は、ランドマークに自然特徴点を使う例である。例えばキヤノン(登録商標)株式会社のMR(Mixed Reality)システム(登録商標)は、室内に貼られたマーカーをランドマークとして用いる例である。 Self-position estimation using captured images includes, for example, a method for estimating a self-position from a landmark as in Non-Patent Document 1, and a method for estimating a self-position using a marker. This document is an example of using natural feature points for landmarks. For example, the MR (Mixed Reality) system (registered trademark) of Canon (registered trademark) is an example in which a marker affixed indoors is used as a landmark.
MEMSセンサ信号を利用する自己位置推定はロバスト性を高めることができる方法であって、撮像画像を利用する自己位置推定を行えない場合に用いると好適であり、PDR(pedestrian dead reckoning)と呼ばれる方法がある。例えば、非特許文献2のような加速度積分による自己位置推定方法を使用することができる。 Self-position estimation using a MEMS sensor signal is a method that can improve robustness, and is preferably used when self-position estimation using a captured image cannot be performed. A method called PDR (pedestrian dead reckoning) There is. For example, a self-position estimation method using acceleration integration as described in Non-Patent Document 2 can be used.
これとは別に、MEMSセンサ信号からの自己位置推定(PDR)で生じる誤差を、カメラの撮像画像からの自己位置推定結果で補正して最終的な自己位置を推定する方法を採用することもできる。この種の方法として、例えば、非特許文献3のようなものがある。 Apart from this, it is also possible to adopt a method of estimating the final self-position by correcting the error caused by self-position estimation (PDR) from the MEMS sensor signal with the self-position estimation result from the captured image of the camera. . As this type of method, for example, there is a method as described in Non-Patent Document 3.
なお、自己位置推定を非特許文献3の構成により実施する場合は、S701においてさらに、該構成により、HMD100が向いている方向を算出することもできる。この場合、図11に示すS1108の処理に替えることができる。 When the self-position estimation is performed with the configuration of Non-Patent Document 3, the direction in which the HMD 100 is facing can be further calculated with the configuration in S701. In this case, it can be replaced with the processing of S1108 shown in FIG.
S701で自己位置を推定するとS702に進み、HMD100がHMDユーザ情報と、推定したユーザ位置情報を処理サーバ300に送信し、HMD側の処理を終了する。 When the self-position is estimated in S701, the process proceeds to S702, where the HMD 100 transmits the HMD user information and the estimated user position information to the processing server 300, and the process on the HMD side is terminated.
S703で、処理サーバ300は、HMDユーザ情報とユーザ位置情報を各HMD100から受信し、S704に進む。 In S703, the processing server 300 receives the HMD user information and the user position information from each HMD 100, and proceeds to S704.
S704で、処理サーバ300は、各HMD100のユーザに紐づけて、個人属性情報管理テーブル(図8に参照符号80で示す)の位置情報を更新し、本処理を終了する。 In S704, the processing server 300 updates the position information of the personal attribute information management table (indicated by reference numeral 80 in FIG. 8) in association with the user of each HMD 100, and ends this processing.
図8は、本実施形態における、処理サーバ300がHDD310上に保持している個人属性情報管理テーブルの例を示す図である。 FIG. 8 is a diagram showing an example of the personal attribute information management table held on the HDD 310 by the processing server 300 in this embodiment.
個人属性情報管理テーブル80により、人(HMDのユーザ)が現実世界のどこにいるかを座標値として示す位置情報と、ユーザがどのARコンテンツの閲覧権を有しているかを示すAR閲覧者情報を、ユーザ名をキーとして管理する。現実空間における任意の既知の位置、例えば、HMDのユーザが存在するリビングルームまたはプレゼンテーション会場の隅の位置を、位置情報の原点として定めることができる。現実空間における座標軸としては、例えば、北方向をx軸方向、東方向をy軸方向、垂直方向をz軸方向として定める。 According to the personal attribute information management table 80, position information that indicates where a person (HMD user) is in the real world as a coordinate value and AR viewer information that indicates which AR content the user has the right to browse. Manage user names as keys. Any known position in the real space, for example, the position of the corner of the living room or presentation venue where the HMD user exists can be defined as the origin of the position information. As coordinate axes in the real space, for example, the north direction is defined as the x-axis direction, the east direction is defined as the y-axis direction, and the vertical direction is defined as the z-axis direction.
個人属性情報管理テーブル80から、例えばユーザAは座標(10,10,10)に居て、コンテンツXとコンテンツZの閲覧を許可されていることがわかる。AR閲覧者情報の設定は、ユーザまたはシステムの管理者が、予めPCなどの情報端末(不図示)から、ARコンテンツごとに行うことができる。システムが、その設定値を個人属性情報管理テーブル80に反映する処理(不図示)を行う。この様な設定を行うことに関しては、本出願人による特願2013−208150号明細書に詳しく記載されている。 From the personal attribute information management table 80, for example, it can be seen that the user A is at the coordinates (10, 10, 10) and is permitted to browse the content X and the content Z. The AR viewer information can be set for each AR content in advance by a user or system administrator from an information terminal (not shown) such as a PC. The system performs processing (not shown) for reflecting the setting value in the personal attribute information management table 80. Such setting is described in detail in Japanese Patent Application No. 2013-208150 by the present applicant.
図9は、本実施形態によるAR投影位置決定処理における処理の流れを示すフローチャートである。各HMD100のCPU104がROM110に格納された制御プログラムを実行することで本フローチャートのS901からS902の処理が実施される。HDD310に格納された制御プログラムをCPU305が実行することで本フローチャートのS903からS904の処理が実施される。 FIG. 9 is a flowchart showing a process flow in the AR projection position determination process according to the present embodiment. When the CPU 104 of each HMD 100 executes the control program stored in the ROM 110, the processing from S901 to S902 of this flowchart is performed. When the CPU 305 executes the control program stored in the HDD 310, the processing from S903 to S904 in this flowchart is performed.
この処理により、本情報処理システムは、ユーザからのARコンテンツ投影指示があったときに、ユーザから所定距離離間した位置をARコンテンツの表示位置に定め、処理サーバ300がARコンテンツ位置管理テーブル(図10)に保持する。 With this processing, when the AR content projection instruction from the user is given, the information processing system determines a position separated by a predetermined distance from the user as the AR content display position, and the processing server 300 performs the AR content position management table (FIG. 10).
S901で、HMD100が、ユーザからのコンテンツ投影指示を受ける。ユーザからの投影指示に関しては、例えば、ユーザのジェスチャー(手の動き)が含まれる、内蔵するカメラ102で撮影した映像を解析することにより認識することなどが考えられる。より具体的には、ユーザがめいめいに異なる色の指サックを指にはめ、ユーザを各色と対応付けて登録しておくことで、投影指示のためのジェスチャーをしたユーザを識別することができる(非特許文献4,5参照)。これとは別に、カメラ102をステレオ構成にした場合または赤外線を投射する構成にした場合には撮像画像における深度情報を得ることができ、深度情報に基づき、所定深度におけるジェスチャーを識別して投影指示を判別することができる(非特許文献6参照)。 In step S901, the HMD 100 receives a content projection instruction from the user. Regarding the projection instruction from the user, for example, it may be recognized by analyzing an image captured by the built-in camera 102 including the user's gesture (hand movement). More specifically, when a user frequently puts a finger sack of a different color on the finger and registers the user in association with each color, the user who made a gesture for projection instruction can be identified ( Non-patent documents 4 and 5). Separately, when the camera 102 is configured in a stereo configuration or configured to project infrared rays, depth information in the captured image can be obtained, and a gesture at a predetermined depth is identified based on the depth information and a projection instruction is given. Can be discriminated (see Non-Patent Document 6).
ユーザからのコンテンツ投影指示を受けるとS902に進み、HMD100が、HMDユーザ情報とAR投影位置決定処理指示を処理サーバ300に送信し、HMD側の処理を終了する。AR投影位置決定処理指示とは、ARコンテンツの投影位置を決めるためのS904に示す処理を処理サーバ300に行わせるためのコマンドである。 When the content projection instruction is received from the user, the process proceeds to S902, where the HMD 100 transmits the HMD user information and the AR projection position determination processing instruction to the processing server 300, and ends the processing on the HMD side. The AR projection position determination processing instruction is a command for causing the processing server 300 to perform the process shown in S904 for determining the projection position of the AR content.
S903で、処理サーバ300が、各HMD100からHMDユーザ情報とAR投影位置決定処理指示を受信し、S904に進む。 In S903, the processing server 300 receives the HMD user information and the AR projection position determination processing instruction from each HMD 100, and the process proceeds to S904.
S904で、処理サーバ300が、HMDユーザの存在位置から所定距離離れた場所をARコンテンツの表示位置に決定し、ARコンテンツ位置管理テーブル(図10)の位置情報を更新し、本処理を終了する。ARコンテンツ表示位置は、コンテンツ投影指示を出したユーザの位置情報を個人属性情報管理テーブル80から読み出し、予め設定されている所定距離を該位置情報に加算して算出する。 In S904, the processing server 300 determines a location that is a predetermined distance away from the location where the HMD user is present as the AR content display location, updates the location information in the AR content location management table (FIG. 10), and ends this processing. . The AR content display position is calculated by reading the position information of the user who issued the content projection instruction from the personal attribute information management table 80 and adding a predetermined distance set in advance to the position information.
図10は、本実施形態における、処理サーバ300がHDD310上に保持しているARコンテンツ位置管理テーブルの例を示す図である。 FIG. 10 is a diagram showing an example of the AR content location management table held in the HDD 310 by the processing server 300 in the present embodiment.
ARコンテンツ位置管理テーブル100により、ARコンテンツのコンテンツIDをキーとして、ARコンテンツが拡張現実空間のどの位置にどのような向きで表示されるかを現実空間における座標値で示す位置情報と表示向き情報を管理する。位置情報は、S904の処理結果に従い定期的に更新される。現実空間における任意の既知の位置、例えば、HMDのユーザが存在するリビングルームまたはプレゼンテーション会場の隅の位置を、位置情報の原点として定めることができる。現実空間における座標軸としては、例えば、北方向をx軸方向、東方向をy軸方向、垂直方向をz軸方向として定める。向き情報は、x軸方向を基準に、xy平面において反時計回りに角度が増加するものとして表される。 The AR content position management table 100 uses the content ID of the AR content as a key, and the position information and the display direction information indicating in what position and in what direction the AR content is displayed in the augmented reality space as a coordinate value. Manage. The position information is periodically updated according to the processing result of S904. Any known position in the real space, for example, the position of the corner of the living room or presentation venue where the HMD user exists can be defined as the origin of the position information. As coordinate axes in the real space, for example, the north direction is defined as the x-axis direction, the east direction is defined as the y-axis direction, and the vertical direction is defined as the z-axis direction. The orientation information is expressed as an angle increasing counterclockwise in the xy plane with reference to the x-axis direction.
図10では、例えば、ARコンテンツXは座標(16,10,0)にあるように表示すること、ARコンテンツの表示向きは90度方向であることがわかる。 In FIG. 10, for example, it is understood that the AR content X is displayed at the coordinates (16, 10, 0), and the display direction of the AR content is the 90 degree direction.
図11は、本実施形態によるAR投影処理における処理の流れを示すフローチャートである。 FIG. 11 is a flowchart showing a process flow in the AR projection process according to the present embodiment.
HMDユーザの移動に従いARコンテンツの表示画面における表示位置を変える必要がある。本処理を所定の周期で定期的に実行してARコンテンツを透過型ディスプレイ101の表示画面における表示を制御することで、常に正しい画面上の位置にARコンテンツを投影することができる。CPU305がHDD310に格納された制御プログラムを実行することで本フローチャートのS1101からS1105の処理が実施される。各HMD100のCPU104がROM110に格納された制御プログラムを実行することで本フローチャートのS1106からS1112の処理が実施される。 It is necessary to change the display position of the AR content display screen according to the movement of the HMD user. By executing this process periodically at a predetermined cycle and controlling the display of the AR content on the display screen of the transmissive display 101, the AR content can be always projected at the correct position on the screen. When the CPU 305 executes the control program stored in the HDD 310, the processing from S1101 to S1105 in this flowchart is performed. When the CPU 104 of each HMD 100 executes the control program stored in the ROM 110, the processing from S1106 to S1112 of this flowchart is performed.
S1101で、処理サーバ300が、個人属性情報管理テーブル80からユーザの位置情報、AR閲覧者情報を読み出し、S1102に進む。 In S1101, the processing server 300 reads the user location information and AR viewer information from the personal attribute information management table 80, and the process proceeds to S1102.
S1102で、処理サーバ300が、ARコンテンツ位置管理テーブル100からARコンテンツの表示位置を読み出し、S1103に進む。 In S1102, the processing server 300 reads the display position of the AR content from the AR content position management table 100, and proceeds to S1103.
S1103で、処理サーバ300が、各種情報を元に、参照AR閲覧者と参照しているARコンテンツの間に割り込んだ人を判定し、抽出する。ユーザが割り込んだかどうかを判定する方法に関しては図5の説明の中で言及した通りである。各種情報としては、個人属性情報管理テーブル80で管理するユーザの位置情報、ARコンテンツ位置管理テーブル100で管理するARコンテンツの位置情報、ARコンテンツに設定されているARコンテンツの表示の大きさ情報を使用する。 In S1103, the processing server 300 determines and extracts a person who has interrupted between the reference AR viewer and the AR content being referred to based on various information. The method for determining whether or not the user has interrupted is as described in the description of FIG. The various types of information include user location information managed by the personal attribute information management table 80, AR content location information managed by the AR content location management table 100, and AR display size information set for the AR content. use.
次いでS1104で、処理サーバ300が、S1103で算出した割り込んだユーザの情報と、個人属性情報管理テーブル80で管理するAR閲覧者情報を元に、割り込んだAR閲覧者と割り込んだAR非閲覧者を判定し、抽出し、S1105に進む。 In step S1104, the processing server 300 selects the interrupted AR viewer and the interrupted AR non-viewer based on the interrupted user information calculated in S1103 and the AR viewer information managed in the personal attribute information management table 80. Determine, extract, and proceed to S1105.
S1105で、処理サーバ300が、各ユーザが装着するHMD100に対し、割り込んだAR閲覧者と割り込んだAR非閲覧者の位置情報と、ARコンテンツの表示位置と表示の大きさ情報を各HMD100に送信して提供し、処理サーバ側の処理を終了する。 In S <b> 1105, the processing server 300 transmits, to the HMD 100 worn by each user, the position information of the interrupted AR viewer and the interrupted AR non-viewer, the display position of the AR content, and the display size information to each HMD 100. And the processing on the processing server side is terminated.
これら情報の送信相手である各HMD100がS1106を実行する。S1106で、HMD100が、処理サーバ300から、割り込んだAR閲覧者と割り込んだAR非閲覧者の位置情報と、ARコンテンツの表示位置と表示の大きさ情報を受信し、S1107に進む。 Each HMD 100 that is the transmission partner of these information executes S1106. In S1106, the HMD 100 receives from the processing server 300 the position information of the interrupted AR viewer and the interrupted AR non-viewer, the AR content display position, and the display size information, and proceeds to S1107.
S1107で、HMD100が、保持している自己位置情報と、割り込んだAR閲覧者とAR非閲覧者の位置情報を元に、割り込んだAR閲覧者と割り込んだAR非閲覧者の、当該HMD100を使用している参照AR閲覧者自身に対する方向を算出する。 In S1107, the HMD 100 uses the HMD 100 of the interrupted AR viewer and the interrupted AR non-viewer based on the stored self-location information and the location information of the interrupted AR viewer and AR non-viewer. The direction with respect to the reference AR viewer himself is calculated.
S1108で、HMD100が、内蔵するカメラ102で撮影した位置マーカーとMEMSセンサ信号を分析することでHMD100の向いている方向を算出し、S1109に進む。方向算出処理を例えば非特許文献3の方法により行えることは前述の通りである。 In step S1108, the HMD 100 calculates the direction in which the HMD 100 faces by analyzing the position marker and the MEMS sensor signal captured by the built-in camera 102, and the process advances to step S1109. As described above, the direction calculation process can be performed by the method of Non-Patent Document 3, for example.
S1109で、HMD100が、当該HMD100を使用している参照AR閲覧者自身に対する各人体の方向を算出する。この処理は、カメラ102で撮影した映像に含まれる人体の画像を検出し、S1108で算出されたHMD100の向き情報と、撮影画像中の人体画像の位置情報から、参照AR閲覧者自身に対する各人体の方向を算出することで行う。撮影画像中の人体画像を検出する方法に関しては、ネットワークカメラなどで広く行われている方法を用いることができる。 In S <b> 1109, the HMD 100 calculates the direction of each human body relative to the reference AR viewer himself who is using the HMD 100. In this process, an image of a human body included in an image captured by the camera 102 is detected, and each human body for the reference AR viewer himself / herself is determined from the orientation information of the HMD 100 calculated in S1108 and the position information of the human body image in the captured image. This is done by calculating the direction of. As a method for detecting a human body image in a captured image, a method widely used in a network camera or the like can be used.
S1110で、HMD100が、各種情報を元に、各人体がAR閲覧者かAR非閲覧者かを算出し、S1111に進む。各種情報として、S1107で算出されたAR閲覧者に対する割り込んだAR閲覧者と割り込んだAR非閲覧者の方向の情報と、S1109で算出された参照AR閲覧者自身に対する各人体の方向の情報を使用する。 In S1110, the HMD 100 calculates whether each human body is an AR viewer or an AR non-browser based on various types of information, and proceeds to S1111. As various types of information, the information about the direction of the interrupted AR viewer and the interrupted AR non-viewer with respect to the AR viewer calculated in S1107 and the information on the direction of each human body with respect to the reference AR viewer itself calculated in S1109 are used. To do.
S1111で、HMD100が、HMD100の向き情報と、当該HMD100を使用している参照AR閲覧者自身の保持している位置情報と、ARコンテンツの表示位置情報、大きさ情報、向き情報を元に、投影するARコンテンツを生成する。ARコンテンツのためのデータは各HMD100が記憶デバイスに保持している。ARコンテンツのためのデータは、処理サーバ300が保持し、投影指示に応答して処理サーバ300から投影指示を行ったHMD100に提供してもよい。 In S1111, the HMD 100, based on the orientation information of the HMD 100, the location information held by the reference AR viewer who uses the HMD 100, and the display location information, size information, and orientation information of the AR content, The AR content to be projected is generated. Each HMD 100 holds data for AR content in a storage device. The data for AR content may be held by the processing server 300 and provided to the HMD 100 that has issued the projection instruction from the processing server 300 in response to the projection instruction.
S1111で行う処理は、現実世界において任意の既知の位置を原点として定めた前述の座標空間、HMD100の透過型ディスプレイ101の表示画面における座標空間を、座標変換行列を用いて変換する処理である。座標変換行列は、次式で表される。 The process performed in S1111 is a process of converting the coordinate space on the display screen of the transmissive display 101 of the HMD 100 using the coordinate conversion matrix, which is the above-described coordinate space defined as an origin in the real world. The coordinate transformation matrix is expressed by the following equation.
この変換に関しては、ARToolKitをはじめ、様々なライブラリが公開されている。 For this conversion, various libraries such as ARTToolKit are released.
S1112で、HMD100が、別図に示すディスプレイ表示処理を行い、本処理を終了する。S1112の処理は図12を用いて次に述べる。 In S1112, the HMD 100 performs a display display process shown in another figure and ends this process. The processing of S1112 will be described next with reference to FIG.
図12は、本実施形態において、図11のS1112で実行されるディスプレイ表示処理における処理の流れを示すフローチャートである。各HMD100のCPU104がROM110に格納された制御プログラムを実行することで本フローチャートのS1201からS1203の処理が実施される。 FIG. 12 is a flowchart showing a process flow in the display display process executed in S1112 of FIG. 11 in the present embodiment. When the CPU 104 of each HMD 100 executes a control program stored in the ROM 110, the processing from S1201 to S1203 of this flowchart is performed.
S1201で、HMD100が、割り込んだAR閲覧者に該当する人体の存在する領域と重なる領域についてARコンテンツを消去し、S1202に進む。人体の存在する領域を検出することについては後述する。 In step S1201, the HMD 100 deletes the AR content in an area that overlaps the area where the human body corresponding to the interrupted AR viewer exists, and the process advances to step S1202. The detection of the region where the human body exists will be described later.
S1202で、HMD100が、割り込んだAR非閲覧者に該当する人体の存在する領域に関して、人型の輪郭線をARコンテンツに付加し、S1203に進む。 In step S1202, the HMD 100 adds a human outline to the AR content regarding the area where the human body corresponding to the interrupted AR non-viewer exists, and the process advances to step S1203.
S1203で、HMD100が、ARコンテンツを透過型ディスプレイ101の表示画面に表示し、本処理を終了する。 In step S1203, the HMD 100 displays the AR content on the display screen of the transmissive display 101, and ends this process.
図11のS1109において、HMD100が、参照AR閲覧者に対しカメラ102で撮影した映像に含まれる人体の方向を算出することに関して、図13と図14を用いて補足説明する。 In S1109 of FIG. 11, the HMD 100 calculates the direction of the human body included in the video captured by the camera 102 for the reference AR viewer, and will be supplementarily described with reference to FIGS. 13 and 14.
図13は、本実施形態におけるAR閲覧者の視界を示す図である。 FIG. 13 is a diagram showing the field of view of the AR viewer in the present embodiment.
カメラ102で撮影した映像に含まれる人体1300が、カメラの法線方向1310に対し角度γの方向に存在する場合、参照AR閲覧者は、HMD100の透過型ディスプレイ101の法線方向に対し同じく角度γの方向に人体1300を見ることとなる。水平方向において人体1300がARコンテンツ(不図示)と重なる領域がある場合について考える。このとき、人体1300がARコンテンツより手前に位置して見える表示は、HMD100は、水平方向については領域Hについて表示画面1320におけるARコンテンツを消去してARコンテンツを表示することで表現できる。一方、人体1300がARコンテンツより奥に位置して見える表示は、領域Hについても表示画面1320においてARコンテンツを表示することで表現できる。 When the human body 1300 included in the video imaged by the camera 102 exists in the direction of the angle γ with respect to the normal direction 1310 of the camera, the reference AR viewer also has the same angle with respect to the normal direction of the transmissive display 101 of the HMD 100. The human body 1300 is seen in the direction of γ. Consider a case where there is a region where the human body 1300 overlaps AR content (not shown) in the horizontal direction. At this time, the display in which the human body 1300 appears to be positioned in front of the AR content can be expressed by the HMD 100 displaying the AR content by deleting the AR content on the display screen 1320 for the region H in the horizontal direction. On the other hand, the display in which the human body 1300 appears to be located behind the AR content can be expressed by displaying the AR content on the display screen 1320 for the region H as well.
図14は、本実施形態における、参照AR閲覧者に対する、カメラ102で撮影した映像に含まれる人体の方向を上から見たものとして示した図である。参照AR閲覧者の向いている方向が、角度θであるとすると、参照AR閲覧者から見て、他の者は角度θ+γの方向に見えることになる。角度θはカメラで撮影したマーカーを分析して算出したり、MEMSセンサ信号から以前向いていた方向に対する相対的な方向を算出したりすることで求められる。 FIG. 14 is a diagram showing the direction of the human body included in the video captured by the camera 102 with respect to the reference AR viewer as viewed from above in the present embodiment. If the direction to which the reference AR viewer is facing is the angle θ, the other person will see the direction of the angle θ + γ as seen from the reference AR viewer. The angle θ is obtained by analyzing a marker photographed by the camera, or by calculating a relative direction with respect to the direction that was previously directed from the MEMS sensor signal.
個人属性情報管理テーブル80からユーザの位置関係が把握できる。例えば、参照AR閲覧者が座標(xo,xo)、他の者が座標(xt,yt)に位置しているものとすると、参照AR閲覧者から他の者が見える角度は次式の関係で表せる。 The user's positional relationship can be grasped from the personal attribute information management table 80. For example, if the reference AR viewer is located at the coordinates (x o , x o ) and the other is located at the coordinates (x t , y t ), the angle at which the other person can see the reference AR viewer is It can be expressed in terms of an expression.
S1201に関し、カメラ映像中の人体領域を算出、及び、人体領域の輪郭線を描画する方法に関して、補足説明する。例えば、深度映像から算出する方法、人の形状を認識して算出するなどの方法などがある。深度映像を取得するには、例えば、マイクロソフト(登録商標)社のKinect(登録商標)で採用している赤外線を用いた方法や、非特許文献7のDTAM(Dense Tracking and Mapping)のようにRGB画像から算出する方法がある。 Regarding S1201, a supplementary explanation will be given regarding a method of calculating a human body region in a camera image and drawing a contour line of the human body region. For example, there are a method of calculating from a depth image, a method of calculating by recognizing a human shape, and the like. In order to acquire a depth image, for example, a method using infrared rays adopted by Kinect (registered trademark) of Microsoft (registered trademark) or RGB as in DTAM (Dense Tracking and Mapping) of non-patent document 7 There is a method of calculating from an image.
参照AR閲覧者が座標(xo,xo)、他の者が座標(xt,yt)に位置しているものとすると、両者の距離は次式の通りとなる。 Assuming that the reference AR viewer is located at the coordinates (xo, xo) and the other person is located at the coordinates (xt, yt), the distance between them is as follows.
前述の通り、カメラ映像中の人の見える方向がわかっている。人の見える方向、両者の距離から大きく乖離していない深度情報を検索し、その外周に線を描画すれば輪郭線を描画することが出来る。 As described above, the direction in which a person can see in the camera image is known. A contour line can be drawn by searching depth information that is not greatly deviated from the direction in which a person can see and the distance between the two and drawing a line on the outer periphery thereof.
上記処理により、ARコンテンツと参照AR閲覧者Aの間にAR閲覧者BとAR非閲覧者Cがいる状況で、参照AR閲覧者AにはAR閲覧者BがARコンテンツより手前に見え、AR非閲覧者CはARコンテンツに隠されて見えない制御が実現される。ここで、図11の処理を所定の周期で定期的に行っているため、その状態でAR非閲覧者CがARコンテンツの閲覧権を獲得したときには、AR閲覧者となったユーザCが参照AR閲覧者Aから見えるように、動的に見え方が変化する制御を実現できる。 With the above processing, in a situation where there is an AR viewer B and an AR non-browser C between the AR content and the reference AR viewer A, the AR viewer B appears to the reference AR viewer A in front of the AR content, and the AR The non-browser C is controlled so as not to be hidden by the AR content. Here, since the process of FIG. 11 is periodically performed at a predetermined cycle, when the AR non-browser C acquires the AR content viewing right in that state, the user C who becomes the AR viewer refers to the reference AR. As seen from the viewer A, it is possible to realize control in which the appearance changes dynamically.
(実施形態2)
本実施形態では、割り込んだAR閲覧者の中でARコンテンツとの関連性が深く、参照AR閲覧者にとって注目すべきであると推測されるAR閲覧者を、ARコンテンツの手前に表示する。
(Embodiment 2)
In the present embodiment, the AR viewer who is deeply related to the AR content among the interrupted AR viewers and is supposed to be noticed by the reference AR viewer is displayed in front of the AR content.
実施形態1では、ARコンテンツと参照AR閲覧者Aの間に、ARコンテンツを説明しているAR閲覧者BとAR非閲覧者Cがいる状況で、参照AR閲覧者AにはAR閲覧者BがARコンテンツより手前に見え、AR非閲覧者CがARコンテンツに隠され見えない。 In the first embodiment, there is an AR viewer B and an AR non-browser C explaining the AR content between the AR content and the reference AR viewer A, and the reference AR viewer A is an AR viewer B. Is seen in front of the AR content, and the AR non-browser C is hidden by the AR content and cannot be seen.
本実施形態では、参照AR閲覧者AとARコンテンツの間に、ARコンテンツについて説明しているAR閲覧者Bだけでなく、聴衆の一人にすぎないAR閲覧者Eもいる別の状況を想定する。この状況で、AR閲覧者BはARコンテンツとの関連性が深く、参照AR閲覧者Aには見えることが好ましく、AR閲覧者Eは特に見えている必要がなく、むしろ見えているとARコンテンツの閲覧を妨げられる場合がある。そこで、本実施形態では、参照AR閲覧者AにAR閲覧者Bが見え、AR閲覧者EはたとえAR閲覧者であっても見えないように表示画面における表示を制御する。 In the present embodiment, another situation is assumed in which there is not only the AR viewer B explaining the AR content but also the AR viewer E who is only one of the audience between the reference AR viewer A and the AR content. . In this situation, the AR viewer B is deeply related to the AR content and is preferably visible to the reference AR viewer A, and the AR viewer E does not have to be particularly visible, but rather the AR content is visible. Browsing may be hindered. Therefore, in the present embodiment, the display on the display screen is controlled so that the AR viewer B can be seen by the reference AR viewer A and the AR viewer E can not be seen even by the AR viewer.
図15は、ユーザとARコンテンツの位置関係の例を示す平面図である。 FIG. 15 is a plan view showing an example of the positional relationship between the user and the AR content.
図中のユーザA、B、Eは、共にAR閲覧者である。ユーザBはARコンテンツ15のすぐそばに立ち、ARコンテンツ15に関して説明を行っており、ユーザAとユーザEはそれを見ている状況を想定して図示してある。この場合、AR閲覧者AにとってAR閲覧者Bは注目すべきユーザ、すなわち、ARコンテンツ15と関連の深いユーザである。本実施形態では参照AR閲覧者Aから見てARコンテンツ15の手前に存在し、ARコンテンツ15から所定距離内(例えば1m以内)に立つユーザを注目すべき人とみなすこととする。注目すべきかどうかの判定は、他に、発話しているかどうか(マイクロフォンで検知した音声が所定レベル以上か)、体の動きが大きいか(MEMSセンサ信号の変動が大きいか)に基づいて行うこともできる。 Users A, B, and E in the figure are all AR viewers. The user B stands next to the AR content 15 and explains the AR content 15, and the user A and the user E are illustrated assuming that they are watching it. In this case, for the AR viewer A, the AR viewer B is a notable user, that is, a user closely related to the AR content 15. In the present embodiment, a user who is present in front of the AR content 15 as viewed from the reference AR viewer A and stands within a predetermined distance (for example, within 1 m) from the AR content 15 is regarded as a person to be noted. In addition, whether or not to pay attention is determined based on whether or not the user is speaking (whether the sound detected by the microphone is equal to or higher than a predetermined level), or whether the body movement is large (the fluctuation of the MEMS sensor signal is large). You can also.
説明を簡単にするために、参照AR閲覧者Aの位置を(0,0)、参照AR閲覧者Aから角度0の方向に表示位置原点Oがあるような座標空間を考える。AR閲覧者Bが座標(xB,yB)にいて、ARコンテンツ15の表示位置原点Oの座標が(xcont,0)であるとする。AR閲覧者BからARコンテンツ15に対し垂直な線分の長さ、すなわち、AR閲覧者BとARコンテンツ15の距離distは次式で表される。 In order to simplify the explanation, consider a coordinate space where the position of the reference AR viewer A is (0, 0) and the display position origin O is in the direction of angle 0 from the reference AR viewer A. Assume that the AR viewer B is at coordinates (x B , y B ), and the coordinates of the display position origin O of the AR content 15 are (x cont , 0). The length of the line segment perpendicular to the AR content 15 from the AR viewer B, that is, the distance dist between the AR viewer B and the AR content 15 is expressed by the following equation.
本実施形態では、下記の2つの条件、 In this embodiment, the following two conditions:
を共に満たすとき、AR閲覧者Bを注目すべき人とみなすことができる。 When both are satisfied, the AR viewer B can be regarded as a notable person.
図16は、本実施形態における参照AR閲覧者AがHMD100を通して見る映像を具体的に説明する図である。 FIG. 16 is a diagram for specifically explaining an image viewed by the reference AR viewer A through the HMD 100 in the present embodiment.
比較のために説明する実施形態1の表示制御では、図16(a)に示すように、説明者であるAR閲覧者Bだけでなく単なる聴衆であるAR閲覧者Eまで前面に見えることになる。これにより、注目する必要のない聴衆により、参照AR閲覧者AがARコンテンツ15の閲覧を妨げられる場合がある。そこで本実施形態では、図16(b)のように、注目すべき説明者であるAR閲覧者BはARコンテンツ15より手前に位置して見えるように表示し、AR閲覧者EはARコンテンツ15に隠れて見えないように表示す。これにより、参照AR閲覧者AがARコンテンツ15の閲覧を妨げられない、より改良された制御を提供することができる。 In the display control of the first embodiment described for comparison, as shown in FIG. 16A, not only the AR viewer B who is the presenter but also the AR viewer E who is the mere audience will be seen in the foreground. . Thereby, the reference AR viewer A may be prevented from browsing the AR content 15 by an audience who does not need to pay attention. Therefore, in the present embodiment, as shown in FIG. 16B, the AR viewer B who is a notable explainer is displayed so as to be positioned in front of the AR content 15, and the AR viewer E is displayed as the AR content 15. Display hidden from view. Thereby, the reference AR viewer A can provide more improved control that is not hindered from browsing the AR content 15.
本実施形態の制御は、図7、9、11に示した処理により実現できるが、図11のS1112で実行される処理を、図12の処理に替えて図17の処理とすることで実現できる。 The control of the present embodiment can be realized by the processing shown in FIGS. 7, 9, and 11. However, the processing executed in S1112 of FIG. 11 can be realized by replacing the processing of FIG. 12 with the processing of FIG. .
図17は、本実施形態において、図11のS1112で実行されるディスプレイ表示処理における処理の流れを示すフローチャートである。各HMD100のCPU104がROM110に格納された制御プログラムを実行することで本フローチャートのS1701からS1703の処理が実施される。 FIG. 17 is a flowchart showing a process flow in the display display process executed in S1112 of FIG. 11 in the present embodiment. When the CPU 104 of each HMD 100 executes the control program stored in the ROM 110, the processing from S1701 to S1703 in this flowchart is performed.
S1701で、HMD100が、AR閲覧者がARコンテンツ15から1m以内の距離にいるかを図15の説明に従い判定し、1m以内にいるAR閲覧者Bに該当する人体の存在する領域と重なる領域についてARコンテンツを消去し、S1702に進む。 In S <b> 1701, the HMD 100 determines whether the AR viewer is within a distance of 1 m from the AR content 15 according to the description of FIG. 15, and the AR overlaps with the region where the human body corresponding to the AR viewer B within 1 m exists. The content is deleted, and the process proceeds to S1702.
S1702で、HMD100が、その他のAR閲覧者、及び、AR非閲覧者に該当する人体の存在する領域に関して、人型の輪郭線を表す画像をARコンテンツに付加し、S1703に進む。人型の輪郭線を表す画像は、S1202について説明した方法と同様の方法によって生成できる。 In S <b> 1702, the HMD 100 adds an image representing a human-type contour line to the AR content regarding an area where human bodies corresponding to other AR viewers and AR non-browser exist, and the process proceeds to S <b> 1703. The image representing the human outline can be generated by a method similar to the method described in S1202.
S1703で、HMD100が、人体の存在領域と重なる領域が消去されたARコンテンツであって、輪郭線を含むARコンテンツを透過型ディスプレイ101の表示画面に表示し、本処理を終了する。 In step S <b> 1703, the HMD 100 displays the AR content including the contour line on the display screen of the transmissive display 101 in the AR content in which the region overlapping the human body existing region is erased, and the process ends.
(実施形態3)
実施形態1及び2では、システムの制御により割り込んだAR閲覧者の拡張現実空間における表示と重なる領域を消去したARコンテンツを透過型ディスプレイの表示画面に表示し、割り込んだAR閲覧者がARコンテンツの手前に見えるよう制御した。しかし、ARコンテンツの手前に人を表示させたくないこともあるため、本実施形態はそのような場合に対応するもので、ユーザの指示に応じ、割り込んだAR閲覧者をARコンテンツの手前に見えるよう表示する制御を行わないように構成される。
(Embodiment 3)
In the first and second embodiments, the AR content in which the area overlapping the display in the augmented reality space of the AR viewer interrupted by the system control is deleted is displayed on the display screen of the transparent display, and the interrupted AR viewer displays the AR content. It was controlled so that it was visible in the foreground. However, since it may not be desired to display a person in front of the AR content, this embodiment corresponds to such a case, and the interrupted AR viewer can be seen in front of the AR content in accordance with a user instruction. It is comprised so that control which displays may not be performed.
図18は、本実施形態における参照AR閲覧者AがHMD100を通して見る映像を具体的に説明する図である。本実施形態では、図に示すように、ARコンテンツの手前に人、すなわちユーザを表示しない。 FIG. 18 is a diagram for specifically explaining an image viewed by the reference AR viewer A through the HMD 100 in the present embodiment. In this embodiment, as shown in the figure, no person, that is, a user is displayed in front of the AR content.
本実施形態の処理は、図7、9、11に示した処理に順じるが、図11のS1106〜S112に替えて、図19のAR投影処理を実行する点で異なる。 The processing of this embodiment follows the processing shown in FIGS. 7, 9, and 11, but differs in that the AR projection processing of FIG. 19 is executed instead of S 1106 to S 112 of FIG. 11.
図19は、本実施形態によるAR投影処理における処理の流れを示すフローチャートである。各HMD100が備えるCPU104がROM110に格納された制御プログラムを実行することで本フローチャートのS1901からS1905の処理が実施される。 FIG. 19 is a flowchart showing the flow of processing in the AR projection processing according to this embodiment. When the CPU 104 provided in each HMD 100 executes the control program stored in the ROM 110, the processing from S1901 to S1905 of this flowchart is performed.
S1901で、HMD100が、処理サーバ300から、割り込んだAR閲覧者と割り込んだAR非閲覧者の位置情報と、ARコンテンツの表示位置と表示の大きさ情報を受信し、S1902に進む。 In S1901, the HMD 100 receives, from the processing server 300, the location information of the interrupted AR viewer and the interrupted AR non-viewer, the AR content display position, and the display size information, and proceeds to S1902.
S1902で、HMD100が、ユーザからの人の非表示指示を受け、S1903に進む。ユーザからの人の非表示指示に関しては、S901の説明で言及したような、ユーザのジェスチャーを認識する方法を用いることができる。 In S1902, the HMD 100 receives a person non-display instruction from the user, and proceeds to S1903. As for the non-display instruction of the person from the user, a method of recognizing the user's gesture as mentioned in the description of S901 can be used.
S1903で、HMD100が、内蔵するカメラ102で撮影した位置マーカーを分析し、HMD100の向いている方向を算出し、S1904に進む。この処理に関しては、先にS1108で言及した処理と同様に行うことができる。 In S1903, the HMD 100 analyzes the position marker photographed by the built-in camera 102, calculates the direction in which the HMD 100 is facing, and proceeds to S1904. This processing can be performed in the same manner as the processing mentioned above in S1108.
S1904で、HMD100が、HMD100の向き情報と、ARコンテンツの表示位置情報と、ARコンテンツの大きさ情報を元に、投影するARコンテンツを生成し、S1905に進む。 In step S1904, the HMD 100 generates an AR content to be projected based on the orientation information of the HMD 100, the AR content display position information, and the AR content size information, and the process advances to step S1905.
S1905で、HMD100が、ARコンテンツを透過型ディスプレイ101の表
示画面に表示し、本処理を終了する。この処理に関しては、先にS1203で言及した処理と同様に行うことができる。
In step S1905, the HMD 100 displays the AR content on the display screen of the transmissive display 101, and ends this process. This process can be performed in the same manner as the process mentioned above in S1203.
なお、上記各実施形態は透過型ディスプレイを備えるHMDに本発明を適用したものであるが、本発明は非透過型ディスプレイを備えるHMDにも適用することもできる。さらに、該HMDを含む情報処理システム、該情報処理システムに備えられる情報処理サーバ、該情報処理システムにおける情報処理方法、該HMD及び該情報処理サーバで用いられるプログラムにも本発明を適用することができる。この場合、HMDが備えるカメラによりキャプチャした撮像画像中の割り込んだAR閲覧者の画像を抽出し、該画像がARコンテンツの表示と重なる領域についてARコンテンツを消去し、該ARコンテンツを撮像画像と表示仮面において重畳表示する制御を行う。このような制御により、非透過型ディスプレイの表示画面においても、参照AR閲覧者には、該割り込んだAR閲覧者がARコンテンツよりも手前に位置して見えるように表示することができる。一方、割り込んだAR閲覧者がARコンテンツの奥に隠れて見えないようにするための制御及びAR閲覧者が存在する領域に輪郭線を描くための制御は、非透過型ディスプレイを使用する上記各実施形態の場合と同様に実現することができる。 In addition, although each said embodiment applies this invention to HMD provided with a transmissive display, this invention can also be applied also to HMD provided with a non-transmissive display. Furthermore, the present invention can also be applied to an information processing system including the HMD, an information processing server provided in the information processing system, an information processing method in the information processing system, a program used in the HMD and the information processing server. it can. In this case, the image of the interrupted AR viewer is extracted from the captured image captured by the camera provided in the HMD, the AR content is erased in a region where the image overlaps the display of the AR content, and the AR content is displayed as the captured image. Control to superimpose on the mask. By such control, even on the display screen of the non-transparent display, it is possible to display the reference AR viewer so that the interrupted AR viewer appears to be positioned in front of the AR content. On the other hand, the control for preventing the interrupted AR viewer from being hidden behind the AR content and the control for drawing the outline in the area where the AR viewer is present are performed by using the non-transparent display. It is realizable similarly to the case of embodiment.
(他の実施形態)
本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、1つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
(Other embodiments)
The present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), or can be applied to an apparatus (multifunction device, printer, facsimile machine, etc.) comprising a single device. Is also possible.
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラムを記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコード として読み出し、コンピュータにおいて実行する処理方法も上述の実施形態の範疇に含まれる。即ちコンピュータ読み取り可能な記憶媒体も実施例の範囲に含まれる。また、前述のコンピュータプログラムが記憶された記憶媒体はもちろんそのコンピュータプログラム自体も上述の実施形態に含まれる。 A processing method for storing the program for operating the configuration of the above-described embodiment so as to realize the function of the above-described embodiment in a storage medium, reading the program stored in the storage medium as a code, and executing the program on the computer is also described above. It is included in the category of the embodiment. That is, a computer-readable storage medium is also included in the scope of the embodiments. In addition to the storage medium storing the computer program, the computer program itself is included in the above-described embodiment.
かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。 As such a storage medium, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, and a ROM can be used.
また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。 In addition, the processing is not limited to the single program stored in the above-described storage medium, but operates on the OS in cooperation with other software and expansion board functions to execute the operations of the above-described embodiments. This is also included in the category of the embodiment described above.
Claims (10)
前記現実空間における前記表示装置の存在位置を示す第1の情報を取得する第1の取得手段、
前記表示装置を装着するユーザが前記デジタル画像情報を閲覧可能に設定されているか否かを示す第2の情報を取得する第2の取得手段、
前記拡張現実空間における前記デジタル画像情報の表示のための位置及び大きさを示す第3の情報を取得する第3の取得手段、
前記第1乃至第3の情報に基づき、前記ユーザごとに、前記表示のための位置に対応する前記現実空間における位置と前記存在位置との間に存在する、前記デジタル画像情報を閲覧可能に設定された閲覧ユーザ及び設定されていない非閲覧ユーザを判定する判定手段、並びに、
前記閲覧ユーザの前記拡張現実空間における表示と重なる領域の画像を消去した前記デジタル画像情報及び前記現実空間を前記表示画面に表示することで、前記拡張現実空間において前記閲覧ユーザが前記デジタル画像情報より手前に位置し且つ前記非閲覧ユーザが前記デジタル画像情報より奥に位置するように、前記表示画面における表示を制御する制御手段、
を備えることを特徴とする情報処理システム。 In an information processing system comprising a display device that displays real space and digital image information on a display screen and presents the augmented reality space on the display screen,
First acquisition means for acquiring first information indicating the position of the display device in the real space;
Second acquisition means for acquiring second information indicating whether or not a user wearing the display device is set to be able to view the digital image information;
Third acquisition means for acquiring third information indicating a position and a size for displaying the digital image information in the augmented reality space;
Based on the first to third information, for each user, the digital image information that exists between the position in the real space corresponding to the position for display and the existing position is set to be viewable. Determining means for determining a browsing user and a non-browsing user not set, and
By displaying the digital image information and the real space in which the image of the region overlapping the display in the augmented reality space of the browsing user is displayed on the display screen, the browsing user in the augmented reality space from the digital image information Control means for controlling display on the display screen so that the non-browsing user is positioned in front of the digital image information;
An information processing system comprising:
前記デジタル画像情報との関連性が高い前記閲覧ユーザについては、前記デジタル画像情報について前記閲覧ユーザの前記拡張現実空間における表示と重なる領域の画像を消去して前記表示画面に表示し、前記デジタル画像情報との関連性が高くない前記閲覧ユーザについては、前記デジタル画像情報について前記閲覧ユーザと重なる領域の画像を消去しないで前記表示画面に表示するように、前記表示画面における表示を制御することを特徴とする請求項1に記載の情報処理システム。 The control means includes
For the viewing user who is highly related to the digital image information, the digital image information is erased and displayed on the display screen in an area overlapping with the viewing user's display in the augmented reality space, and the digital image For the viewing user who is not highly related to information, the display on the display screen is controlled so that the digital image information is displayed on the display screen without erasing the image of the area overlapping the viewing user. The information processing system according to claim 1.
前記デジタル画像情報について前記非閲覧ユーザと重なる領域があることを示す情報を前記デジタル画像情報に付加して前記現実空間及び前記デジタル画像情報を前記表示画面に表示するように、前記表示画面における表示を制御することを特徴とする請求項1に記載の情報処理システム。 The control means further includes
Display on the display screen such that information indicating that there is an area overlapping with the non-viewing user is added to the digital image information and the real space and the digital image information are displayed on the display screen. The information processing system according to claim 1, wherein the information processing system is controlled.
前記現実空間における前記表示装置の存在位置を示す情報を取得する手段、
前記現実空間をセンシングして、前記現実空間に存在するオブジェクトついての情報を取得する手段、
前記デジタル画像情報を閲覧可能に設定された閲覧ユーザ及び設定されていない非閲覧ユーザであって、前記拡張現実空間における前記デジタル画像情報の表示のための位置に対応する前記現実空間における位置と前記存在位置との間に存在する閲覧ユーザ及び非閲覧ユーザについての情報を取得し、該情報及び前記オブジェクトついての前記情報に基づき、前記閲覧ユーザ及び非閲覧ユーザを前記オブジェクトと対応させる手段、並びに、
前記閲覧ユーザに対応する前記現実空間中の第1のオブジェクトの前記拡張現実空間における表示と重なる領域の画像を消去した前記デジタル画像情報及び前記現実空間を前記表示画面に表示することで、前記拡張現実空間において前記第1のオブジェクトが前記デジタル画像情報より手前に位置し且つ前記非閲覧ユーザに対応する前記現実空間中の第2のオブジェクトが前記デジタル画像情報より奥に位置するように、前記表示画面における表示を制御する手段、
を備えることを特徴とする情報処理装置。 In an information processing apparatus comprising a display device that displays real space and digital image information on a display screen and presents the augmented reality space on the display screen,
Means for obtaining information indicating the position of the display device in the real space;
Means for sensing the real space and obtaining information about an object existing in the real space;
A viewing user set to be able to view the digital image information and a non-viewing user that is not set, the position in the real space corresponding to the position for displaying the digital image information in the augmented reality space, and the Means for acquiring information about a browsing user and a non-browsing user existing between the existing position and associating the browsing user and the non-browsing user with the object based on the information and the information about the object; and
By displaying the digital image information and the real space in which the image of the region overlapping the display in the augmented reality space of the first object in the real space corresponding to the browsing user is displayed on the display screen, The display so that the first object is located in front of the digital image information in the real space and the second object in the real space corresponding to the non-viewing user is located behind the digital image information. Means for controlling the display on the screen,
An information processing apparatus comprising:
前記現実空間における前記表示装置の存在位置を示す第1の情報を前記表示装置から取得する第1の取得手段、
前記表示装置を装着するユーザが前記デジタル画像情報を閲覧可能に設定されているか否かを示す第2の情報を取得する第2の取得手段、
前記拡張現実空間における前記デジタル画像情報の表示のための位置及び大きさを示す第3の情報を取得する第3の取得手段、
前記第1乃至第3の情報に基づき、前記ユーザごとに、前記表示のための位置に対応する前記現実空間における位置と前記存在位置との間に存在する、前記デジタル画像情報を閲覧可能に設定された閲覧ユーザ及び設定されていない非閲覧ユーザを判定する判定手段、並びに、
前記閲覧ユーザ及び前記非閲覧ユーザについての前記第1の情報及び前記第3の情報を前記表示装置に提供する手段、
を備えることを特徴とする情報処理サーバ。 In an information processing server that provides information to a display device that displays real space and digital image information on a display screen and presents the augmented reality space on the display screen,
First acquisition means for acquiring first information indicating the position of the display device in the real space from the display device;
Second acquisition means for acquiring second information indicating whether or not a user wearing the display device is set to be able to view the digital image information;
Third acquisition means for acquiring third information indicating a position and a size for displaying the digital image information in the augmented reality space;
Based on the first to third information, for each user, the digital image information that exists between the position in the real space corresponding to the position for display and the existing position is set to be viewable. Determining means for determining a browsing user and a non-browsing user not set, and
Means for providing the display device with the first information and the third information about the browsing user and the non-viewing user;
An information processing server comprising:
前記現実空間における前記表示装置の存在位置を示す第1の情報、前記表示装置を装着するユーザが前記デジタル画像情報を閲覧可能に設定されているか否かを示す第2の情報、及び、前記拡張現実空間における前記デジタル画像情報の表示のための位置及び大きさを示す第3の情報を取得するステップ、
前記第1乃至第3の情報に基づき、前記ユーザごとに、前記表示のための位置に対応する前記現実空間における位置と前記存在位置との間に存在する、前記デジタル画像情報を閲覧可能に設定された閲覧ユーザ及び設定されていない非閲覧ユーザを判定するステップ、並びに、
前記閲覧ユーザの前記拡張現実空間における表示と重なる領域の画像を消去した前記デジタル画像情報及び前記現実空間を前記表示画面に表示することで、前記拡張現実空間において前記閲覧ユーザが前記デジタル画像情報より手前に位置し且つ前記非閲覧ユーザが前記デジタル画像情報より奥に位置するように、前記表示画面における表示を制御するステップ、
を含むことを特徴とする情報処理方法。 In an information processing method using a display device that displays real space and digital image information on a display screen and presents an augmented reality space on the display screen,
First information indicating the location of the display device in the real space, second information indicating whether or not a user wearing the display device is set to view the digital image information, and the extension Obtaining third information indicating the position and size for display of the digital image information in real space;
Based on the first to third information, for each user, the digital image information that exists between the position in the real space corresponding to the position for display and the existing position is set to be viewable. Determining a browsing user and a non-browsing user not set, and
By displaying the digital image information and the real space in which the image of the region overlapping the display in the augmented reality space of the browsing user is displayed on the display screen, the browsing user in the augmented reality space from the digital image information Controlling the display on the display screen so that the non-browsing user is located in front of the digital image information;
An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013225224A JP2015087909A (en) | 2013-10-30 | 2013-10-30 | Information processing system, information processing device, information processing server, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013225224A JP2015087909A (en) | 2013-10-30 | 2013-10-30 | Information processing system, information processing device, information processing server, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015087909A true JP2015087909A (en) | 2015-05-07 |
Family
ID=53050650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013225224A Pending JP2015087909A (en) | 2013-10-30 | 2013-10-30 | Information processing system, information processing device, information processing server, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015087909A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156478A (en) * | 2017-03-17 | 2018-10-04 | ラスパンダス株式会社 | Computer program |
JP2019128958A (en) * | 2018-01-24 | 2019-08-01 | ヴィーヴァ システムズ インコーポレイテッド | System and method for distributing ar content |
WO2020095551A1 (en) * | 2018-11-09 | 2020-05-14 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020115362A (en) * | 2020-03-25 | 2020-07-30 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, control method therefor, and program |
WO2021111975A1 (en) * | 2019-12-04 | 2021-06-10 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
WO2022044124A1 (en) * | 2020-08-25 | 2022-03-03 | マクセル株式会社 | 3d virtual-reality display device, head-mounted display, and 3d virtual-reality display method |
-
2013
- 2013-10-30 JP JP2013225224A patent/JP2015087909A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156478A (en) * | 2017-03-17 | 2018-10-04 | ラスパンダス株式会社 | Computer program |
JP2019128958A (en) * | 2018-01-24 | 2019-08-01 | ヴィーヴァ システムズ インコーポレイテッド | System and method for distributing ar content |
WO2020095551A1 (en) * | 2018-11-09 | 2020-05-14 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2021111975A1 (en) * | 2019-12-04 | 2021-06-10 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
US12057092B2 (en) | 2019-12-04 | 2024-08-06 | Sony Group Corporation | Information processing device and information processing method for a head-mounted display |
JP2020115362A (en) * | 2020-03-25 | 2020-07-30 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, control method therefor, and program |
JP7029087B2 (en) | 2020-03-25 | 2022-03-03 | キヤノンマーケティングジャパン株式会社 | Information processing equipment, information processing system, its control method and program |
WO2022044124A1 (en) * | 2020-08-25 | 2022-03-03 | マクセル株式会社 | 3d virtual-reality display device, head-mounted display, and 3d virtual-reality display method |
JP7532532B2 (en) | 2020-08-25 | 2024-08-13 | マクセル株式会社 | 3D virtual reality display device, head-mounted display, and 3D virtual reality display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
US11227446B2 (en) | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality | |
JP7079231B2 (en) | Information processing equipment, information processing system, control method, program | |
JP6780642B2 (en) | Information processing equipment, information processing methods and programs | |
CN109739361B (en) | Visibility improvement method based on eye tracking and electronic device | |
US10095030B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
US20150277699A1 (en) | Interaction method for optical head-mounted display | |
JP2015087909A (en) | Information processing system, information processing device, information processing server, information processing method and program | |
US10868977B2 (en) | Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information | |
EP2418623A1 (en) | User equipment and method for displaying augmented reality window | |
CN109584374A (en) | The method, apparatus and computer readable storage medium of interactive navigation auxiliary are provided for using removable leader label | |
JP2012212345A (en) | Terminal device, object control method and program | |
CN112667179B (en) | Remote synchronous collaboration system based on mixed reality | |
KR102159767B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
JP6409861B2 (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP2018142230A (en) | Information processor, information processing system, information processing method, and program | |
JPWO2018179176A1 (en) | Display control apparatus, display control method, and program | |
JP2014203175A (en) | Information processing device, information processing method, and program | |
KR20170120299A (en) | Realistic contents service system using leap motion | |
JP2015072607A (en) | Information processing apparatus, information processing method, and program | |
KR20180071492A (en) | Realistic contents service system using kinect sensor | |
KR20200111144A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
JP2014116891A (en) | Information display system, server device, information processor, control method for server device, and control method and program for information processor | |
KR102473669B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US11740773B2 (en) | Information processing device and method |