JP2017010228A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2017010228A
JP2017010228A JP2015124266A JP2015124266A JP2017010228A JP 2017010228 A JP2017010228 A JP 2017010228A JP 2015124266 A JP2015124266 A JP 2015124266A JP 2015124266 A JP2015124266 A JP 2015124266A JP 2017010228 A JP2017010228 A JP 2017010228A
Authority
JP
Japan
Prior art keywords
information
annotation
input
processing apparatus
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015124266A
Other languages
Japanese (ja)
Inventor
康彦 上原
Yasuhiko Uehara
康彦 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015124266A priority Critical patent/JP2017010228A/en
Publication of JP2017010228A publication Critical patent/JP2017010228A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To select and display an annotation in accordance with a predetermined condition.SOLUTION: An information processing apparatus includes: image acquisition means of acquiring an image including a virtual object; holding means of holding annotation information indicating each of sections on the virtual object and additional information indicating a state at the time of inputting the annotation information, in association with each other; acquisition means of acquiring information input by a user and corresponding to the additional information; selection means of selecting annotation information to be displayed, on the basis of the additional information, from the annotation information for each section on the virtual object held in the holding means; generation means of generating a composite image by synthesizing the selected annotation information with the above image; and output means of outputting the composite image.SELECTED DRAWING: Figure 2

Description

本発明は、複合現実感を提供するための情報処理装置、情報処理方法、プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program for providing mixed reality.

現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想現実空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。   In recent years, research on mixed reality (MR) for the purpose of seamless connection between a real space and a virtual space has been actively conducted. An image display device that presents mixed reality is, for example, a device having the following configuration. That is, a virtual reality space image (for example, a virtual object or character information drawn by computer graphics) generated according to the position and orientation of the imaging device on an image of the real space captured by an imaging device such as a video camera. Is a device that displays an image in which the image is superimposed and drawn. For such an apparatus, for example, an HMD (head mounted display, head mounted display) can be used.

また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想現実空間の画像を表示する光学シースルー方式によっても実現される。   The image display apparatus is also realized by an optical see-through method that displays an image of a virtual reality space generated according to the position and orientation of the observer's viewpoint on an optical see-through display mounted on the observer's head. Is done.

このような画像表示装置の応用として、自動車・航空機などの製造業において開発中の製品をコンピュータグラフィックス(CG)映像として現実世界に重畳表示し、自由な視点から確認、検討することで実寸大の模型を作製せずにデザイン等の検討を行うことができる。   As an application of such an image display device, products under development in the manufacturing industry such as automobiles and airplanes are superimposed and displayed in the real world as computer graphics (CG) images, and they are confirmed and examined from a free perspective. The design etc. can be examined without making a model.

このような応用例では、多人数が参加した検討を行う場合は多数のHMDが必要になることから、タブレットなどの安価なデバイスを用いて検討に参加できるシステムがある。このシステムは、HMDを装着した人物が見ている、現実世界とCGの重畳された画面をそのままタブレット画面に表示し、HMDを装着した人物と視界を共有することによって検討に参加できるようにするものである。   In such an application example, since a large number of HMDs are required when a study involving a large number of people is performed, there is a system that can participate in the study using an inexpensive device such as a tablet. This system allows the person wearing the HMD to see the real-world and CG-superimposed screen displayed on the tablet screen as it is, and to participate in the study by sharing the field of view with the person wearing the HMD. Is.

さらにHMDを用いた検討では、検討中に得られた知見や備忘録等をCG映像中の特定部位と関連付けて保存しておくことが行われる。ここで保存した情報はアノテーションと呼ばれ、HMDの装着者は、現実世界に重畳されたCG映像の特定部位上にさらにアノテーション文字列を重畳表示し、検討時の記録とすることでさらに効果的な検討を行うことが可能である。   Further, in the examination using the HMD, the knowledge or memorandum obtained during the examination is stored in association with a specific part in the CG video. The information stored here is called annotation, and the HMD wearer can display the annotation character string superimposed on a specific part of the CG image superimposed in the real world and record it at the time of examination. Can be considered.

しかしながら、HMDを通して、複数のアノテーションが関連付けられたCG映像を閲覧する際、重畳表示された複数のアノテーションがHMD装着者の視界を妨げてしまうことがある。   However, when browsing a CG image associated with a plurality of annotations through the HMD, the plurality of superimposed annotations may interfere with the view of the HMD wearer.

そこで、特許文献1に開示される方法では、HMD装着者が保持する指示装置によってCG中の部位を選択し、該選択された部位に対応するアノテーションのみを表示する方法を開示している。   Therefore, the method disclosed in Patent Document 1 discloses a method in which a part in CG is selected by the pointing device held by the HMD wearer and only the annotation corresponding to the selected part is displayed.

特開2013−225311号公報JP 2013-225311 A

しかしながら、特許文献1の方法では、選択したアノテーションのみしか表示されないため、ある特定の条件下で付与されたアノテーションを一括して表示するようなことができなかった。   However, in the method of Patent Document 1, only selected annotations are displayed, and thus annotations given under certain specific conditions cannot be displayed collectively.

本発明は、上記の課題に鑑みてなされたものであり、特定の条件に応じたアノテーションを選択して表示することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to select and display annotations according to specific conditions.

上記の課題を解決するために、本発明の情報処理装置は、例えば、仮想物体を含む画像を取得する画像取得手段と、前記仮想物体上の部位ごとに、該部位を示すアノテーション情報と該アノテーション情報が入力された時の状態を示す付加情報とを関連付けて保持する保持手段と、ユーザから入力される、前記付加情報に対応する情報を取得手段と、前記保持手段に保持される前記仮想物体上の部位ごとの前記アノテーション情報から、前記付加情報に基づいて、表示するアノテーション情報を選択する選択手段と、前記選択されたアノテーション情報と前記画像とが合成された合成画像を生成する生成手段と、前記合成画像を出力する出力手段とを備える。   In order to solve the above problems, an information processing apparatus according to the present invention includes, for example, an image acquisition unit that acquires an image including a virtual object, annotation information indicating the part for each part on the virtual object, and the annotation Holding means for associating and holding additional information indicating a state when information is input; acquisition means for receiving information corresponding to the additional information input by a user; and the virtual object held by the holding means Selection means for selecting annotation information to be displayed based on the additional information, and generation means for generating a composite image in which the selected annotation information and the image are combined, from the annotation information for each part above And an output means for outputting the composite image.

本発明の構成によれば、特定の条件に応じたアノテーションを選択して表示することができる。   According to the configuration of the present invention, it is possible to select and display annotations according to specific conditions.

本発明の第1の実施形態に係るシステム構成を表す図である。It is a figure showing the system configuration | structure which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置の機能構成例を表すブロック図である。It is a block diagram showing the functional structural example of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置の処理フローチャートである。It is a process flowchart of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置の処理フローチャートである。It is a process flowchart of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明におけるアノテーションが重畳された仮想現実映像のイメージ図である。It is an image figure of the virtual reality image on which the annotation in the present invention was superimposed. 本発明の第1の実施形態に係る情報処理装置のアノテーション保持部が保持するアノテーション情報のイメージ図である。It is an image figure of the annotation information which the annotation holding part of the information processing apparatus which concerns on the 1st Embodiment of this invention hold | maintains. 本発明の情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the information processing apparatus of this invention.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments having the configurations described in the claims.

(第1の実施形態)
図1は、本発明の第1の実施形態の情報処理装置101を用いたシステム構成を表す図である。
(First embodiment)
FIG. 1 is a diagram illustrating a system configuration using the information processing apparatus 101 according to the first embodiment of this invention.

情報処理装置101とHMD104は、通信路104で接続されている。通信路104は、情報処理装置101で生成された映像をHMD102に送信するため、およびHMD102で取得された現実映像を仮想現実表示デバイス101に送信するために使われる通信路で、HDMI(登録商標)やIEEE1394などの映像送受信プロトコルが使用される。この通信路はUSBやEthernet(登録商標)などのデータ通信路を用いてもよいし、Wi−Fiなどの無線通信プロトコルを用いても良い。   The information processing apparatus 101 and the HMD 104 are connected via a communication path 104. The communication path 104 is a communication path used for transmitting the video generated by the information processing apparatus 101 to the HMD 102 and for transmitting the real video acquired by the HMD 102 to the virtual reality display device 101. ) And IEEE 1394 are used. As this communication path, a data communication path such as USB or Ethernet (registered trademark) may be used, or a wireless communication protocol such as Wi-Fi may be used.

同様に、情報処理装置101とタブレットコンピュータ103は通信路105で接続されている。通信路105はタブレットコンピュータ103から仮想現実表示デバイス101へコマンドを送信するため、および情報処理装置101からタブレットコンピュータ103へアノテーションに関する情報を送信するために使われる通信路で、Wi−Fiなどの無線通信プロトコルが使用される。この通信路にはUSBなどの有線接続を用いてもよい。   Similarly, the information processing apparatus 101 and the tablet computer 103 are connected by a communication path 105. The communication path 105 is a communication path used for transmitting commands from the tablet computer 103 to the virtual reality display device 101 and for transmitting information related to annotations from the information processing apparatus 101 to the tablet computer 103. A wireless path such as Wi-Fi is used. A communication protocol is used. A wired connection such as USB may be used for this communication path.

HMD102は現実空間と仮想空間とを融合させた空間である複合現実空間を体感するユーザの頭部に装着する、所謂頭部装着型表示装置の一例である。HMD102は、手持ち型のハンドヘルドディスプレイであってもよい。   The HMD 102 is an example of a so-called head-mounted display device that is worn on the head of a user who experiences a mixed reality space that is a space in which a real space and a virtual space are fused. The HMD 102 may be a handheld handheld display.

タブレットコンピュータ103は、タブレットコンピュータ103上の表示部に表示されるCGに対して、タッチ等の指示入力機能によりユーザからのアノテーション入力を受け付ける。そして、そのアノテーション入力を上記の通信路を会いして情報処理装置101に送出する。また、情報処理装置101によりアノテーションが付加された映像を表示画面に表示する機能も有している。タブレットコンピュータ103は、アノテーションを入力する機能を備えていればタブレットの形状に拘束されるものではなく、ディスプレイとキーボードを備えたPCとして実現されていてもいいし、マイクを備えて音声入力によってアノテーションを入力する機能を持ったデバイスであってもよい。   The tablet computer 103 accepts an annotation input from the user by an instruction input function such as touch on the CG displayed on the display unit on the tablet computer 103. Then, the annotation input is sent to the information processing apparatus 101 through the communication path. In addition, the information processing apparatus 101 has a function of displaying an image with an annotation on the display screen. The tablet computer 103 is not restricted by the shape of the tablet as long as it has a function for inputting annotations, and may be realized as a PC having a display and a keyboard, or may be annotated by voice input with a microphone. It may be a device having a function of inputting.

図2は、本発明の第1の実施形態の情報処理装置101の機能ブロック図である。図1と同様に、情報処理装置101は、頭部装着型の撮影・表示デバイスであるHMD102、アノテーション入力デバイスであるタブレットコンピュータ103に有線または無線で接続されている。図7は、本実施形態における情報装置101のハードウェア構成図である。同図において、CPU710は、バス700を介して接続する各デバイスを統括的に制御する。CPU710は、読み出し専用メモリ(ROM)720に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM720に記憶されており、ランダムアクセスメモリ(RAM)730に一時記憶され、CPU710によって適宜実行される。また、入力I/F740は、外部の装置(表示装置や操作装置など)から情報処理装置101で処理可能な形式で入力信号として入力する。また、出力I/F750は、外部の装置(HMD102、タブレットコンピュータ103)へ表示装置が処理可能な形式で出力信号として出力する。   FIG. 2 is a functional block diagram of the information processing apparatus 101 according to the first embodiment of this invention. As in FIG. 1, the information processing apparatus 101 is connected to an HMD 102 that is a head-mounted imaging / display device and a tablet computer 103 that is an annotation input device by wire or wirelessly. FIG. 7 is a hardware configuration diagram of the information apparatus 101 according to the present embodiment. In the figure, a CPU 710 comprehensively controls each device connected via a bus 700. The CPU 710 reads and executes processing steps and programs stored in a read-only memory (ROM) 720. In addition to the operating system (OS), each processing program, device driver, and the like according to the present embodiment are stored in the ROM 720, temporarily stored in a random access memory (RAM) 730, and appropriately executed by the CPU 710. The input I / F 740 is input as an input signal in a format that can be processed by the information processing apparatus 101 from an external device (such as a display device or an operation device). The output I / F 750 is output as an output signal to an external device (HMD 102, tablet computer 103) in a format that can be processed by the display device.

情報処理装置101は、頭部位置姿勢特定部204、視界取得部205、CGモデル206、仮想現実映像生成部207、アノテーション保持部208、アノテーション付加情報付与部209、アノテーション絞込み部210、アノテーション絞込み重畳部211を備える。   The information processing apparatus 101 includes a head position / posture specifying unit 204, a field of view acquisition unit 205, a CG model 206, a virtual reality video generation unit 207, an annotation holding unit 208, an annotation additional information adding unit 209, an annotation narrowing unit 210, and an annotation narrowing superposition. Part 211 is provided.

これらの各機能部は、CPU710が、ROM720に格納されたプログラムをRAM730に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU710を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   Each of these functional units is realized by the CPU 710 developing a program stored in the ROM 720 on the RAM 730 and executing processing according to each flowchart described below. Further, for example, when hardware is configured as an alternative to software processing using the CPU 710, an arithmetic unit or a circuit corresponding to the processing of each functional unit described here may be configured.

視界取得部205は、HMD102に内蔵されたカメラなどを通じて、HMD102で撮像された画像をシステムに入力する(画像取得)。   The field-of-view acquisition unit 205 inputs an image captured by the HMD 102 to the system through a camera or the like built in the HMD 102 (image acquisition).

頭部位置姿勢特定部204は、HMD102の現実空間内の3次元座標と、その姿勢を特定する。3次元座標と姿勢を特定するために、視界取得部205が取得した視界中に存在するマーカーや特徴点の情報を用いてもよいし、HMD102に接続された赤外線マーカー、磁気センサー、ジャイロセンサーなどの情報を用いてもよい。もちろん、複数のセンサーからの情報を複合して用いてもよい。   The head position / posture specifying unit 204 specifies three-dimensional coordinates in the real space of the HMD 102 and its posture. In order to specify the three-dimensional coordinates and posture, information on markers and feature points existing in the field of view acquired by the field of view acquisition unit 205 may be used, an infrared marker connected to the HMD 102, a magnetic sensor, a gyro sensor, etc. May be used. Of course, information from a plurality of sensors may be used in combination.

CGモデル206は、現実空間の映像と重畳させて表示するための仮想物体の形状を表すデータである。このデータはCADなどのソフトウェアを用いて人為的にデザインされたデータであってもよいし、レーザースキャナや複数台のカメラを用いて現実空間の計測データから再構築されたデータであってもよい。   The CG model 206 is data representing the shape of a virtual object to be displayed while being superimposed on a real space image. This data may be data artificially designed using software such as CAD, or data reconstructed from measurement data in real space using a laser scanner or a plurality of cameras. .

仮想現実映像生成部207は、視界取得部205が取得した現実空間の映像に、CGモデル206が表現する仮想物体とが合成された合成映像(合成画像)を生成する。本実施形態においては、ここで仮想現実映像生成部207が生成した合成映像はアノテーション絞り込み重畳部211に送出されるが、HMD102に対して直接出力されても良いし、HMD102とは異なる別の外部ディスプレイに表示しても構わない。外部ディスプレイとしては、例えば位置が固定された大画面のディスプレイを用いることができる。   The virtual reality video generation unit 207 generates a composite video (synthesized image) in which the virtual space represented by the CG model 206 is combined with the real space video acquired by the view acquisition unit 205. In the present embodiment, the composite video generated by the virtual reality video generation unit 207 is sent to the annotation narrowing and superimposing unit 211, but may be directly output to the HMD 102 or another external device different from the HMD 102. You may display on the display. As the external display, for example, a large screen display with a fixed position can be used.

アノテーション保持部208は、タブレットコンピュータ103によって入力されたアノテーション(アノテーション情報)を、CGモデル206が保持する仮想物体上の特定の部位と関連付けて保持しておく。ここでアノテーションが関連付けられる部位は、タブレットからタップ等の手段を用いて指定してもよいし、不図示のPCを介してマウスを用いた指定をしてもよいし、キーボードから部位の名称を直接入力することによって指定してもよい。   The annotation holding unit 208 holds the annotation (annotation information) input by the tablet computer 103 in association with a specific part on the virtual object held by the CG model 206. Here, the part to which the annotation is associated may be specified using means such as a tap from the tablet, may be specified using a mouse via a PC (not shown), or the part name may be specified from the keyboard. You may specify by inputting directly.

アノテーション付加情報付与部209は、アノテーション保持部208によって新たなアノテーションが追加された際に、何らかの付加情報を取得し、アノテーション保持部208中に保持されたアノテーションと関連付けて保持する。結果として、アノテーション保持部208は、入力されたアノテーション、仮想物体中の特定部位、付加情報を相互に関連付けて保持することになる。付加情報は、アノテーションが入力された時の、タブレットコンピュータ、タブレットコンピュータを操作するユーザ等の状態を示す情報である。   When a new annotation is added by the annotation holding unit 208, the annotation additional information adding unit 209 acquires some additional information and holds it in association with the annotation held in the annotation holding unit 208. As a result, the annotation holding unit 208 holds the input annotation, the specific part in the virtual object, and the additional information in association with each other. The additional information is information indicating the state of the tablet computer, the user operating the tablet computer, etc. when the annotation is input.

本実施形態において付加情報とは、アノテーションを追加する際に用いたタブレットコンピュータ103(入力装置)が保持する固有ID(入力装置固有ID)である。この固有IDはタブレットコンピュータの個体を識別するためのIDであって、複数枚のタブレットコンピュータを用いたアノテーション入力を行った場合に、いずれのタブレットによってアノテーションが追加されたかを特定する情報である。ここで固有IDは、タブレットを使用してアノテーションを入力する入力者ごとにあらかじめ割り振られたIDでもよく、タブレットの使用を開始する際、あるいはアノテーションを入力する前にIDを用いてログインすることによって、アノテーションを入力した人物を特定する情報であるとしてもよい。例えば、タブレットコンピュータ103を使ってアノテーション情報を入力するユーザを示すID(例えば、社員番号などの人物固有ID情報)であってもよい。   In the present embodiment, the additional information is a unique ID (input device unique ID) held by the tablet computer 103 (input device) used when adding an annotation. This unique ID is an ID for identifying an individual tablet computer, and is information that specifies which tablet has added the annotation when an annotation is input using a plurality of tablet computers. Here, the unique ID may be an ID allocated in advance for each input person who inputs an annotation using a tablet, or by logging in using the ID before starting the use of the tablet or before inputting the annotation. It may be information for specifying a person who has input an annotation. For example, an ID (for example, person-specific ID information such as an employee number) indicating a user who inputs annotation information using the tablet computer 103 may be used.

アノテーション絞込み部210は、アノテーション保持部208が保持する複数のアノテーションの中から、アノテーション付加情報付与部209によって付与された付加情報をキーとして絞り込みを行い、一部または全部のアノテーションを抽出する。ここでキーとなる付加情報を入力するのはタブレットコンピュータ103によってもよいし、情報処理装置101に接続されたマウスまたはキーボードなどの入力デバイスによってもよいし、HMD102の装着者がマイクやゲームコントローラなどを用いて入力するとしてもよい。もちろん、これら複数の手段を併用できるとしてもよい。   The annotation narrowing unit 210 narrows down using the additional information added by the annotation additional information adding unit 209 as a key from among the plurality of annotations held by the annotation holding unit 208, and extracts some or all of the annotations. Here, the additional information as a key may be input by the tablet computer 103, or may be input by an input device such as a mouse or a keyboard connected to the information processing apparatus 101. The wearer of the HMD 102 may input a microphone, a game controller, or the like. You may input using. Of course, these plural means may be used in combination.

アノテーション絞込み重畳部211は、アノテーション絞込み部210によって抽出されたアノテーションを、仮想現実映像生成部207によって生成された仮想現実映像にさらに重畳(合成)して、アノテーションを含む仮想現実映像を生成する。ここで生成された映像はHMD102に出力され、HMD102の装着者によって体験される。また、HMD102とは異なる、外部の位置が固定されたディスプレイに映像を出力しても良い。これにより、HMD102を装着していないユーザにとっても、映像を観察することができる。   The annotation narrowing and superimposing unit 211 further superimposes (synthesizes) the annotation extracted by the annotation narrowing unit 210 on the virtual reality video generated by the virtual reality video generating unit 207, thereby generating a virtual reality video including the annotation. The video generated here is output to the HMD 102 and experienced by the wearer of the HMD 102. Further, the video may be output to a display that is different from the HMD 102 and has a fixed external position. Thereby, a user who is not wearing the HMD 102 can also observe the video.

図5は、本実施形態において、アノテーション絞込み重畳部211によって、仮想現実画像にアノテーションが重畳(合成)された結果生成された画像を表すイメージ図である。   FIG. 5 is an image diagram showing an image generated as a result of the annotation being superimposed (synthesized) on the virtual reality image by the annotation narrowing and superimposing unit 211 in the present embodiment.

CGモデル206が表す形状データは、部品a(501)、部品b(502)、部品c(503)、部品d(504)の4つの部品から構成されている。さらに、アノテーション保持部208は上記4つの部品に対し、部品a(501)に対しアノテーション506、部品b(502)に対しアノテーション507、部品c(503)に対してアノテーション508、部品d(504)に対してアノテーション509をそれぞれ関連付けている。ここでアノテーション506は「部品A」という文字列、アノテーション507は「部品B」という文字列、アノテーション508は「部品C」という文字列、さらにアノテーション509は「部品D」という文字列がそれぞれ関連付けられていて、結果として上記文字列が仮想現実画像に重畳(合成)され、表示される。本図においては、各部品から看板のようなオブジェクトが飛び出しているように配置され、HMD装着者の視点に常に正対するように描画されるとしているが、アノテーションの表示形態、描画方法は任意であり、本実施形態の方法に限定されるものではない。   The shape data represented by the CG model 206 is composed of four parts: a part a (501), a part b (502), a part c (503), and a part d (504). Further, the annotation holding unit 208 performs the annotation 506 for the component a (501), the annotation 507 for the component b (502), the annotation 508 for the component c (503), and the component d (504) for the above four components. Are associated with annotations 509, respectively. Here, the annotation 506 is associated with the character string “component A”, the annotation 507 is associated with the character string “component B”, the annotation 508 is associated with the character string “component C”, and the annotation 509 is associated with the character string “component D”. As a result, the character string is superimposed (synthesized) on the virtual reality image and displayed. In this figure, an object such as a signboard is projected from each component and is drawn so as to always face the HMD wearer's viewpoint. However, the annotation display form and drawing method are arbitrary. There is no limitation to the method of this embodiment.

図3は、本発明の第1の実施形態において、アノテーション保持部208によってアノテーションが入力される際のシステムの振る舞いを表現したフローチャートである。   FIG. 3 is a flowchart expressing the behavior of the system when an annotation is input by the annotation holding unit 208 in the first embodiment of the present invention.

まず、アノテーションの入力が開始されると(S301)、アノテーション入力者(ユーザ)はアノテーションを付与する対象となる部品の入力を行う(S302)。ここで部品とは、CGモデル206が表す形状データの一部分である。   First, when input of an annotation is started (S301), an annotation input person (user) inputs a component to be annotated (S302). Here, the part is a part of shape data represented by the CG model 206.

次に、S303において、アノテーション入力者はアノテーションの入力を行う。アノテーションとはS302において特定された対象部品に関連付けられて保存される注釈であり、本実施形態ではアノテーションは文字列によるとしているが、画像や音声、その他のメディアデータであっても構わない。本実施形態においては、アノテーション入力者は手に持ったタブレットコンピュータ103を操作し、文字列を入力する。入力された文字列はネットワーク接続を介して情報処理装置101に送信され、アノテーション保持部208によって、アノテーション付与対象の部品を特定するIDと関連付けられて保持される。ここで付与対象の部品とはS302で入力された部品を表す。   Next, in S303, the annotation input person inputs an annotation. An annotation is an annotation stored in association with the target component specified in S302. In the present embodiment, the annotation is based on a character string, but may be an image, sound, or other media data. In the present embodiment, the annotation input person operates the tablet computer 103 held in his hand and inputs a character string. The input character string is transmitted to the information processing apparatus 101 via the network connection, and is held by the annotation holding unit 208 in association with the ID for specifying the part to be annotated. Here, the component to be assigned represents the component input in S302.

S304において、アノテーション付加情報付与部209は、アノテーション入力に利用したタブレットコンピュータ103の固有IDを取得する。この固有IDはタブレットコンピュータの個体を識別するためのIDである。この固有IDは、タブレットコンピュータを使用してアノテーションを入力する入力者ごとにあらかじめ割り振られたIDでもよく、タブレットコンピュータの使用を開始する際、あるいはアノテーションを入力する前にIDを用いてログインすることによって、アノテーションを入力した人物を特定する情報であるとしてもよい。   In step S304, the annotation additional information adding unit 209 acquires the unique ID of the tablet computer 103 used for the annotation input. This unique ID is an ID for identifying an individual tablet computer. This unique ID may be an ID assigned in advance for each input person who inputs an annotation using a tablet computer, and logs in using the ID when starting the use of the tablet computer or before inputting the annotation. May be information for identifying the person who has input the annotation.

S305において、アノテーション付加情報付与部209は、S304で取得した固有IDを、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the unique ID acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

以上の順序で、本実施形態におけるアノテーション入力操作は終了である(S306)。   In this order, the annotation input operation in this embodiment is completed (S306).

図6は、本実施形態におけるアノテーション保持部208が保持している情報のイメージである。   FIG. 6 is an image of information held by the annotation holding unit 208 in the present embodiment.

部品名601は、アノテーション付与対象部品を識別する名称である。ここで部品名は、アノテーション付与の対象となる部品を識別できれば何でもよく、システム内で一意に採番されたIDなど、可読性の低いものでも良い。   The component name 601 is a name for identifying the annotation target component. Here, the part name may be anything as long as the part to be annotated can be identified, and may be an item with low readability such as an ID uniquely assigned in the system.

アノテーション文字列602は、S303において入力された文字列である。ここに保持された情報が、アノテーションの本体として仮想現実映像に重畳表示される。本実施形態では文字列情報であるとしたが、アノテーションは映像、音声やそれらを組み合わせたメディアデータであってもよい。   The annotation character string 602 is the character string input in S303. The information held here is superimposed and displayed on the virtual reality video as the body of the annotation. In the present embodiment, the character string information is used. However, the annotation may be video, audio, or media data combining them.

付加情報・タブレット固有ID603は、本実施形態においてアノテーション付加情報付与部209が付与する付加情報である、タブレット固有IDである。   The additional information / tablet unique ID 603 is a tablet unique ID that is additional information provided by the annotation additional information adding unit 209 in the present embodiment.

本実施形態においては、これらの部品名601、アノテーション文字列620、付加情報・タブレット固有ID603が相互に関連付けられて保持されることになる。他の実施形態において、付加情報として固有ID以外の情報が使われるときは、付加情報・タブレット固有ID603の列に該当の固有情報が保持されることになる。ここで付加情報は複数種類あってもよく、その場合は付加情報を保持する行が複数行に渡ることになる。   In the present embodiment, the component name 601, the annotation character string 620, and the additional information / tablet unique ID 603 are held in association with each other. In other embodiments, when information other than a unique ID is used as additional information, the corresponding unique information is held in the column of additional information / tablet unique ID 603. Here, there may be a plurality of types of additional information. In such a case, the lines holding the additional information are spread over a plurality of lines.

図4は、本発明の第1の実施形態において、情報処理装置101によってアノテーションが重畳された仮想現実映像が生成される際のシステムの振る舞いを表現したフローチャートである。   FIG. 4 is a flowchart representing the behavior of the system when a virtual reality video on which an annotation is superimposed is generated by the information processing apparatus 101 in the first embodiment of the present invention.

まず、アノテーションの重畳表示を開始する(S401)。アノテーションの重畳表示は、システムの稼働中常に重畳表示されるとしてもよいし、通常はアノテーションを表示せずにHMD装着者の操作によってアノテーションの重畳表示を開始するとしてもよい。本発明によるアノテーションの絞込み表示機能は、アノテーション表示中常に有効であるとしてもよいし、HMD102の装着者の操作により、アノテーションの非表示、全アノテーションの表示、アノテーションの絞込み表示を任意に切り替えられるとしてもよい。   First, annotation overlay display is started (S401). The superimposed display of annotation may be always displayed while the system is operating, or normally, the superimposed display of annotation may be started by the operation of the HMD wearer without displaying the annotation. The annotation refinement display function according to the present invention may be always effective during annotation display, and it is possible to arbitrarily switch between annotation non-display, all annotation display, and annotation refinement display by the operation of the wearer of the HMD 102. Also good.

S402において、タブレットコンピュータ203はアノテーション保持部208が保持しているアノテーションの一覧を表示する。この一覧表示はS403において絞込み条件を選択して絞込みを行う前の参考表示であり、S402は省略してもかまわない。また、タブレットコンピュータ103でなく、情報処理装置101に接続された表示装置に表示してもかまわないし、タブレットでない表示デバイスに表示するとしてもかまわない。   In step S <b> 402, the tablet computer 203 displays a list of annotations held by the annotation holding unit 208. This list display is a reference display before the narrowing-down condition is selected and narrowed down in S403, and S402 may be omitted. Further, it may be displayed on a display device connected to the information processing apparatus 101 instead of the tablet computer 103, or may be displayed on a display device that is not a tablet.

S403において、タブレットコンピュータ103の操作者は一覧表示されたアノテーションを絞込むための条件を入力する。本実施形態においては、アノテーション入力時に使用したタブレットコンピュータの固有IDを条件として入力する。ここで条件の入力は、予め用意された選択肢から選択するとしてもよいし、入力デバイスとしてはマイクを用いた音声入力を用いてもよいし、マウスとキーボードを備えたPCにより入力してもかまわない。   In step S403, the operator of the tablet computer 103 inputs conditions for narrowing down the annotations displayed in a list. In this embodiment, the unique ID of the tablet computer used when inputting the annotation is input as a condition. Here, the condition input may be selected from options prepared in advance, a voice input using a microphone may be used as an input device, or a PC having a mouse and a keyboard may be used. Absent.

S404において、アノテーション絞込み部210はS403で入力された条件に合致する付加情報を持つアノテーションのみを選択的に表示する、絞込みを行う。本実施形態では、入力された固有IDと等しい固有IDを付加情報として持つアノテーションのみが表示されることになる。ここでは、条件に完全に一致するアノテーションのみを選択するとしてもよいし、ある一定の範囲で差異を持つアノテーションをすべて表示するとしてもよい。   In S404, the annotation narrowing unit 210 performs narrowing by selectively displaying only annotations having additional information that matches the condition input in S403. In the present embodiment, only annotations having a unique ID equal to the input unique ID as additional information are displayed. Here, only annotations that completely match the conditions may be selected, or all annotations that have differences within a certain range may be displayed.

S405において、アノテーション絞込み重畳部211はS404で絞込まれたアノテーションのみを仮想現実映像に重畳して表示する。結果として、HMD装着者は所望のアノテーションのみが表示された仮想現実映像を試聴することができ、多数のアノテーションに視界を妨げられる状況を軽減することが可能である。   In S405, the annotation narrowing and superimposing unit 211 superimposes and displays only the annotation narrowed down in S404 on the virtual reality video. As a result, the HMD wearer can audition a virtual reality image on which only a desired annotation is displayed, and can reduce the situation where the field of view is hindered by many annotations.

以上の順序で、本実施形態におけるアノテーション表示操作は終了である(S406)。   In this order, the annotation display operation in the present embodiment is finished (S406).

本実施形態によれば、アノテーションと、該アノテーションを入力したユーザのID(またはタブレットコンピュータ103のID)を保持しておくため、ユーザは、IDを使ってアノテーションを絞り込んで表示することが可能となる。   According to the present embodiment, since the annotation and the ID of the user who input the annotation (or the ID of the tablet computer 103) are stored, the user can narrow down and display the annotation using the ID. Become.

(第2の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、アノテーションが入力された時点での日付および時刻を取得する。
(Second Embodiment)
In S304 of the first embodiment, the annotation additional information adding unit 209 acquires the date and time when the annotation is input.

S305においてアノテーション付加情報付与部209は、S304で取得した日付および時刻を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the date and time acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

本実施形態によれば、アノテーションと、該アノテーションを入力した際の日付および時刻を関連付けて保持しておくため、ユーザは、指定した日付および時刻を使ってアノテーションを絞り込んで表示することが可能となる。   According to the present embodiment, since the annotation and the date and time when the annotation is input are stored in association with each other, the user can narrow down and display the annotation using the specified date and time. Become.

(第3の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、タブレットコンピュータ103の3次元空間上の位置と姿勢を取得する。ここで3次元空間上の位置と姿勢の取得は、タブレットコンピュータ103が備えるカメラによって取得した視界内に存在するマーカーや特徴点の情報を用いてもよいし、タブレットコンピュータに接続された赤外線センサー、磁気センサーなどの情報を用いてもよい。また、位置または姿勢のどちらかのみを取得し、他方の情報は使用しないとしてもよい。
(Third embodiment)
In S304 of the first embodiment, the annotation additional information adding unit 209 acquires the position and orientation of the tablet computer 103 in the three-dimensional space. Here, the acquisition of the position and orientation in the three-dimensional space may use information on markers and feature points existing in the field of view acquired by the camera included in the tablet computer 103, an infrared sensor connected to the tablet computer, Information such as a magnetic sensor may be used. Further, only one of the position and orientation may be acquired and the other information may not be used.

S305においてアノテーション付加情報付与部209は、S304で取得した3次元空間上の位置と姿勢を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the position and orientation in the three-dimensional space acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

本実施形態によれば、アノテーションと、該アノテーションを入力した際のタブレットコンピュータ103の位置と姿勢とを関連付けて保持しておくため、ユーザは、タブレットコンピュータ103の位置と姿勢に応じてアノテーションを絞り込んで表示することが可能となる。   According to the present embodiment, since the annotation and the position and orientation of the tablet computer 103 when the annotation is input are stored in association with each other, the user narrows down the annotation according to the position and orientation of the tablet computer 103. Can be displayed.

(第4の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、タブレットコンピュータ103でアノテーションを入力した時のHMD102の3次元空間上の位置と姿勢とを取得する。ここで3次元空間上の位置と姿勢の取得は、情報処理装置101が備える頭部位置姿勢特定部204の機能を用いてもよいし、第3の実施形態のタブレットコンピュータ103の位置と姿勢の取得に用いたようなその他の方法を用いてもよい。また、位置または姿勢のどちらかのみを取得し、他方の情報は使用しないとしてもよい。
(Fourth embodiment)
In S <b> 304 of the first embodiment, the annotation additional information adding unit 209 acquires the position and orientation of the HMD 102 in the three-dimensional space when the annotation is input by the tablet computer 103. Here, the acquisition of the position and orientation in the three-dimensional space may use the function of the head position and orientation identification unit 204 provided in the information processing apparatus 101, or the position and orientation of the tablet computer 103 of the third embodiment. Other methods such as those used for acquisition may be used. Further, only one of the position and orientation may be acquired and the other information may not be used.

S305においてアノテーション付加情報付与部209は、S304で取得した3次元空間上の位置と姿勢を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the position and orientation in the three-dimensional space acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

本実施形態によれば、アノテーションと、該アノテーションを入力した時のHMD102の位置と姿勢とを関連付けて保持しておくため、ユーザは、HMD102の位置と姿勢に応じてアノテーションを絞り込んで表示することが可能となる。   According to this embodiment, since the annotation and the position and orientation of the HMD 102 when the annotation is input are stored in association with each other, the user can narrow down and display the annotation according to the position and orientation of the HMD 102. Is possible.

(第5の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、HMD102の装着者が保持するデバイスの3次元空間上の位置と姿勢を取得する。ここでデバイスとは位置と姿勢が取得可能なデバイスであれば何でもよい。また、デバイスの3次元空間上の位置と姿勢の取得は、第3の実施形態におけるタブレットコンピュータ103の位置の取得に用いたような方法を用いることができる。また、位置または姿勢のどちらかのみを取得し、他方の情報は使用しないとしてもよい。
(Fifth embodiment)
In S304 of the first embodiment, the annotation additional information adding unit 209 acquires the position and orientation of the device held by the wearer of the HMD 102 in the three-dimensional space. Here, the device may be any device that can acquire the position and orientation. In addition, the acquisition of the position and orientation of the device in the three-dimensional space can be performed using the method used for acquiring the position of the tablet computer 103 in the third embodiment. Further, only one of the position and orientation may be acquired and the other information may not be used.

S305においてアノテーション付加情報付与部209は、S304で取得した3次元空間上の位置を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the position in the three-dimensional space acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

本実施形態によれば、アノテーションと、該アノテーションを入力した際のデバイスの位置と姿勢とを関連付けて保持しておくため、ユーザは、デバイスの位置と姿勢に応じてアノテーションを絞り込んで表示することが可能となる。   According to the present embodiment, since the annotation and the position and orientation of the device when the annotation is input are stored in association with each other, the user can narrow down and display the annotation according to the position and orientation of the device. Is possible.

(第6の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、HMD102と、HMD102の装着者が保持するデバイスの3次元空間上の相対的な位置を取得する。ここでデバイスとは位置が取得可能なデバイスであれば何でもよい。また、HMD102とデバイスの3次元空間上の位置の取得は、第3の実施形態におけるタブレットコンピュータ103の位置の取得に用いたような方法を用いることができる。また、第3の実施形態におけるタブレットコンピュータ103の姿勢の取得に用いたような方法を用いてHMD102とデバイスの姿勢を取得し、相対的な姿勢を位置に加えて付加情報として利用してもよい。
(Sixth embodiment)
In S304 of the first embodiment, the annotation additional information adding unit 209 acquires the relative positions of the HMD 102 and the devices held by the wearer of the HMD 102 in the three-dimensional space. Here, the device may be any device that can acquire the position. Further, the position of the HMD 102 and the device in the three-dimensional space can be acquired by using the method used for acquiring the position of the tablet computer 103 in the third embodiment. In addition, the attitude of the HMD 102 and the device may be acquired using the method used for acquiring the attitude of the tablet computer 103 in the third embodiment, and the relative attitude may be used as additional information in addition to the position. .

S305において、アノテーション付加情報付与部209は、S304で取得した相対位置を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the relative position acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

(第7の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、第3〜6の実施形態において取得した付加情報のうち複数を同時に取得する。
(Seventh embodiment)
In S304 of the first embodiment, the annotation additional information adding unit 209 simultaneously acquires a plurality of additional information acquired in the third to sixth embodiments.

S305においてアノテーション付加情報付与部209は、S304で取得した複数の付加情報を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。   In S305, the annotation additional information adding unit 209 holds the plurality of additional information acquired in S304 in association with the annotation input in S303. As a result, the annotation addition target component input in S302, the annotation character string input in S303, and the additional information acquired in S304 are held in association with each other.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (12)

仮想物体を含む画像を取得する画像取得手段と、
前記仮想物体上の部位ごとに、該部位を示すアノテーション情報と該アノテーション情報が入力された時の状態を示す付加情報とを関連付けて保持する保持手段と、
ユーザから入力される、前記付加情報に対応する情報を取得する取得手段と、
前記情報に基づいて、前記保持手段に保持される前記仮想物体上の部位ごとの前記アノテーション情報から、表示するアノテーション情報を選択する選択手段と、
前記選択されたアノテーション情報と前記画像とが合成された合成画像を生成する生成手段と、
前記合成画像を出力する出力手段とを備えることを特徴とする情報処理装置。
Image acquisition means for acquiring an image including a virtual object;
Holding means for holding, for each part on the virtual object, annotation information indicating the part and additional information indicating a state when the annotation information is input;
Obtaining means for obtaining information corresponding to the additional information input from a user;
Selection means for selecting annotation information to be displayed from the annotation information for each part on the virtual object held in the holding means based on the information;
Generating means for generating a composite image in which the selected annotation information and the image are combined;
An information processing apparatus comprising: output means for outputting the composite image.
前記選択手段は、前記ユーザから入力される情報に対応する付加情報に関連付けられたアノテーション情報を選択することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the selection unit selects annotation information associated with additional information corresponding to information input from the user. 前記付加情報は、前記アノテーション情報を入力した入力装置固有の情報であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the additional information is information specific to an input apparatus that inputs the annotation information. 前記付加情報は、前記アノテーション情報を入力した人物固有の情報であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the additional information is information unique to a person who has input the annotation information. 前記付加情報は、前記アノテーション情報を入力時の日付または時刻を表す情報であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the additional information is information representing a date or time when the annotation information is input. 前記付加情報は、前記アノテーション情報を入力した際の、前記アノテーション情報を入力するのに用いられた入力装置の位置および/または姿勢であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the additional information is a position and / or orientation of an input device used to input the annotation information when the annotation information is input. 前記付加情報は、前記アノテーション情報を入力した際の、前記アノテーション情報を入力するのに用いられた入力装置に接続されたHMDの位置および/または姿勢であることを特徴とする請求項1に記載の情報処理装置。   2. The additional information is a position and / or orientation of an HMD connected to an input device used to input the annotation information when the annotation information is input. Information processing device. 前記付加情報は、前記アノテーション情報を入力した際の、前記アノテーション情報を入力するのに用いられた入力装置に接続されたHMDを装着するユーザの保持するデバイスの位置および/または姿勢であることを特徴とする請求項1に記載の情報処理装置。   The additional information is a position and / or posture of a device held by a user wearing an HMD connected to the input device used to input the annotation information when the annotation information is input. The information processing apparatus according to claim 1. 更に、前記アノテーション情報を入力する入力装置を備えることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an input device that inputs the annotation information. 更に、ユーザが頭部に装着するための頭部装着型表示装置を備え、
前記出力手段は、前記頭部装着型表示装置に前記合成画像を出力することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
Furthermore, a head-mounted display device for the user to wear on the head is provided,
The information processing apparatus according to claim 1, wherein the output unit outputs the composite image to the head-mounted display device.
仮想物体を含む画像を取得する画像取得ステップと、
ユーザから入力される、前記付加情報に対応する情報を取得する取得ステップと、
前記仮想物体上の部位ごとに、該部位を示すアノテーション情報と該アノテーション情報が入力された時の状態を示す付加情報とを関連付けて保持する保持手段に保持される前記仮想物体上の部位ごとの前記アノテーション情報から、前記付加情報に基づいて、表示するアノテーション情報を選択する選択ステップと、
前記選択されたアノテーション情報と前記画像とが合成された合成画像を生成する生成ステップと、
前記合成画像を出力する出力ステップとを備えることを特徴とする情報処理装置。
An image acquisition step of acquiring an image including a virtual object;
An acquisition step of acquiring information corresponding to the additional information input from a user;
For each part on the virtual object, the annotation information indicating the part and the additional information indicating the state when the annotation information is input are stored in association with each other. A selection step of selecting annotation information to be displayed based on the additional information from the annotation information;
A generation step of generating a composite image in which the selected annotation information and the image are combined;
An information processing apparatus comprising: an output step for outputting the composite image.
コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 10.
JP2015124266A 2015-06-19 2015-06-19 Information processing apparatus, information processing method, and program Pending JP2017010228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015124266A JP2017010228A (en) 2015-06-19 2015-06-19 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124266A JP2017010228A (en) 2015-06-19 2015-06-19 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2017010228A true JP2017010228A (en) 2017-01-12

Family

ID=57763602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124266A Pending JP2017010228A (en) 2015-06-19 2015-06-19 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2017010228A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128817A (en) * 2017-02-08 2018-08-16 株式会社コロプラ Method to be executed by computer for performing communication via virtual space, program for causing computer to execute the same method, and information control device
JP7404139B2 (en) 2020-04-07 2023-12-25 シャープ株式会社 Display control system, display control method, and display control program
JP7438827B2 (en) 2020-04-07 2024-02-27 シャープ株式会社 Display control system, display control method, and display control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128817A (en) * 2017-02-08 2018-08-16 株式会社コロプラ Method to be executed by computer for performing communication via virtual space, program for causing computer to execute the same method, and information control device
JP7404139B2 (en) 2020-04-07 2023-12-25 シャープ株式会社 Display control system, display control method, and display control program
JP7438827B2 (en) 2020-04-07 2024-02-27 シャープ株式会社 Display control system, display control method, and display control program

Similar Documents

Publication Publication Date Title
TWI610097B (en) Electronic system, portable display device and guiding device
JP6585929B2 (en) System, control method of system
EP3166319A1 (en) Information processing device, information processing method, and program
JP5777786B1 (en) Information processing apparatus, information processing method, and program
JP4757115B2 (en) Image processing apparatus and image processing method
JP2020514909A (en) Mixed reality system with multi-source virtual content composition and method of using the same to generate virtual content
JP2011028309A5 (en)
JP6920057B2 (en) Image processing equipment, image processing method, computer program
US10950050B2 (en) Information processing device, information processing method, and program for planning and execution of work plan
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP6775957B2 (en) Information processing equipment, information processing methods, programs
US20160379591A1 (en) Information processing apparatus, control method, and storage medium
JP2015125641A (en) Information processing device, control method therefor, and program
CN110573992B (en) Editing augmented reality experiences using augmented reality and virtual reality
JP2007004713A (en) Image processing method and image processor
JP2017010228A (en) Information processing apparatus, information processing method, and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2021135776A (en) Information processor, information processing method, and program
JP2005339377A (en) Image processing method and image processor
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP5161544B2 (en) Image display system
US20190243461A1 (en) Cable movable region display device, cable movable region display method, and cable movable region display program
JP2014203194A (en) Virtual object display control apparatus, virtual object display control method, and program
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
JP2010146285A (en) Image processing system and image processing method