JP2017010228A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2017010228A JP2017010228A JP2015124266A JP2015124266A JP2017010228A JP 2017010228 A JP2017010228 A JP 2017010228A JP 2015124266 A JP2015124266 A JP 2015124266A JP 2015124266 A JP2015124266 A JP 2015124266A JP 2017010228 A JP2017010228 A JP 2017010228A
- Authority
- JP
- Japan
- Prior art keywords
- information
- annotation
- input
- processing apparatus
- additional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複合現実感を提供するための情報処理装置、情報処理方法、プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program for providing mixed reality.
現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想現実空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。 In recent years, research on mixed reality (MR) for the purpose of seamless connection between a real space and a virtual space has been actively conducted. An image display device that presents mixed reality is, for example, a device having the following configuration. That is, a virtual reality space image (for example, a virtual object or character information drawn by computer graphics) generated according to the position and orientation of the imaging device on an image of the real space captured by an imaging device such as a video camera. Is a device that displays an image in which the image is superimposed and drawn. For such an apparatus, for example, an HMD (head mounted display, head mounted display) can be used.
また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想現実空間の画像を表示する光学シースルー方式によっても実現される。 The image display apparatus is also realized by an optical see-through method that displays an image of a virtual reality space generated according to the position and orientation of the observer's viewpoint on an optical see-through display mounted on the observer's head. Is done.
このような画像表示装置の応用として、自動車・航空機などの製造業において開発中の製品をコンピュータグラフィックス(CG)映像として現実世界に重畳表示し、自由な視点から確認、検討することで実寸大の模型を作製せずにデザイン等の検討を行うことができる。 As an application of such an image display device, products under development in the manufacturing industry such as automobiles and airplanes are superimposed and displayed in the real world as computer graphics (CG) images, and they are confirmed and examined from a free perspective. The design etc. can be examined without making a model.
このような応用例では、多人数が参加した検討を行う場合は多数のHMDが必要になることから、タブレットなどの安価なデバイスを用いて検討に参加できるシステムがある。このシステムは、HMDを装着した人物が見ている、現実世界とCGの重畳された画面をそのままタブレット画面に表示し、HMDを装着した人物と視界を共有することによって検討に参加できるようにするものである。 In such an application example, since a large number of HMDs are required when a study involving a large number of people is performed, there is a system that can participate in the study using an inexpensive device such as a tablet. This system allows the person wearing the HMD to see the real-world and CG-superimposed screen displayed on the tablet screen as it is, and to participate in the study by sharing the field of view with the person wearing the HMD. Is.
さらにHMDを用いた検討では、検討中に得られた知見や備忘録等をCG映像中の特定部位と関連付けて保存しておくことが行われる。ここで保存した情報はアノテーションと呼ばれ、HMDの装着者は、現実世界に重畳されたCG映像の特定部位上にさらにアノテーション文字列を重畳表示し、検討時の記録とすることでさらに効果的な検討を行うことが可能である。 Further, in the examination using the HMD, the knowledge or memorandum obtained during the examination is stored in association with a specific part in the CG video. The information stored here is called annotation, and the HMD wearer can display the annotation character string superimposed on a specific part of the CG image superimposed in the real world and record it at the time of examination. Can be considered.
しかしながら、HMDを通して、複数のアノテーションが関連付けられたCG映像を閲覧する際、重畳表示された複数のアノテーションがHMD装着者の視界を妨げてしまうことがある。 However, when browsing a CG image associated with a plurality of annotations through the HMD, the plurality of superimposed annotations may interfere with the view of the HMD wearer.
そこで、特許文献1に開示される方法では、HMD装着者が保持する指示装置によってCG中の部位を選択し、該選択された部位に対応するアノテーションのみを表示する方法を開示している。
Therefore, the method disclosed in
しかしながら、特許文献1の方法では、選択したアノテーションのみしか表示されないため、ある特定の条件下で付与されたアノテーションを一括して表示するようなことができなかった。
However, in the method of
本発明は、上記の課題に鑑みてなされたものであり、特定の条件に応じたアノテーションを選択して表示することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to select and display annotations according to specific conditions.
上記の課題を解決するために、本発明の情報処理装置は、例えば、仮想物体を含む画像を取得する画像取得手段と、前記仮想物体上の部位ごとに、該部位を示すアノテーション情報と該アノテーション情報が入力された時の状態を示す付加情報とを関連付けて保持する保持手段と、ユーザから入力される、前記付加情報に対応する情報を取得手段と、前記保持手段に保持される前記仮想物体上の部位ごとの前記アノテーション情報から、前記付加情報に基づいて、表示するアノテーション情報を選択する選択手段と、前記選択されたアノテーション情報と前記画像とが合成された合成画像を生成する生成手段と、前記合成画像を出力する出力手段とを備える。 In order to solve the above problems, an information processing apparatus according to the present invention includes, for example, an image acquisition unit that acquires an image including a virtual object, annotation information indicating the part for each part on the virtual object, and the annotation Holding means for associating and holding additional information indicating a state when information is input; acquisition means for receiving information corresponding to the additional information input by a user; and the virtual object held by the holding means Selection means for selecting annotation information to be displayed based on the additional information, and generation means for generating a composite image in which the selected annotation information and the image are combined, from the annotation information for each part above And an output means for outputting the composite image.
本発明の構成によれば、特定の条件に応じたアノテーションを選択して表示することができる。 According to the configuration of the present invention, it is possible to select and display annotations according to specific conditions.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments having the configurations described in the claims.
(第1の実施形態)
図1は、本発明の第1の実施形態の情報処理装置101を用いたシステム構成を表す図である。
(First embodiment)
FIG. 1 is a diagram illustrating a system configuration using the
情報処理装置101とHMD104は、通信路104で接続されている。通信路104は、情報処理装置101で生成された映像をHMD102に送信するため、およびHMD102で取得された現実映像を仮想現実表示デバイス101に送信するために使われる通信路で、HDMI(登録商標)やIEEE1394などの映像送受信プロトコルが使用される。この通信路はUSBやEthernet(登録商標)などのデータ通信路を用いてもよいし、Wi−Fiなどの無線通信プロトコルを用いても良い。
The
同様に、情報処理装置101とタブレットコンピュータ103は通信路105で接続されている。通信路105はタブレットコンピュータ103から仮想現実表示デバイス101へコマンドを送信するため、および情報処理装置101からタブレットコンピュータ103へアノテーションに関する情報を送信するために使われる通信路で、Wi−Fiなどの無線通信プロトコルが使用される。この通信路にはUSBなどの有線接続を用いてもよい。
Similarly, the
HMD102は現実空間と仮想空間とを融合させた空間である複合現実空間を体感するユーザの頭部に装着する、所謂頭部装着型表示装置の一例である。HMD102は、手持ち型のハンドヘルドディスプレイであってもよい。 The HMD 102 is an example of a so-called head-mounted display device that is worn on the head of a user who experiences a mixed reality space that is a space in which a real space and a virtual space are fused. The HMD 102 may be a handheld handheld display.
タブレットコンピュータ103は、タブレットコンピュータ103上の表示部に表示されるCGに対して、タッチ等の指示入力機能によりユーザからのアノテーション入力を受け付ける。そして、そのアノテーション入力を上記の通信路を会いして情報処理装置101に送出する。また、情報処理装置101によりアノテーションが付加された映像を表示画面に表示する機能も有している。タブレットコンピュータ103は、アノテーションを入力する機能を備えていればタブレットの形状に拘束されるものではなく、ディスプレイとキーボードを備えたPCとして実現されていてもいいし、マイクを備えて音声入力によってアノテーションを入力する機能を持ったデバイスであってもよい。
The
図2は、本発明の第1の実施形態の情報処理装置101の機能ブロック図である。図1と同様に、情報処理装置101は、頭部装着型の撮影・表示デバイスであるHMD102、アノテーション入力デバイスであるタブレットコンピュータ103に有線または無線で接続されている。図7は、本実施形態における情報装置101のハードウェア構成図である。同図において、CPU710は、バス700を介して接続する各デバイスを統括的に制御する。CPU710は、読み出し専用メモリ(ROM)720に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM720に記憶されており、ランダムアクセスメモリ(RAM)730に一時記憶され、CPU710によって適宜実行される。また、入力I/F740は、外部の装置(表示装置や操作装置など)から情報処理装置101で処理可能な形式で入力信号として入力する。また、出力I/F750は、外部の装置(HMD102、タブレットコンピュータ103)へ表示装置が処理可能な形式で出力信号として出力する。
FIG. 2 is a functional block diagram of the
情報処理装置101は、頭部位置姿勢特定部204、視界取得部205、CGモデル206、仮想現実映像生成部207、アノテーション保持部208、アノテーション付加情報付与部209、アノテーション絞込み部210、アノテーション絞込み重畳部211を備える。
The
これらの各機能部は、CPU710が、ROM720に格納されたプログラムをRAM730に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU710を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
Each of these functional units is realized by the
視界取得部205は、HMD102に内蔵されたカメラなどを通じて、HMD102で撮像された画像をシステムに入力する(画像取得)。
The field-of-
頭部位置姿勢特定部204は、HMD102の現実空間内の3次元座標と、その姿勢を特定する。3次元座標と姿勢を特定するために、視界取得部205が取得した視界中に存在するマーカーや特徴点の情報を用いてもよいし、HMD102に接続された赤外線マーカー、磁気センサー、ジャイロセンサーなどの情報を用いてもよい。もちろん、複数のセンサーからの情報を複合して用いてもよい。
The head position /
CGモデル206は、現実空間の映像と重畳させて表示するための仮想物体の形状を表すデータである。このデータはCADなどのソフトウェアを用いて人為的にデザインされたデータであってもよいし、レーザースキャナや複数台のカメラを用いて現実空間の計測データから再構築されたデータであってもよい。
The
仮想現実映像生成部207は、視界取得部205が取得した現実空間の映像に、CGモデル206が表現する仮想物体とが合成された合成映像(合成画像)を生成する。本実施形態においては、ここで仮想現実映像生成部207が生成した合成映像はアノテーション絞り込み重畳部211に送出されるが、HMD102に対して直接出力されても良いし、HMD102とは異なる別の外部ディスプレイに表示しても構わない。外部ディスプレイとしては、例えば位置が固定された大画面のディスプレイを用いることができる。
The virtual reality
アノテーション保持部208は、タブレットコンピュータ103によって入力されたアノテーション(アノテーション情報)を、CGモデル206が保持する仮想物体上の特定の部位と関連付けて保持しておく。ここでアノテーションが関連付けられる部位は、タブレットからタップ等の手段を用いて指定してもよいし、不図示のPCを介してマウスを用いた指定をしてもよいし、キーボードから部位の名称を直接入力することによって指定してもよい。
The
アノテーション付加情報付与部209は、アノテーション保持部208によって新たなアノテーションが追加された際に、何らかの付加情報を取得し、アノテーション保持部208中に保持されたアノテーションと関連付けて保持する。結果として、アノテーション保持部208は、入力されたアノテーション、仮想物体中の特定部位、付加情報を相互に関連付けて保持することになる。付加情報は、アノテーションが入力された時の、タブレットコンピュータ、タブレットコンピュータを操作するユーザ等の状態を示す情報である。
When a new annotation is added by the
本実施形態において付加情報とは、アノテーションを追加する際に用いたタブレットコンピュータ103(入力装置)が保持する固有ID(入力装置固有ID)である。この固有IDはタブレットコンピュータの個体を識別するためのIDであって、複数枚のタブレットコンピュータを用いたアノテーション入力を行った場合に、いずれのタブレットによってアノテーションが追加されたかを特定する情報である。ここで固有IDは、タブレットを使用してアノテーションを入力する入力者ごとにあらかじめ割り振られたIDでもよく、タブレットの使用を開始する際、あるいはアノテーションを入力する前にIDを用いてログインすることによって、アノテーションを入力した人物を特定する情報であるとしてもよい。例えば、タブレットコンピュータ103を使ってアノテーション情報を入力するユーザを示すID(例えば、社員番号などの人物固有ID情報)であってもよい。
In the present embodiment, the additional information is a unique ID (input device unique ID) held by the tablet computer 103 (input device) used when adding an annotation. This unique ID is an ID for identifying an individual tablet computer, and is information that specifies which tablet has added the annotation when an annotation is input using a plurality of tablet computers. Here, the unique ID may be an ID allocated in advance for each input person who inputs an annotation using a tablet, or by logging in using the ID before starting the use of the tablet or before inputting the annotation. It may be information for specifying a person who has input an annotation. For example, an ID (for example, person-specific ID information such as an employee number) indicating a user who inputs annotation information using the
アノテーション絞込み部210は、アノテーション保持部208が保持する複数のアノテーションの中から、アノテーション付加情報付与部209によって付与された付加情報をキーとして絞り込みを行い、一部または全部のアノテーションを抽出する。ここでキーとなる付加情報を入力するのはタブレットコンピュータ103によってもよいし、情報処理装置101に接続されたマウスまたはキーボードなどの入力デバイスによってもよいし、HMD102の装着者がマイクやゲームコントローラなどを用いて入力するとしてもよい。もちろん、これら複数の手段を併用できるとしてもよい。
The
アノテーション絞込み重畳部211は、アノテーション絞込み部210によって抽出されたアノテーションを、仮想現実映像生成部207によって生成された仮想現実映像にさらに重畳(合成)して、アノテーションを含む仮想現実映像を生成する。ここで生成された映像はHMD102に出力され、HMD102の装着者によって体験される。また、HMD102とは異なる、外部の位置が固定されたディスプレイに映像を出力しても良い。これにより、HMD102を装着していないユーザにとっても、映像を観察することができる。
The annotation narrowing and superimposing unit 211 further superimposes (synthesizes) the annotation extracted by the
図5は、本実施形態において、アノテーション絞込み重畳部211によって、仮想現実画像にアノテーションが重畳(合成)された結果生成された画像を表すイメージ図である。 FIG. 5 is an image diagram showing an image generated as a result of the annotation being superimposed (synthesized) on the virtual reality image by the annotation narrowing and superimposing unit 211 in the present embodiment.
CGモデル206が表す形状データは、部品a(501)、部品b(502)、部品c(503)、部品d(504)の4つの部品から構成されている。さらに、アノテーション保持部208は上記4つの部品に対し、部品a(501)に対しアノテーション506、部品b(502)に対しアノテーション507、部品c(503)に対してアノテーション508、部品d(504)に対してアノテーション509をそれぞれ関連付けている。ここでアノテーション506は「部品A」という文字列、アノテーション507は「部品B」という文字列、アノテーション508は「部品C」という文字列、さらにアノテーション509は「部品D」という文字列がそれぞれ関連付けられていて、結果として上記文字列が仮想現実画像に重畳(合成)され、表示される。本図においては、各部品から看板のようなオブジェクトが飛び出しているように配置され、HMD装着者の視点に常に正対するように描画されるとしているが、アノテーションの表示形態、描画方法は任意であり、本実施形態の方法に限定されるものではない。
The shape data represented by the
図3は、本発明の第1の実施形態において、アノテーション保持部208によってアノテーションが入力される際のシステムの振る舞いを表現したフローチャートである。
FIG. 3 is a flowchart expressing the behavior of the system when an annotation is input by the
まず、アノテーションの入力が開始されると(S301)、アノテーション入力者(ユーザ)はアノテーションを付与する対象となる部品の入力を行う(S302)。ここで部品とは、CGモデル206が表す形状データの一部分である。
First, when input of an annotation is started (S301), an annotation input person (user) inputs a component to be annotated (S302). Here, the part is a part of shape data represented by the
次に、S303において、アノテーション入力者はアノテーションの入力を行う。アノテーションとはS302において特定された対象部品に関連付けられて保存される注釈であり、本実施形態ではアノテーションは文字列によるとしているが、画像や音声、その他のメディアデータであっても構わない。本実施形態においては、アノテーション入力者は手に持ったタブレットコンピュータ103を操作し、文字列を入力する。入力された文字列はネットワーク接続を介して情報処理装置101に送信され、アノテーション保持部208によって、アノテーション付与対象の部品を特定するIDと関連付けられて保持される。ここで付与対象の部品とはS302で入力された部品を表す。
Next, in S303, the annotation input person inputs an annotation. An annotation is an annotation stored in association with the target component specified in S302. In the present embodiment, the annotation is based on a character string, but may be an image, sound, or other media data. In the present embodiment, the annotation input person operates the
S304において、アノテーション付加情報付与部209は、アノテーション入力に利用したタブレットコンピュータ103の固有IDを取得する。この固有IDはタブレットコンピュータの個体を識別するためのIDである。この固有IDは、タブレットコンピュータを使用してアノテーションを入力する入力者ごとにあらかじめ割り振られたIDでもよく、タブレットコンピュータの使用を開始する際、あるいはアノテーションを入力する前にIDを用いてログインすることによって、アノテーションを入力した人物を特定する情報であるとしてもよい。
In step S304, the annotation additional
S305において、アノテーション付加情報付与部209は、S304で取得した固有IDを、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
以上の順序で、本実施形態におけるアノテーション入力操作は終了である(S306)。 In this order, the annotation input operation in this embodiment is completed (S306).
図6は、本実施形態におけるアノテーション保持部208が保持している情報のイメージである。
FIG. 6 is an image of information held by the
部品名601は、アノテーション付与対象部品を識別する名称である。ここで部品名は、アノテーション付与の対象となる部品を識別できれば何でもよく、システム内で一意に採番されたIDなど、可読性の低いものでも良い。
The
アノテーション文字列602は、S303において入力された文字列である。ここに保持された情報が、アノテーションの本体として仮想現実映像に重畳表示される。本実施形態では文字列情報であるとしたが、アノテーションは映像、音声やそれらを組み合わせたメディアデータであってもよい。
The
付加情報・タブレット固有ID603は、本実施形態においてアノテーション付加情報付与部209が付与する付加情報である、タブレット固有IDである。
The additional information / tablet
本実施形態においては、これらの部品名601、アノテーション文字列620、付加情報・タブレット固有ID603が相互に関連付けられて保持されることになる。他の実施形態において、付加情報として固有ID以外の情報が使われるときは、付加情報・タブレット固有ID603の列に該当の固有情報が保持されることになる。ここで付加情報は複数種類あってもよく、その場合は付加情報を保持する行が複数行に渡ることになる。
In the present embodiment, the
図4は、本発明の第1の実施形態において、情報処理装置101によってアノテーションが重畳された仮想現実映像が生成される際のシステムの振る舞いを表現したフローチャートである。
FIG. 4 is a flowchart representing the behavior of the system when a virtual reality video on which an annotation is superimposed is generated by the
まず、アノテーションの重畳表示を開始する(S401)。アノテーションの重畳表示は、システムの稼働中常に重畳表示されるとしてもよいし、通常はアノテーションを表示せずにHMD装着者の操作によってアノテーションの重畳表示を開始するとしてもよい。本発明によるアノテーションの絞込み表示機能は、アノテーション表示中常に有効であるとしてもよいし、HMD102の装着者の操作により、アノテーションの非表示、全アノテーションの表示、アノテーションの絞込み表示を任意に切り替えられるとしてもよい。
First, annotation overlay display is started (S401). The superimposed display of annotation may be always displayed while the system is operating, or normally, the superimposed display of annotation may be started by the operation of the HMD wearer without displaying the annotation. The annotation refinement display function according to the present invention may be always effective during annotation display, and it is possible to arbitrarily switch between annotation non-display, all annotation display, and annotation refinement display by the operation of the wearer of the
S402において、タブレットコンピュータ203はアノテーション保持部208が保持しているアノテーションの一覧を表示する。この一覧表示はS403において絞込み条件を選択して絞込みを行う前の参考表示であり、S402は省略してもかまわない。また、タブレットコンピュータ103でなく、情報処理装置101に接続された表示装置に表示してもかまわないし、タブレットでない表示デバイスに表示するとしてもかまわない。
In step S <b> 402, the tablet computer 203 displays a list of annotations held by the
S403において、タブレットコンピュータ103の操作者は一覧表示されたアノテーションを絞込むための条件を入力する。本実施形態においては、アノテーション入力時に使用したタブレットコンピュータの固有IDを条件として入力する。ここで条件の入力は、予め用意された選択肢から選択するとしてもよいし、入力デバイスとしてはマイクを用いた音声入力を用いてもよいし、マウスとキーボードを備えたPCにより入力してもかまわない。
In step S403, the operator of the
S404において、アノテーション絞込み部210はS403で入力された条件に合致する付加情報を持つアノテーションのみを選択的に表示する、絞込みを行う。本実施形態では、入力された固有IDと等しい固有IDを付加情報として持つアノテーションのみが表示されることになる。ここでは、条件に完全に一致するアノテーションのみを選択するとしてもよいし、ある一定の範囲で差異を持つアノテーションをすべて表示するとしてもよい。
In S404, the
S405において、アノテーション絞込み重畳部211はS404で絞込まれたアノテーションのみを仮想現実映像に重畳して表示する。結果として、HMD装着者は所望のアノテーションのみが表示された仮想現実映像を試聴することができ、多数のアノテーションに視界を妨げられる状況を軽減することが可能である。 In S405, the annotation narrowing and superimposing unit 211 superimposes and displays only the annotation narrowed down in S404 on the virtual reality video. As a result, the HMD wearer can audition a virtual reality image on which only a desired annotation is displayed, and can reduce the situation where the field of view is hindered by many annotations.
以上の順序で、本実施形態におけるアノテーション表示操作は終了である(S406)。 In this order, the annotation display operation in the present embodiment is finished (S406).
本実施形態によれば、アノテーションと、該アノテーションを入力したユーザのID(またはタブレットコンピュータ103のID)を保持しておくため、ユーザは、IDを使ってアノテーションを絞り込んで表示することが可能となる。 According to the present embodiment, since the annotation and the ID of the user who input the annotation (or the ID of the tablet computer 103) are stored, the user can narrow down and display the annotation using the ID. Become.
(第2の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、アノテーションが入力された時点での日付および時刻を取得する。
(Second Embodiment)
In S304 of the first embodiment, the annotation additional
S305においてアノテーション付加情報付与部209は、S304で取得した日付および時刻を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
本実施形態によれば、アノテーションと、該アノテーションを入力した際の日付および時刻を関連付けて保持しておくため、ユーザは、指定した日付および時刻を使ってアノテーションを絞り込んで表示することが可能となる。 According to the present embodiment, since the annotation and the date and time when the annotation is input are stored in association with each other, the user can narrow down and display the annotation using the specified date and time. Become.
(第3の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、タブレットコンピュータ103の3次元空間上の位置と姿勢を取得する。ここで3次元空間上の位置と姿勢の取得は、タブレットコンピュータ103が備えるカメラによって取得した視界内に存在するマーカーや特徴点の情報を用いてもよいし、タブレットコンピュータに接続された赤外線センサー、磁気センサーなどの情報を用いてもよい。また、位置または姿勢のどちらかのみを取得し、他方の情報は使用しないとしてもよい。
(Third embodiment)
In S304 of the first embodiment, the annotation additional
S305においてアノテーション付加情報付与部209は、S304で取得した3次元空間上の位置と姿勢を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
本実施形態によれば、アノテーションと、該アノテーションを入力した際のタブレットコンピュータ103の位置と姿勢とを関連付けて保持しておくため、ユーザは、タブレットコンピュータ103の位置と姿勢に応じてアノテーションを絞り込んで表示することが可能となる。
According to the present embodiment, since the annotation and the position and orientation of the
(第4の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、タブレットコンピュータ103でアノテーションを入力した時のHMD102の3次元空間上の位置と姿勢とを取得する。ここで3次元空間上の位置と姿勢の取得は、情報処理装置101が備える頭部位置姿勢特定部204の機能を用いてもよいし、第3の実施形態のタブレットコンピュータ103の位置と姿勢の取得に用いたようなその他の方法を用いてもよい。また、位置または姿勢のどちらかのみを取得し、他方の情報は使用しないとしてもよい。
(Fourth embodiment)
In S <b> 304 of the first embodiment, the annotation additional
S305においてアノテーション付加情報付与部209は、S304で取得した3次元空間上の位置と姿勢を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
本実施形態によれば、アノテーションと、該アノテーションを入力した時のHMD102の位置と姿勢とを関連付けて保持しておくため、ユーザは、HMD102の位置と姿勢に応じてアノテーションを絞り込んで表示することが可能となる。
According to this embodiment, since the annotation and the position and orientation of the
(第5の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、HMD102の装着者が保持するデバイスの3次元空間上の位置と姿勢を取得する。ここでデバイスとは位置と姿勢が取得可能なデバイスであれば何でもよい。また、デバイスの3次元空間上の位置と姿勢の取得は、第3の実施形態におけるタブレットコンピュータ103の位置の取得に用いたような方法を用いることができる。また、位置または姿勢のどちらかのみを取得し、他方の情報は使用しないとしてもよい。
(Fifth embodiment)
In S304 of the first embodiment, the annotation additional
S305においてアノテーション付加情報付与部209は、S304で取得した3次元空間上の位置を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
本実施形態によれば、アノテーションと、該アノテーションを入力した際のデバイスの位置と姿勢とを関連付けて保持しておくため、ユーザは、デバイスの位置と姿勢に応じてアノテーションを絞り込んで表示することが可能となる。 According to the present embodiment, since the annotation and the position and orientation of the device when the annotation is input are stored in association with each other, the user can narrow down and display the annotation according to the position and orientation of the device. Is possible.
(第6の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、HMD102と、HMD102の装着者が保持するデバイスの3次元空間上の相対的な位置を取得する。ここでデバイスとは位置が取得可能なデバイスであれば何でもよい。また、HMD102とデバイスの3次元空間上の位置の取得は、第3の実施形態におけるタブレットコンピュータ103の位置の取得に用いたような方法を用いることができる。また、第3の実施形態におけるタブレットコンピュータ103の姿勢の取得に用いたような方法を用いてHMD102とデバイスの姿勢を取得し、相対的な姿勢を位置に加えて付加情報として利用してもよい。
(Sixth embodiment)
In S304 of the first embodiment, the annotation additional
S305において、アノテーション付加情報付与部209は、S304で取得した相対位置を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
(第7の実施形態)
第1の実施形態のS304において、アノテーション付加情報付与部209は、第3〜6の実施形態において取得した付加情報のうち複数を同時に取得する。
(Seventh embodiment)
In S304 of the first embodiment, the annotation additional
S305においてアノテーション付加情報付与部209は、S304で取得した複数の付加情報を、S303で入力されたアノテーションに関連付けて保持する。結果として、S302において入力されたアノテーション付与対象部品、S303において入力されたアノテーション文字列、S304において取得された付加情報が相互に関連付けられて保持されることになる。
In S305, the annotation additional
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (12)
前記仮想物体上の部位ごとに、該部位を示すアノテーション情報と該アノテーション情報が入力された時の状態を示す付加情報とを関連付けて保持する保持手段と、
ユーザから入力される、前記付加情報に対応する情報を取得する取得手段と、
前記情報に基づいて、前記保持手段に保持される前記仮想物体上の部位ごとの前記アノテーション情報から、表示するアノテーション情報を選択する選択手段と、
前記選択されたアノテーション情報と前記画像とが合成された合成画像を生成する生成手段と、
前記合成画像を出力する出力手段とを備えることを特徴とする情報処理装置。 Image acquisition means for acquiring an image including a virtual object;
Holding means for holding, for each part on the virtual object, annotation information indicating the part and additional information indicating a state when the annotation information is input;
Obtaining means for obtaining information corresponding to the additional information input from a user;
Selection means for selecting annotation information to be displayed from the annotation information for each part on the virtual object held in the holding means based on the information;
Generating means for generating a composite image in which the selected annotation information and the image are combined;
An information processing apparatus comprising: output means for outputting the composite image.
前記出力手段は、前記頭部装着型表示装置に前記合成画像を出力することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 Furthermore, a head-mounted display device for the user to wear on the head is provided,
The information processing apparatus according to claim 1, wherein the output unit outputs the composite image to the head-mounted display device.
ユーザから入力される、前記付加情報に対応する情報を取得する取得ステップと、
前記仮想物体上の部位ごとに、該部位を示すアノテーション情報と該アノテーション情報が入力された時の状態を示す付加情報とを関連付けて保持する保持手段に保持される前記仮想物体上の部位ごとの前記アノテーション情報から、前記付加情報に基づいて、表示するアノテーション情報を選択する選択ステップと、
前記選択されたアノテーション情報と前記画像とが合成された合成画像を生成する生成ステップと、
前記合成画像を出力する出力ステップとを備えることを特徴とする情報処理装置。 An image acquisition step of acquiring an image including a virtual object;
An acquisition step of acquiring information corresponding to the additional information input from a user;
For each part on the virtual object, the annotation information indicating the part and the additional information indicating the state when the annotation information is input are stored in association with each other. A selection step of selecting annotation information to be displayed based on the additional information from the annotation information;
A generation step of generating a composite image in which the selected annotation information and the image are combined;
An information processing apparatus comprising: an output step for outputting the composite image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015124266A JP2017010228A (en) | 2015-06-19 | 2015-06-19 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015124266A JP2017010228A (en) | 2015-06-19 | 2015-06-19 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017010228A true JP2017010228A (en) | 2017-01-12 |
Family
ID=57763602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015124266A Pending JP2017010228A (en) | 2015-06-19 | 2015-06-19 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017010228A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018128817A (en) * | 2017-02-08 | 2018-08-16 | 株式会社コロプラ | Method to be executed by computer for performing communication via virtual space, program for causing computer to execute the same method, and information control device |
JP7404139B2 (en) | 2020-04-07 | 2023-12-25 | シャープ株式会社 | Display control system, display control method, and display control program |
JP7438827B2 (en) | 2020-04-07 | 2024-02-27 | シャープ株式会社 | Display control system, display control method, and display control program |
-
2015
- 2015-06-19 JP JP2015124266A patent/JP2017010228A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018128817A (en) * | 2017-02-08 | 2018-08-16 | 株式会社コロプラ | Method to be executed by computer for performing communication via virtual space, program for causing computer to execute the same method, and information control device |
JP7404139B2 (en) | 2020-04-07 | 2023-12-25 | シャープ株式会社 | Display control system, display control method, and display control program |
JP7438827B2 (en) | 2020-04-07 | 2024-02-27 | シャープ株式会社 | Display control system, display control method, and display control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI610097B (en) | Electronic system, portable display device and guiding device | |
JP6585929B2 (en) | System, control method of system | |
EP3166319A1 (en) | Information processing device, information processing method, and program | |
JP5777786B1 (en) | Information processing apparatus, information processing method, and program | |
JP4757115B2 (en) | Image processing apparatus and image processing method | |
JP2020514909A (en) | Mixed reality system with multi-source virtual content composition and method of using the same to generate virtual content | |
JP2011028309A5 (en) | ||
JP6920057B2 (en) | Image processing equipment, image processing method, computer program | |
US10950050B2 (en) | Information processing device, information processing method, and program for planning and execution of work plan | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP6775957B2 (en) | Information processing equipment, information processing methods, programs | |
US20160379591A1 (en) | Information processing apparatus, control method, and storage medium | |
JP2015125641A (en) | Information processing device, control method therefor, and program | |
CN110573992B (en) | Editing augmented reality experiences using augmented reality and virtual reality | |
JP2007004713A (en) | Image processing method and image processor | |
JP2017010228A (en) | Information processing apparatus, information processing method, and program | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
JP2021135776A (en) | Information processor, information processing method, and program | |
JP2005339377A (en) | Image processing method and image processor | |
JP6152888B2 (en) | Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof | |
JP5161544B2 (en) | Image display system | |
US20190243461A1 (en) | Cable movable region display device, cable movable region display method, and cable movable region display program | |
JP2014203194A (en) | Virtual object display control apparatus, virtual object display control method, and program | |
JP7279113B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM | |
JP2010146285A (en) | Image processing system and image processing method |