JP2013037420A - Content display system, content display control method, content display control device, and program - Google Patents

Content display system, content display control method, content display control device, and program Download PDF

Info

Publication number
JP2013037420A
JP2013037420A JP2011170811A JP2011170811A JP2013037420A JP 2013037420 A JP2013037420 A JP 2013037420A JP 2011170811 A JP2011170811 A JP 2011170811A JP 2011170811 A JP2011170811 A JP 2011170811A JP 2013037420 A JP2013037420 A JP 2013037420A
Authority
JP
Japan
Prior art keywords
content
image
control
content display
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011170811A
Other languages
Japanese (ja)
Inventor
Hiroshi Yamaguchi
博志 山口
Kanako Matsuo
佳菜子 松尾
Toshiki Hara
豪紀 原
Masashi Oda
将史 小田
Tomoya Tachikawa
智哉 立川
Chiho Toyono
智穂 豊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011170811A priority Critical patent/JP2013037420A/en
Publication of JP2013037420A publication Critical patent/JP2013037420A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a content display system and the like capable of preventing human errors and achieving display control having high entertainment property.SOLUTION: A control device 5 stores content components, locus information, and control commands in association with each other in a control command locus DB 51. Then the control device 5 performs the steps of: initializing each DB (S21); acquiring a taken image from an imaging device 3 (S22); extracting a specific area and projecting it on an image to be processed (S23); extracting a coordinate of a bright spot in the image to be processed (S24); extracting a locus of light of a laser light oscillation device 2 (S25); and checking whether the extracted locus corresponds to any of the control command by referring to the control command locus DB 51. When the locus corresponds to a control command (YES in S26), the control device 5 executes display control of content according to the corresponding control command (S27).

Description

本発明は、操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによって、コンテンツの表示制御を指示するコンテンツ表示システム等に関するものである。   The present invention relates to a content display system and the like in which an operator instructs display control of content by irradiating an object in real space with light from a laser light oscillation device.

従来から、コンピュータとプロジェクタとを用いるプレゼンテーションでは、操作者がプロジェクタによって投影されたコンテンツ(例えば、動画像や静止画像等)における特定の位置を指し示す為に、レーザーポインタ等のレーザー光発振装置が利用されている。レーザー光発振装置は、指示棒の役割しか果たさないので、コンテンツの表示制御を行う為には、操作者は、別途、コンピュータに接続された入力装置を操作しなければならない。このような煩雑な操作を回避する為に、レーザー光発振装置によってコンテンツの表示制御を指示することができるシステムが望まれている。   Conventionally, in a presentation using a computer and a projector, an operator uses a laser light oscillation device such as a laser pointer to indicate a specific position in content (for example, a moving image or a still image) projected by the projector. Has been. Since the laser beam oscillation device serves only as an indicator rod, the operator must separately operate an input device connected to a computer in order to control content display. In order to avoid such a complicated operation, a system capable of instructing display control of content by a laser light oscillation device is desired.

例えば、特許文献1に開示されたインタラクティブプレゼンテーション制御システムでは、ディスプレイ・コンピュータ、コンピュータ制御の画像プロジェクタ、レーザーポインタ、投写スクリーンの他に、デジタルカメラおよび制御モジュールを備え、ディスプレイ・コンピュータは電子画像を生成し、その画像はプレゼンテーション画像として投写スクリーン上に投写される。講演者はレーザーポインタを用い所定のジェスチャ空間パターンをプレゼンテーション画像上に描き、デジタルカメラはこれらのプレゼンテーション画像を獲得し、制御モジュール内の処理部はそれらの画像を解析し、ジェスチャ空間パターンを特定する。所定のジェスチャ空間パターンの集合と比較され、マッチするものが見つけられ、続いてそれに関係したディスプレイ・コマンドが選択される。   For example, the interactive presentation control system disclosed in Patent Document 1 includes a display computer, a computer-controlled image projector, a laser pointer, a projection screen, a digital camera and a control module, and the display computer generates an electronic image. The image is projected as a presentation image on the projection screen. The lecturer draws a predetermined gesture space pattern on the presentation image using a laser pointer, the digital camera acquires these presentation images, and the processing unit in the control module analyzes the image to identify the gesture space pattern. . It is compared to a predetermined set of gesture space patterns, a match is found, and then the display command associated with it is selected.

また、特許文献2に開示されたプロジェクタシステムでは、ライトペンによりプロジェクタスクリーン上の任意の位置をレーザー光の照射により指定する。同一位置での指定が一定時間以上続くことを受光器の撮影イメージに基づいてパソコンで検出する。一定時間以上経過後、パソコンでは、マウスのクリックボタン操作に相当するオンのフラグ信号を発生する。   Further, in the projector system disclosed in Patent Document 2, an arbitrary position on the projector screen is designated by laser light irradiation with a light pen. The personal computer detects that the designation at the same position continues for a certain time or longer based on the image taken by the light receiver. After a certain period of time has elapsed, the personal computer generates an ON flag signal corresponding to a mouse click button operation.

また、特許文献3には、展示物の部位に照準を定めて、レーザー図形を形成させるレーザーポインタと、レーザー図形が形成された展示物を撮影して撮影画像データを生成する撮像手段と、撮影画像データを図形認識用データと照合して、レーザー図形を認識して、そのレーザー図形の属性情報を作成する図形認識手段と、レーザー図形の照準座標を算出する図形座標算出手段と、照準座標と図形属性情報とを手掛りにして、展示物情報から、レーザー図形に関連付けられる展示物部位の説明情報を読み取る提供情報取得手段と、展示物の部位を説明した情報を展示物画像に重畳させて、表示させる提供情報表示手段と、を備える情報管理装置と、を備える展示物情報提供システムが開示されている。   Patent Document 3 also discloses a laser pointer for aiming at a part of an exhibit and forming a laser figure, an imaging means for photographing the exhibit on which the laser figure is formed, and generating photographed image data, and photographing. Matching image data with data for graphic recognition, recognizing a laser graphic and creating attribute information of the laser graphic, graphic coordinate calculating means for calculating the aiming coordinates of the laser graphic, aiming coordinates, With the figure attribute information as a clue, from the exhibit information, provided information acquisition means for reading the explanation information of the exhibit part associated with the laser figure, and the information explaining the part of the exhibit are superimposed on the exhibit image, An exhibit information providing system comprising an information management device comprising provision information display means for displaying is disclosed.

特開2001−125738号公報Japanese Patent Laid-Open No. 2001-125738 特開2008−225556号公報JP 2008-225556 A 特開2010−224646号公報JP 2010-224646 A

しかしながら、特許文献1では、コンテンツの内容とは無関係に、ジェスチャ空間パターンとディスプレイ・コマンドとが対応付けられている為、プレゼンテーションを実演する際、ヒューマンエラーによって意図していない表示制御がなされる可能性が高い。例えば、操作者が、特定の位置を指し示すことだけを意図して、レーザーポインタの光を照射していたとしても、レーザーポインタを把持している手を無意識に揺らしてしまった場合、何らかのジェスチャ空間パターンとマッチすると判定され、意図していない表示制御(例えば、「次の画像に進む」等。)がなされてしまう。   However, in Patent Document 1, since the gesture space pattern and the display command are associated with each other regardless of the content, when the presentation is performed, unintended display control can be performed due to a human error. High nature. For example, if the operator unintentionally shakes the hand holding the laser pointer, even if the operator is irradiating the laser pointer light only to point to a specific position, some gesture space It is determined that the pattern matches, and unintended display control (for example, “go to the next image”) is performed.

また、特許文献2では、マウスのクリックボタンを押下する操作と解除する操作しか実現していない。その為、観者が驚くようなダイナミックな操作が実現できず、エンターテイメント性に乏しい。また、特許文献1と同様、コンテンツの内容とは無関係に、マウスのクリックボタン操作に相当するフラグ信号を発生させる為、ヒューマンエラーによって意図していない表示制御がなされる可能性が高い。   In Patent Document 2, only an operation of pressing a mouse click button and an operation of releasing it are realized. Therefore, the dynamic operation that the viewer is surprised cannot be realized, and the entertainment property is poor. Further, similarly to Patent Document 1, since a flag signal corresponding to a mouse click button operation is generated regardless of the content, there is a high possibility that unintended display control is performed due to a human error.

一方、特許文献3では、表示させる情報が、展示物の特定部位を示す照準エリア情報、及びレーザーポインタごとに異なるレーザー図形の図形属性情報に関連付けられている為、レーザーポインタを正しく選択すれば、意図していない表示制御がなされる可能性は低い。しかしながら、操作者の操作としては、照準エリア情報にレーザーポインタの光を照射させるだけであり、観者が驚くようなダイナミックな操作を実現できず、エンターテイメント性に乏しい。   On the other hand, in Patent Document 3, since the information to be displayed is associated with the aiming area information indicating a specific part of the exhibit and the graphic attribute information of a different laser figure for each laser pointer, if the laser pointer is correctly selected, The possibility of unintended display control is low. However, as the operation of the operator, the aiming area information is merely irradiated with the light of the laser pointer, and the dynamic operation that is surprising to the viewer cannot be realized, and the entertainment property is poor.

本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、ヒューマンエラーを抑止することができ、かつエンターテイメント性に富んだ表示制御を実現することができるコンテンツ表示システム等を提供することである。   The present invention has been made in view of the above-described problems, and the object of the present invention is to provide a content display system that can suppress human errors and realize display control rich in entertainment properties. Is to provide.

前述した目的を達成するために第1の発明は、操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによってコンテンツの表示制御を指示するコンテンツ表示システムであって、前記レーザー光発振装置と、前記レーザー光発振装置の光が照射される領域を撮影する撮影装置と、前記コンテンツを表示するコンテンツ表示装置と、前記撮影装置及び前記コンテンツ表示装置を制御する制御装置と、によって構成され、前記制御装置は、前記コンテンツを構成するコンテンツ構成要素毎に、前記レーザー光発振装置の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを記憶する第1記憶手段と、前記撮影装置によって撮影される撮影画像を取得する取得手段と、前記撮影画像から前記レーザー光発振装置の光の軌跡を抽出する抽出手段と、前記抽出手段によって抽出された光の軌跡について、前記第1記憶手段を参照し、対応する前記制御コマンドを判定する判定手段と、前記判定手段によって判定された前記制御コマンドに基づいて、前記コンテンツの表示制御を行うコンテンツ表示制御手段と、を備えることを特徴とするコンテンツ表示システムである。第1の発明によって、コンテンツに応じた適切な表示制御を行い、ヒューマンエラーを抑止することができ、かつエンターテイメント性に富んだ表示制御を実現することができる。   In order to achieve the above-mentioned object, a first invention is a content display system in which an operator instructs display control of content by irradiating an object in real space with light of a laser light oscillation device. The laser light oscillation device, a photographing device for photographing a region irradiated with light from the laser light oscillation device, a content display device for displaying the content, a control device for controlling the photographing device and the content display device, The control device is associated with trajectory information for identifying the trajectory of light of the laser light oscillation device for each content component constituting the content, and a control command for realizing specific display control. First storage means for storing; acquisition means for acquiring a photographed image photographed by the photographing apparatus; An extraction means for extracting a light trajectory of the optical oscillation device, a determination means for determining the corresponding control command with reference to the first storage means for the light trajectory extracted by the extraction means, and the determination A content display system comprising: content display control means for performing display control of the content based on the control command determined by the means. According to the first invention, appropriate display control according to the content can be performed, human error can be suppressed, and display control rich in entertainment can be realized.

第1の発明における前記軌跡情報は、判定時間及び判定領域の組からなり、前記判定手段は、前記抽出手段によって抽出された光の軌跡を構成する輝点の照射時間及び照射位置が、前記軌跡情報における前記判定時間及び前記判定領域に含まれるか否かによって、対応する前記制御コマンドを判定し、前記制御装置は、前記コンテンツ構成要素の画像に前記判定領域の位置を示す画像を重畳して、前記コンテンツ表示装置を含む任意の表示装置に表示させる軌跡情報表示制御手段、を更に具備することが望ましい。これによって、コンテンツの製作者や操作者は、表示制御のテスト中に判定領域を視覚的に確認することができ、コンテンツの製作作業や確認作業が容易になる。   The trajectory information in the first invention comprises a set of a determination time and a determination region, and the determination means is configured such that an irradiation time and an irradiation position of a bright spot constituting a light trajectory extracted by the extraction means is the trajectory. The control command is determined in accordance with the determination time in the information and whether it is included in the determination area, and the control device superimposes an image indicating the position of the determination area on the image of the content component. It is desirable to further include trajectory information display control means for displaying on any display device including the content display device. As a result, the content producer and operator can visually confirm the determination area during the display control test, and the content production work and confirmation work are facilitated.

また、第1の発明における前記制御装置は、前記判定領域の位置の変更を受け付けて、前記第1記憶手段の内容を更新する軌跡情報更新手段、を更に具備することが望ましい。これによって、コンテンツの製作者や操作者は、表示制御のテストを行った結果、ヒューマンエラーが発生し易いと判断した軌跡情報を容易に修正することができる。特に、実行環境下で軌跡判定を視覚的に表示し、調整することによって、実際の操作者によるレーザー光発振装置の動作に合わせた調整が可能となる。   The control device according to the first aspect of the invention preferably further comprises trajectory information update means for accepting a change in the position of the determination area and updating the contents of the first storage means. As a result, the content producer or operator can easily correct the trajectory information determined to be prone to human error as a result of the display control test. In particular, by visually displaying and adjusting the trajectory determination under the execution environment, it is possible to make adjustments in accordance with the operation of the laser light oscillation device by the actual operator.

また、第1の発明における前記制御装置は、前記撮影画像内の特徴点の座標情報と対応付けて、前記制御装置の内部処理における座標空間の対応点の座標情報を記憶する第2記憶手段と、前記撮影画像から特定領域画像を生成し、前記特定領域画像から特徴点を抽出し、前記第2記憶手段を参照して特徴点を前記制御装置の内部処理における座標空間の対応点にマッピングすることによって前記特定領域画像を射影し、処理画像を生成する射影手段と、を更に具備し、前記抽出手段は、複数の前記処理画像に対して輝点の座標を抽出し、抽出された座標の集合を、前記レーザー光発振装置の光の軌跡とすることが望ましい。これによって、撮影装置の撮影方向やコンテンツ表示装置の投影方向が制約されず、コンテンツ表示システムを様々な環境の実空間に適用することができる。   Further, the control device according to the first aspect of the invention is a second storage means for storing the coordinate information of the corresponding point in the coordinate space in the internal processing of the control device in association with the coordinate information of the feature point in the captured image. , Generating a specific area image from the captured image, extracting feature points from the specific area image, and mapping the feature points to corresponding points in the coordinate space in the internal processing of the control device with reference to the second storage unit Projecting means for projecting the specific area image to generate a processed image, and the extracting means extracts the coordinates of the bright spot from the plurality of processed images, and extracts the coordinates of the extracted coordinates. It is desirable that the set be a locus of light of the laser light oscillation device. Thus, the shooting direction of the shooting device and the projection direction of the content display device are not restricted, and the content display system can be applied to real spaces of various environments.

また、第1の発明における前記制御装置は、実行環境に合わせた前記撮影装置の撮影パラメータを記憶する第3記憶手段、を更に具備し、前記取得手段は、前記第3記憶手段を参照して前記撮影画像を取得することが望ましい。これによって、制御装置によるいくつかの画像処理の手順が不要となり、制御装置の処理効率が向上する。ひいては、コンテンツ表示システムの応答性能を向上させることができる。   The control device according to the first aspect of the present invention further comprises third storage means for storing shooting parameters of the shooting apparatus in accordance with an execution environment, and the acquisition means refers to the third storage means. It is desirable to acquire the captured image. This eliminates the need for some image processing procedures by the control device and improves the processing efficiency of the control device. As a result, the response performance of the content display system can be improved.

第2の発明は、操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによってコンテンツの表示制御を指示するコンテンツ表示システムにおいて、前記レーザー光発振装置の光が照射される領域を撮影する撮影装置、及び前記コンテンツを表示するコンテンツ表示装置を制御するコンテンツ表示制御装置を制御し、前記コンテンツを構成するコンテンツ構成要素毎に、前記レーザー光発振装置の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを記憶する第1記憶手段を備える制御装置によるコンテンツ表示制御方法であって、前記撮影装置によって撮影される撮影画像を取得する取得ステップと、前記撮影画像から前記レーザー光発振装置の光の軌跡を抽出する抽出ステップと、前記抽出ステップによって抽出された光の軌跡について、前記第1記憶手段を参照し、対応する前記制御コマンドを判定する判定ステップと、前記判定ステップによって判定された前記制御コマンドに基づいて、前記コンテンツの表示制御を行うコンテンツ表示制御ステップと、を含むことを特徴とするコンテンツ表示制御方法である。第2の発明によって、コンテンツに応じた適切な表示制御を行い、ヒューマンエラーを抑止することができ、かつエンターテイメント性に富んだ表示制御を実現することができる。   According to a second aspect of the present invention, in the content display system in which the operator instructs the display control of the content by irradiating the object in the real space with the light of the laser light oscillation device, the light of the laser light oscillation device is irradiated. Control the content display control device that controls the image capturing device that captures the area to be displayed and the content display device that displays the content, and identifies the trajectory of the laser light oscillation device for each content component constituting the content A content display control method by a control device including a first storage unit that stores a control command for realizing specific display control in association with trajectory information to be acquired, and acquiring a photographed image photographed by the photographing device An extraction step of extracting a light trajectory of the laser light oscillation device from the captured image; With respect to the light trajectory extracted in the exiting step, the first storage means is referred to, a determination step for determining the corresponding control command, and the display of the content based on the control command determined in the determination step And a content display control step for performing control. According to the second invention, it is possible to perform appropriate display control according to the content, suppress human error, and realize display control rich in entertainment properties.

第3の発明は、操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによってコンテンツの表示制御を指示するコンテンツ表示システムにおいて、前記レーザー光発振装置の光が照射される領域を撮影する撮影装置、及び前記コンテンツを表示するコンテンツ表示装置を制御するコンテンツ表示制御装置であって、前記コンテンツを構成するコンテンツ構成要素毎に、前記レーザー光発振装置の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを記憶する第1記憶手段と、前記撮影装置によって撮影される撮影画像を取得する取得手段と、前記撮影画像から前記レーザー光発振装置の光の軌跡を抽出する抽出手段と、前記抽出手段によって抽出された光の軌跡について、前記第1記憶手段を参照し、対応する前記制御コマンドを判定する判定手段と、前記判定手段によって判定された前記制御コマンドに基づいて、前記コンテンツの表示制御を行うコンテンツ表示制御手段と、を備えることを特徴とするコンテンツ表示制御装置である。第3の発明によって、第1の発明のコンテンツ表示システムを構成し、第2の発明のコンテンツ表示方法を実行することができる。   According to a third aspect of the present invention, in the content display system in which the operator instructs the display control of the content by irradiating the object in the real space with the light of the laser light oscillation device, the light of the laser light oscillation device is irradiated. A content display control device that controls a photographing device that captures a region to be displayed and a content display device that displays the content, and identifies a light locus of the laser light oscillation device for each content component constituting the content First storage means for storing a control command for realizing specific display control in association with the trajectory information, acquisition means for acquiring a photographed image photographed by the photographing apparatus, and laser light oscillation from the photographed image An extraction means for extracting a light trajectory of the apparatus, and the light path extracted by the extraction means with respect to the first memory , And a content display control unit that performs display control of the content based on the control command determined by the determination unit. It is a content display control device. According to the third invention, the content display system of the first invention can be configured, and the content display method of the second invention can be executed.

第4の発明は、コンピュータを、第3の発明のコンテンツ表示制御装置として機能させるためのプログラムである。第4の発明のプログラムを、汎用のコンピュータにインストールすることによって、第4の発明のコンテンツ表示制御装置を得ることができる。   A fourth invention is a program for causing a computer to function as the content display control device of the third invention. The content display control apparatus of the fourth invention can be obtained by installing the program of the fourth invention on a general-purpose computer.

本発明のコンテンツ表示システム等により、ヒューマンエラーを抑止することができ、かつエンターテイメント性に富んだ表示制御を実現することができる。   With the content display system of the present invention, human error can be suppressed and display control rich in entertainment can be realized.

コンテンツ表示システムの構成図Configuration diagram of content display system コンテンツ表示システムの概略斜視図Schematic perspective view of content display system 実行時のシーケンス図Sequence diagram during execution 制御装置の処理の流れを示すフローチャートFlow chart showing process flow of control device 特定領域抽出・射影機能を説明する図Diagram explaining specific area extraction / projection function 制御コマンド軌跡画像のテンプレートの一例を示す図The figure which shows an example of the template of a control command locus image 制御コマンド軌跡DBの登録処理を説明する図The figure explaining registration processing of control command locus DB 制御コマンド軌跡DBに登録されるデータの一例Example of data registered in control command locus DB 制御コマンド軌跡DBの更新処理を説明する図The figure explaining the update process of control command locus DB データの対応関係を示す模式図Schematic diagram showing data correspondence 第1の表示制御例を説明する図The figure explaining the 1st display control example 第2の表示制御例を説明する図The figure explaining the 2nd example of display control 第2の表示制御例を説明する図The figure explaining the 2nd example of display control

以下図面に基づいて、本発明の実施形態を詳細に説明する。本発明の実施形態では、「コンテンツ」とは、動画像データ、静止画像データ(写真、図、表、文書等コンピュータの画面に表示されるもの全てを含む。)、テキストデータ、音声データ、音楽データ等を含む。本発明の実施形態におけるコンテンツの典型例としては、複数の静止画像データや動画像データが1つのシナリオに基づいて纏められたものであり、特に、視覚によって知覚されるものである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the embodiment of the present invention, “content” includes moving image data, still image data (including all images, pictures, tables, documents, etc. displayed on a computer screen), text data, audio data, music. Includes data. As a typical example of the content in the embodiment of the present invention, a plurality of still image data and moving image data are collected based on one scenario, and particularly perceived visually.

以下では、コンテンツを構成する静止画像データや動画像データ等のデータを、「コンテンツ構成要素」と呼ぶことにする。静止画像データの場合、典型的には、1枚ずつが「シーン」として、異なるコンテンツ構成要素となる。また、動画像データの場合、典型的には、複数のフレームが纏められた「チャプタ」ごとに、異なるコンテンツ構成要素となる。本発明の実施形態におけるコンテンツ表示システムでは、コンテンツ構成要素ごとに様々な表示制御を実現する。   Hereinafter, data such as still image data and moving image data constituting the content is referred to as a “content component”. In the case of still image data, typically, each piece is a “scene” and is a different content component. In the case of moving image data, typically, each “chapter” in which a plurality of frames are collected is a different content component. In the content display system according to the embodiment of the present invention, various display controls are realized for each content component.

最初に、図1〜図3を参照しながら、コンテンツ表示システムの概要について説明する。   First, an outline of the content display system will be described with reference to FIGS.

図1は、コンテンツ表示システムの構成図である。図1に示すように、コンテンツ表示システム1は、レーザー光発振装置2、撮影装置3、コンテンツ表示装置4、制御装置5等から構成される。また、コンテンツ表示システム1では、実空間6の物体7が前提となる。物体7は、図1に示すように、球体等の3次元物体でも良いし、図2に示すように、壁面や床面等の2次元物体でも良い。   FIG. 1 is a configuration diagram of a content display system. As shown in FIG. 1, the content display system 1 includes a laser light oscillation device 2, a photographing device 3, a content display device 4, a control device 5, and the like. In the content display system 1, an object 7 in the real space 6 is assumed. The object 7 may be a three-dimensional object such as a sphere as shown in FIG. 1, or may be a two-dimensional object such as a wall surface or a floor as shown in FIG.

レーザー光発振装置2は、例えば、レーザーポインタ等である。撮影装置3は、例えば、デジタルビデオカメラ等である。コンテンツ表示装置4は、例えば、プロジェクタ等である。制御装置5は、例えば、コンピュータ等である。   The laser light oscillation device 2 is, for example, a laser pointer. The photographing device 3 is, for example, a digital video camera. The content display device 4 is, for example, a projector. The control device 5 is, for example, a computer.

制御装置5は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置(ハードディスク等)、表示装置(液晶ディスプレイ等)、入力装置(マウス、キーボード等)等を備える。制御装置5の記憶装置には、画像処理部11及びコンテンツ処理部13を実現する為のプログラムが記憶されている。また、制御装置5の記憶装置には、画像処理情報記憶部12及びコンテンツ情報記憶部14を実現する為のデータベースシステム(又は単なるファイル群でも良い。)等が構築されている。   The control device 5 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device (hard disk, etc.), a display device (liquid crystal display, etc.), an input device (mouse, keyboard, etc.), etc. Is provided. A program for realizing the image processing unit 11 and the content processing unit 13 is stored in the storage device of the control device 5. In the storage device of the control device 5, a database system (or a simple file group) for realizing the image processing information storage unit 12 and the content information storage unit 14 is constructed.

画像処理部11は、撮影画像取得機能21、特定領域抽出・射影機能22、輝点抽出機能23、軌跡抽出機能24等を含む。画像処理情報記憶部12は、撮影画像抽出データベース(以下、「DB」と省略する。)31、特定領域抽出DB32、輝点抽出DB33、軌跡抽出DB34等を含む。コンテンツ処理部13は、制御コマンド軌跡判定機能41、コンテンツ表示制御機能42等を含む。コンテンツ情報記憶部14は、制御コマンド軌跡DB51、コンテンツDB52等を含む。   The image processing unit 11 includes a captured image acquisition function 21, a specific area extraction / projection function 22, a bright spot extraction function 23, a locus extraction function 24, and the like. The image processing information storage unit 12 includes a captured image extraction database (hereinafter abbreviated as “DB”) 31, a specific area extraction DB 32, a bright spot extraction DB 33, a locus extraction DB 34, and the like. The content processing unit 13 includes a control command trajectory determination function 41, a content display control function 42, and the like. The content information storage unit 14 includes a control command locus DB 51, a content DB 52, and the like.

図2は、コンテンツ表示システムの概略斜視図である。図2に示すように、操作者8は、レーザー光発振装置2を把持している。撮影装置3は、撮影画像領域61(一点鎖線の矩形)を撮影し、制御装置5に撮影画像を送信する。コンテンツ表示装置4は、制御装置5からの制御に従い、コンテンツ表示領域62(点線の矩形)にコンテンツを表示する。コンテンツ表示システム1では、操作者8が実空間6内の物体7に対してレーザー光発振装置2の光を照射すると、制御装置5がレーザー光発振装置2の光の軌跡に対応したコンテンツの表示制御を行う。制御装置5は、光の軌跡を、点、線、図形等として特定する。   FIG. 2 is a schematic perspective view of the content display system. As shown in FIG. 2, the operator 8 holds the laser light oscillation device 2. The imaging device 3 captures the captured image area 61 (a dashed-dotted rectangle) and transmits the captured image to the control device 5. The content display device 4 displays the content in the content display area 62 (dotted rectangle) according to the control from the control device 5. In the content display system 1, when the operator 8 irradiates the object 7 in the real space 6 with the light of the laser light oscillation device 2, the control device 5 displays content corresponding to the light trajectory of the laser light oscillation device 2. Take control. The control device 5 identifies the light trajectory as a point, a line, a figure, or the like.

図2の例では、撮影画像領域61が、コンテンツ表示領域62を含んでいる。この場合、操作者8がコンテンツ表示領域62の内側にレーザー光発振装置2の光を照射すれば、後述する制御装置5の処理によって、レーザー光発振装置2の光の軌跡を抽出できる。   In the example of FIG. 2, the captured image area 61 includes a content display area 62. In this case, if the operator 8 irradiates the light of the laser light oscillation device 2 inside the content display region 62, the locus of the light of the laser light oscillation device 2 can be extracted by the processing of the control device 5 described later.

また、例えば、撮影画像領域61及びコンテンツ表示領域62を一致させることによって、制御装置5による撮影画像領域61及びコンテンツ表示領域62の位置合わせが不要となり、処理内容を軽減することができる。ひいては、コンテンツの表示制御の応答性能を向上させることができる。尚、撮影画像領域61及びコンテンツ表示領域62が一致する場合であっても、後述するように、制御装置5によって、撮影装置3の撮影方向及びコンテンツ表示装置4の投影方向のずれに起因した歪みの補正が行われる。   Further, for example, by matching the photographed image area 61 and the content display area 62, it is not necessary to align the photographed image area 61 and the content display area 62 by the control device 5, and the processing content can be reduced. As a result, the response performance of content display control can be improved. Even when the photographed image area 61 and the content display area 62 coincide with each other, as will be described later, the control device 5 causes distortion caused by a shift between the photographing direction of the photographing apparatus 3 and the projection direction of the content display apparatus 4. Is corrected.

また、例えば、撮影画像領域61とコンテンツ表示領域62とを別々の場所にしたり、複数にしたりすることによって、よりエンターテイメント性を高めることができる。例えば、図2の状態から、別のコンテンツ表示装置4を追加し、床面に別のコンテンツ表示領域62を設けると、壁面に表示されているコンテンツを、あたかも床面に飛ばすような表示制御を実現できる。つまり、操作者8が壁面に表示されているコンテンツにレーザー光発振装置2の光を照射して、床面方向にレーザー光発振装置2の光を移動させていくと、あるタイミングで、壁面に表示されているコンテンツが消えて、床面に同じコンテンツが表示されるという表示制御を実現できる。   In addition, for example, by making the photographed image area 61 and the content display area 62 different places or a plurality of areas, the entertainment property can be improved. For example, when another content display device 4 is added from the state of FIG. 2 and another content display area 62 is provided on the floor surface, display control is performed as if the content displayed on the wall surface is skipped to the floor surface. realizable. That is, when the operator 8 irradiates the content displayed on the wall surface with the light of the laser light oscillation device 2 and moves the light of the laser light oscillation device 2 in the direction of the floor surface, the content is displayed on the wall surface at a certain timing. Display control can be realized in which the displayed content disappears and the same content is displayed on the floor.

以下では、説明を分かり易くする為に、撮影装置3及びコンテンツ表示装置4が各1台、物体7が壁面、撮影画像領域61がコンテンツ表示領域62を含む平面領域とする。但し、以下に示す制御装置5の処理は、撮影装置3及びコンテンツ表示装置4の数が複数台の場合、物体7が3次元物体の場合、並びに撮影画像領域61及びコンテンツ表示領域62が異なる領域の場合にも適用可能である。   In the following, for easy understanding, it is assumed that the photographing device 3 and the content display device 4 are each one, the object 7 is a wall surface, and the photographed image region 61 is a plane region including the content display region 62. However, the processing of the control device 5 described below is performed when the number of the photographing devices 3 and the content display devices 4 is plural, when the object 7 is a three-dimensional object, and when the photographed image region 61 and the content display region 62 are different. This can also be applied.

図3は、実行時のシーケンス図である。尚、図3に示すS4〜S9の処理については、ハードウエアである制御装置5が、図1に示すソフトウエアの各機能に従って実行するものである。以下では、説明を分かり易くする為に、便宜上、ソフトウエアの各機能を主体として記載する。   FIG. 3 is a sequence diagram at the time of execution. In addition, about the process of S4-S9 shown in FIG. 3, the control apparatus 5 which is hardware performs according to each function of the software shown in FIG. In the following, for ease of explanation, the software functions are mainly described for convenience.

図3に示すように、操作者8は、レーザー光発振装置2を把持し(S1)、レーザー光を物体7に照射する。これに対して、撮影装置3は、所定のフレームレート(例えば、30フレーム/秒)によって、物体7を含む実空間6の撮影画像領域61を撮影する(S3)。   As shown in FIG. 3, the operator 8 holds the laser light oscillation device 2 (S 1) and irradiates the object 7 with the laser light. On the other hand, the imaging device 3 captures the captured image area 61 of the real space 6 including the object 7 at a predetermined frame rate (for example, 30 frames / second) (S3).

撮影画像取得機能21は、撮影画像抽出DB31を参照して、撮影装置3から撮影画像を取得する(S4)。特定領域抽出・射影機能22は、特定領域抽出DB32を参照して、撮影画像から特定領域を抽出し、処理画像に射影する(S5)。輝点抽出機能23は、輝点抽出DB33を参照して、処理画像内の輝点の位置を抽出する(S6)。軌跡抽出機能24は、軌跡抽出DB34を参照して、輝点の軌跡を抽出する(S7)。   The photographed image acquisition function 21 refers to the photographed image extraction DB 31 and obtains a photographed image from the photographing device 3 (S4). The specific area extraction / projection function 22 refers to the specific area extraction DB 32, extracts a specific area from the captured image, and projects it onto the processed image (S5). The bright spot extraction function 23 refers to the bright spot extraction DB 33 and extracts the position of the bright spot in the processed image (S6). The trajectory extraction function 24 refers to the trajectory extraction DB 34 and extracts the locus of bright spots (S7).

制御コマンド軌跡判定機能41は、制御コマンド軌跡DB51を参照して、制御コマンドを判定する(S8)。コンテンツ表示制御機能42は、制御コマンドに応じて、コンテンツDB52に記憶されているコンテンツの表示制御を行う(S9)。   The control command track determination function 41 determines a control command with reference to the control command track DB 51 (S8). The content display control function 42 performs display control of the content stored in the content DB 52 according to the control command (S9).

コンテンツ表示装置4は、コンテンツ表示制御機能42による表示制御に従って、物体7にコンテンツを表示する(S10)。操作者8や観者は、物体7に表示されたコンテンツを視聴する(S11)。   The content display device 4 displays content on the object 7 in accordance with display control by the content display control function 42 (S10). The operator 8 or the viewer views the content displayed on the object 7 (S11).

操作者8は、レーザー光を物体7に照射することもあるし、照射しないこともある。一方、制御装置5は、撮影装置3のフレームレートに合わせて処理を繰り返す。制御装置5が、S8において新たに制御コマンドを判定すると、コンテンツ表示装置4に表示させるコンテンツを変更する。そして、コンテンツ表示装置4が物体7に表示するコンテンツが変わる。   The operator 8 may or may not irradiate the object 7 with laser light. On the other hand, the control device 5 repeats the process according to the frame rate of the photographing device 3. When the control device 5 newly determines a control command in S8, the content displayed on the content display device 4 is changed. Then, the content displayed on the object 7 by the content display device 4 changes.

次に、図4〜図13を参照しながら、制御装置5の処理の詳細について説明する。   Next, details of the processing of the control device 5 will be described with reference to FIGS.

図4は、制御装置の処理の流れを示すフローチャートである。撮影装置3及びコンテンツ表示装置4を所定の位置にセットした後、図3に示すシーケンスを実行する前に、制御装置5は、実行環境に合わせた撮影装置3のキャリブレーションの結果を各DBに反映し、各DBの初期化を行う(S21)。   FIG. 4 is a flowchart showing the flow of processing of the control device. After the photographing device 3 and the content display device 4 are set at predetermined positions, before the sequence shown in FIG. 3 is executed, the control device 5 stores the calibration result of the photographing device 3 in accordance with the execution environment in each DB. This is reflected and each DB is initialized (S21).

撮影画像領域61には、実空間6の照明光とコンテンツ表示装置4の投影光が重ねて照らされている。このような撮影画像領域61から、レーザー光の輝点を正確に抽出する為に、制御装置5は、撮影装置3の撮影パラメータを、実行環境に合わせた最適値に設定し、撮影画像抽出DB31に数値情報として記憶する。   The captured image area 61 is illuminated with the illumination light of the real space 6 and the projection light of the content display device 4 superimposed on each other. In order to accurately extract the bright spot of the laser beam from such a photographed image region 61, the control device 5 sets the photographing parameters of the photographing device 3 to optimum values according to the execution environment, and the photographed image extraction DB 31. Is stored as numerical information.

制御装置5は、実行環境に合わせて、レーザー光の輝点が抽出し易いように撮影パラメータを調整し、その撮影パラメータに従って撮影された撮影画像を入力データとする。これによって、制御装置5によるいくつかの画像処理の手順(入力データに応じた輝点を抽出するための前処理等)が不要となり、制御装置5の処理効率が向上する。ひいては、操作者8がレーザー光発信装置2を操作してから所望の表示制御が実現されるまでの応答時間を短縮し、コンテンツ表示システム1の応答性能を向上させることができる。   The control device 5 adjusts the shooting parameter so that the bright spot of the laser beam can be easily extracted according to the execution environment, and uses the shot image shot according to the shooting parameter as input data. This eliminates the need for some image processing procedures (such as preprocessing for extracting bright spots according to input data) by the control device 5 and improves the processing efficiency of the control device 5. As a result, the response time from when the operator 8 operates the laser beam transmission device 2 until the desired display control is realized can be shortened, and the response performance of the content display system 1 can be improved.

また、一般に、撮影画像の座標空間と、制御装置5が記憶しているコンテンツの座標空間は、一致しない。しかし、後述するように、レーザー光発振装置2の光がコンテンツ構成要素のどの位置に照射されたかによって、コンテンツの表示制御を切り替える為には、制御装置5の内部処理において両者の座標空間を一致させる必要がある。そこで、制御装置5は、事前に撮影画像を取得し、撮影画像内の特徴点の座標情報と対応付けて、制御装置5の内部処理における座標空間の対応点の座標情報を、特定領域抽出DB32に数値情報として記憶する。   In general, the coordinate space of the captured image does not match the coordinate space of the content stored in the control device 5. However, as will be described later, in order to switch the display control of the content depending on which position of the content component is irradiated with the light of the laser light oscillation device 2, the coordinate space of both is matched in the internal processing of the control device 5. It is necessary to let Therefore, the control device 5 acquires a captured image in advance, associates the coordinate information of the feature point in the captured image with the coordinate information of the corresponding point in the coordinate space in the internal processing of the control device 5, and extracts the specific region extraction DB 32. Is stored as numerical information.

また、一般に、レーザー光発振装置2の光の属性情報(輝度、色、形状等)は様々である。そこで、レーザー光の輝点を正確に抽出する為に、例えば、撮影画像領域61に照射させたレーザー光発振装置2の光を事前に撮影する等して、レーザー光発振装置2の光の属性情報を得て、輝点抽出DB33に数値情報として記憶する。   In general, the light attribute information (luminance, color, shape, etc.) of the laser light oscillator 2 is various. Therefore, in order to accurately extract the bright spot of the laser light, for example, the light of the laser light oscillation device 2 irradiated on the photographed image area 61 is photographed in advance, so that the light attribute of the laser light oscillation device 2 is obtained. Information is obtained and stored in the bright spot extraction DB 33 as numerical information.

図3に示すシーケンスの実行を開始すると、制御装置5の撮影画像取得機能21は、撮影画像抽出DB31を参照し、撮影装置3から撮影画像を取得する(S22)。制御装置5は、撮影装置3からの入力データが、撮影画像抽出DB31に記憶されている撮影パラメータに従って撮影されたものとし、必要に応じた画像処理を行う。例えば、レーザー光の輝点を抽出し易いように、制御装置5は、入力データとは無関係に、撮影画像抽出DB31に記憶されている撮影パラメータのみに依存して、入力データに対する明るさやコントラストの変換処理等を行い、撮影画像とする。通常であれば、入力データから変換処理のパラメータを決定する必要があるが、本発明の実施の形態では、撮影画像抽出DB31に記憶されている撮影パラメータのみに基づいて変換処理のパラメータを決定するので、処理を高速に実行することができる。   When the execution of the sequence shown in FIG. 3 is started, the captured image acquisition function 21 of the control device 5 refers to the captured image extraction DB 31 and acquires a captured image from the imaging device 3 (S22). The control device 5 assumes that the input data from the photographing device 3 has been photographed according to the photographing parameters stored in the photographed image extraction DB 31, and performs image processing as necessary. For example, in order to easily extract the bright spot of the laser beam, the control device 5 depends on only the photographing parameters stored in the photographed image extraction DB 31 regardless of the input data, and the brightness and contrast of the input data. Conversion processing and the like are performed to obtain a captured image. Normally, it is necessary to determine the parameters of the conversion process from the input data, but in the embodiment of the present invention, the parameters of the conversion process are determined based only on the shooting parameters stored in the shot image extraction DB 31. Therefore, processing can be executed at high speed.

次に、制御装置5の特定領域抽出・射影機能22は、特定領域抽出DB32を参照して、特定領域の抽出・処理画像への射影を行う(S23)。   Next, the specific area extraction / projection function 22 of the control device 5 refers to the specific area extraction DB 32 and projects the specific area onto the extracted / processed image (S23).

図5は、特定領域抽出・射影機能を説明する図である。特定領域抽出・射影機能22は、撮影画像領域61の画像データである撮影画像63から、特定領域を抽出する。特定領域とは、コンテンツの製作者がレーザー光発振装置2の光の照射を許容した領域である。図5の例であれば、特定領域は、コンテンツ表示領域62である。尚、撮影装置3の撮影方向とコンテンツ表示装置4の投影方向は一致しないので、図5に示すように、正面から見れば長方形の領域であっても、撮影画像63内では歪んだ形状となる。   FIG. 5 is a diagram for explaining the specific area extraction / projection function. The specific area extraction / projection function 22 extracts a specific area from the captured image 63 that is image data of the captured image area 61. The specific area is an area where the content creator has allowed the laser light oscillation device 2 to irradiate light. In the example of FIG. 5, the specific area is the content display area 62. Note that, since the shooting direction of the shooting device 3 and the projection direction of the content display device 4 do not coincide with each other, as shown in FIG. .

前述した通り、特定領域抽出DB32には、撮影画像63内の特徴点の座標情報と対応付けて、制御装置5の内部処理における座標空間の対応点の座標情報が記憶されている。そこで、特定領域抽出・射影機能22は、撮影画像63から特定領域画像64を生成し、特定領域画像64から複数の特徴点を抽出し、特定領域抽出DB32を参照して制御装置5の内部処理における座標空間の対応点にマッピングすることによって特定領域画像64を射影し、処理画像65を生成する。例えば、制御装置5は、複数の特徴点及び対応点の組から、撮影画像63の座標空間における画像を内部処理における座標空間に射影するための射影行列を算出し、算出された射影行列に基づいて、特定領域画像64の全ての画素を、内部処理における座標空間に射影し、処理画像65とする。   As described above, the specific area extraction DB 32 stores the coordinate information of the corresponding points in the coordinate space in the internal processing of the control device 5 in association with the coordinate information of the feature points in the captured image 63. Therefore, the specific area extraction / projection function 22 generates a specific area image 64 from the captured image 63, extracts a plurality of feature points from the specific area image 64, and refers to the specific area extraction DB 32 to perform internal processing of the control device 5. The specific area image 64 is projected by mapping to a corresponding point in the coordinate space at, and a processed image 65 is generated. For example, the control device 5 calculates a projection matrix for projecting an image in the coordinate space of the captured image 63 onto the coordinate space in the internal processing from a set of a plurality of feature points and corresponding points, and based on the calculated projection matrix. Thus, all the pixels of the specific area image 64 are projected onto the coordinate space in the internal processing to obtain a processed image 65.

尚、物体7が3次元物体の場合であっても、特定領域抽出・射影機能22は、射影変換の3次元拡張や、複数の撮影装置3及びコンテンツ表示装置4の同期による拡張を行うことによって、同様に処理画像65を生成することができる。   Even if the object 7 is a three-dimensional object, the specific region extraction / projection function 22 performs a three-dimensional extension of the projective transformation or an extension by synchronizing the plurality of imaging devices 3 and the content display device 4. Similarly, the processed image 65 can be generated.

図4の説明に戻る。輝点抽出機能23は、輝点抽出DB33を参照して、処理画像65内の輝点の座標を抽出する(S24)。前述した通り、輝点抽出DB33には、レーザー光発振装置2の光の属性情報が記憶されていることから、精度良く、輝点の座標を抽出することができる。   Returning to the description of FIG. The bright spot extraction function 23 refers to the bright spot extraction DB 33 and extracts the coordinates of the bright spot in the processed image 65 (S24). As described above, since the attribute information of the light of the laser light oscillation device 2 is stored in the bright spot extraction DB 33, the coordinates of the bright spot can be extracted with high accuracy.

次に、軌跡抽出機能24は、軌跡抽出DB34を参照して、S24によって抽出された輝点の座標群から、レーザー光発振装置2の光の軌跡を抽出する(S25)。   Next, the trajectory extraction function 24 refers to the trajectory extraction DB 34 and extracts the light trajectory of the laser light oscillation device 2 from the bright spot coordinate group extracted in S24 (S25).

軌跡抽出DB34には、軌跡存在判定時間(単位は秒でも良いし、フレーム数でも良い。)が、数値情報として記憶されている。例えば、撮影装置3のフレームレートが30フレーム/秒であれば、制御装置5には1秒間に30枚が入力される。つまり、特定領域抽出・射影機能22は、1秒間に30枚の処理画像65を生成する。そして、軌跡存在判定時間を1秒(=30フレーム)とした場合、軌跡抽出機能24は、軌跡存在判定時間ごとに30枚の処理画像65を確認し、それぞれに輝点が含まれているか否かを確認する。輝点が含まれた処理画像65が1枚もない場合、軌跡抽出機能24は、輝点が存在していないという軌跡(いわゆる、NULL値)とする。一方、輝点が含まれた処理画像65がある場合、軌跡抽出機能24は、時間的に最も早い時間の処理画像65に含まれる輝点を始点、時間的に最も遅い時間の処理画像65に含まれる輝点を終点とし、始点と終点の座標情報から、長さと方向を持つベクトルを算出し、算出されたベクトルを軌跡とする。   In the trajectory extraction DB 34, the trajectory existence determination time (the unit may be seconds or the number of frames) is stored as numerical information. For example, if the frame rate of the photographing device 3 is 30 frames / second, 30 frames are input to the control device 5 per second. That is, the specific area extraction / projection function 22 generates 30 processed images 65 per second. When the trajectory existence determination time is 1 second (= 30 frames), the trajectory extraction function 24 checks 30 processed images 65 for each trajectory existence determination time, and whether or not each contains a bright spot. To check. If there is no processed image 65 including a bright spot, the trajectory extraction function 24 sets a trajectory (a so-called NULL value) that no bright spot exists. On the other hand, when there is a processed image 65 including a bright spot, the trajectory extraction function 24 sets the bright spot included in the processed image 65 at the earliest time to the processed image 65 at the latest time. The included bright point is the end point, a vector having a length and direction is calculated from the coordinate information of the start point and the end point, and the calculated vector is used as a locus.

次に、制御コマンド軌跡判定機能41は、制御コマンド軌跡DB51を参照して、S25において抽出された軌跡が、いずれかの制御コマンドに対応しているか確認する(S26)。S26の処理については、図6〜図9を参照しながら後述する。   Next, the control command trajectory determination function 41 refers to the control command trajectory DB 51 and confirms whether the trajectory extracted in S25 corresponds to any control command (S26). The process of S26 will be described later with reference to FIGS.

軌跡が制御コマンドに対応していない場合(S26のNO)、S22から処理を繰り返す。一方、軌跡が制御コマンドに対応している場合(S26のYES)、コンテンツ表示制御機能42は、コンテンツDB52を参照し、コンテンツの表示制御を行い(S27)、S22から処理を繰り返す。尚、制御コマンド軌跡DB51及びコンテンツDB52は、コンテンツ構成要素の識別情報をキーとして関連付けられている。   When the locus does not correspond to the control command (NO in S26), the process is repeated from S22. On the other hand, when the trajectory corresponds to the control command (YES in S26), the content display control function 42 refers to the content DB 52, performs content display control (S27), and repeats the processing from S22. Note that the control command trajectory DB 51 and the content DB 52 are associated with each other by using content component identification information as a key.

ところで、物体7が空間6内を動く場合、撮影装置3の撮影方向やコンテンツ表示装置4の投影方向も変える必要がある。つまり、物体7の位置、撮影装置3の撮影方向及びコンテンツ表示装置4の投影方向が変わる。従って、各DBの初期化を再度行う必要がある。そこで、物体7が空間6内を動く場合、S26においてNOと判定した後、及びS27の処理の後、図4の点線によって示すように、S21から処理を繰り返す。   By the way, when the object 7 moves in the space 6, it is necessary to change the shooting direction of the shooting device 3 and the projection direction of the content display device 4. That is, the position of the object 7, the shooting direction of the shooting device 3, and the projection direction of the content display device 4 change. Therefore, it is necessary to initialize each DB again. Therefore, when the object 7 moves in the space 6, after determining NO in S26 and after the process of S27, the process is repeated from S21 as shown by the dotted line in FIG.

以下では、図6〜図9を参照しながら、図29の処理について説明する。また、図29の処理の前提となる制御コマンド軌跡DB52の登録処理及び更新処理についても説明する。   Hereinafter, the process of FIG. 29 will be described with reference to FIGS. In addition, a registration process and an update process of the control command trajectory DB 52, which are the premise of the process of FIG.

図6は、制御コマンド軌跡画像のテンプレートの一例を示す図である。制御コマンドとは、特定の表示制御を実現するプログラムである。制御コマンド軌跡画像66は、制御コマンドと、レーザー光発振装置2の光の軌跡を対応付ける為の画像である。   FIG. 6 is a diagram illustrating an example of a template for a control command trajectory image. The control command is a program that realizes specific display control. The control command locus image 66 is an image for associating the control command with the light locus of the laser light oscillation device 2.

制御コマンド軌跡画像66は、処理画像65やコンテンツ構成要素の画像と同一のサイズであり、複数の分割領域が定義されている。図6(a)に示す制御コマンド軌跡画像66aには、2行×4列=8個の分割領域A〜Hが定義されている。また、図6(b)に示す制御コマンド軌跡画像66bには、3行×3列=9個の分割領域A〜Hが定義されている。   The control command locus image 66 is the same size as the processed image 65 and the content component image, and a plurality of divided areas are defined. In the control command locus image 66a shown in FIG. 6A, 2 rows × 4 columns = 8 divided regions A to H are defined. In addition, in the control command locus image 66b shown in FIG. 6B, 3 rows × 3 columns = 9 divided regions A to H are defined.

図7は、制御コマンド軌跡DBの登録処理を説明する図である。図8は、制御コマンド軌跡DB51に登録されるデータの一例である。制御コマンド軌跡DB51の登録処理は、コンテンツの製作者と制御装置5が対話処理によって行う。   FIG. 7 is a diagram for explaining control command locus DB registration processing. FIG. 8 is an example of data registered in the control command locus DB 51. The registration process of the control command trajectory DB 51 is performed by interactive processing between the content producer and the control device 5.

まず、コンテンツの製作者は、制御装置5に接続されている表示装置(コンテンツ表示装置4を含む。)に、コンテンツ構成要素を表示させる。図7(a)に示す画像67は、コンテンツ構成要素の一例である。   First, a content producer displays content components on a display device (including the content display device 4) connected to the control device 5. An image 67 shown in FIG. 7A is an example of a content component.

次に、コンテンツの製作者は、制御装置5に接続されている表示装置に、コンテンツ構成要素と制御コマンド軌跡画像66を重畳した画像を表示させる。図7(b)に示す画像68は、画像67と制御コマンド軌跡画像66bを重畳した画像である。   Next, the content producer causes the display device connected to the control device 5 to display an image in which the content component and the control command locus image 66 are superimposed. An image 68 shown in FIG. 7B is an image obtained by superimposing the image 67 and the control command locus image 66b.

次に、コンテンツの製作者は、予め定義された制御コマンドのリスト(不図示)から1つの制御コマンドを選択する。制御コマンドのリストは、例えば、登録処理の開始が指示されると、制御装置5が表示装置に表示させておく。図7、図8に示す例では、コンテンツの製作者は、制御コマンドとして「次のシーンを表示」を選択する。   Next, the content creator selects one control command from a list (not shown) of control commands defined in advance. The control command list is displayed on the display device by the control device 5 when the start of the registration process is instructed, for example. In the example shown in FIGS. 7 and 8, the content creator selects “display next scene” as the control command.

次に、コンテンツの製作者は、制御装置5の入力装置を介して、制御コマンド軌跡画像66の分割領域を選択していき、軌跡情報を入力する。図7(c)では、レーザー光発振装置2の光を左から右にフリックする操作に関する軌跡情報を入力する場合の例を示している。   Next, the content producer selects the divided area of the control command locus image 66 via the input device of the control device 5 and inputs the locus information. FIG. 7C shows an example in the case of inputting trajectory information related to an operation of flicking light from the laser light oscillation device 2 from left to right.

コンテンツの製作者が領域Dを選択すると、制御装置5は、領域Dが始点領域に設定されたことを認識する(図7(c)では、ハッチング71、矢印73の始点として図示)。次に、コンテンツの製作者が領域Fを選択すると、制御装置5は、領域Fが終点領域に設定されたことを認識する(図7(c)では、ハッチング72、矢印73の終点として図示)。また、コンテンツの製作者は、フリックスピードに一定のゆとりを持たせる為の判定時間(図8参照)も入力する。つまり、制御装置5は、判定時間内に始点領域から終点領域へとレーザー光の輝点が移動すれば、レーザー光発振装置2の光を左から右にフリックする操作がなされたと判定することになる。   When the content producer selects the region D, the control device 5 recognizes that the region D is set as the start point region (shown as the start point of the hatching 71 and the arrow 73 in FIG. 7C). Next, when the content producer selects the region F, the control device 5 recognizes that the region F is set as the end point region (shown as the end point of hatching 72 and arrow 73 in FIG. 7C). . Further, the content creator also inputs a determination time (see FIG. 8) for giving a certain clearance to the flick speed. That is, the control device 5 determines that the operation of flicking the light of the laser light oscillation device 2 from the left to the right is performed if the bright spot of the laser light moves from the start point region to the end point region within the determination time. Become.

そして、制御装置5は、コンテンツ構成要素、軌跡情報及び制御コマンドを対応付けて、制御コマンド軌跡DB51に記憶する。制御装置5は、領域Dが始点領域、領域Fが終点領域であることを、判定領域(図8参照)として制御コマンド軌跡DB51に記憶する。また、制御装置5は、判定時間も制御コマンド軌跡DB51に記憶する。   Then, the control device 5 associates the content component, the trajectory information, and the control command, and stores them in the control command trajectory DB 51. The control device 5 stores in the control command locus DB 51 that the region D is the start point region and the region F is the end point region as a determination region (see FIG. 8). The control device 5 also stores the determination time in the control command locus DB 51.

図8に示すデータ76では、コンテンツ構成要素が「シーン1」、判定時間が「a〜b秒」、判定領域が「D→F」、制御コマンドが「次のシーンを表示」である。判定領域は、より厳密には、例えば、各領域の左上座標及び右下座標が記憶される。つまり、判定領域は、始点領域の左上座標(x1、y1)及び右下座標(x2、y2)、並びに、終点領域の左上座標(x3、y3)及び右下座標(x4、y4)が記憶される。また、制御コマンドは、より厳密には、例えば、「次のシーンを表示」を実現させるためのプログラムの識別情報等が記憶される。   In the data 76 shown in FIG. 8, the content component is “scene 1”, the determination time is “a to b seconds”, the determination area is “D → F”, and the control command is “display next scene”. More precisely, for example, the upper left coordinates and the lower right coordinates of each area are stored in the determination area. That is, the determination area stores the upper left coordinates (x1, y1) and lower right coordinates (x2, y2) of the start point area, and the upper left coordinates (x3, y3) and lower right coordinates (x4, y4) of the end point area. The More strictly, the control command stores, for example, identification information of a program for realizing “display next scene”.

データ76の例では、「シーン1」のコンテンツ構成要素に対するレーザー光発振装置2の光の軌跡が、a〜b秒の間に、分割領域DからFへと移動するものであった場合、対応する制御コマンドとして「次のシーンを表示」が実行される。尚、「シーン1」のコンテンツ構成要素の画像は、図7(a)に示す画像67である。   In the example of the data 76, if the locus of the light of the laser beam oscillation device 2 with respect to the content component of “scene 1” moves from the divided areas D to F during a to b seconds, “Display next scene” is executed as a control command to be executed. Note that the image of the content component of “Scene 1” is an image 67 shown in FIG.

図9は、制御コマンド軌跡DBの更新処理を説明する図である。操作者8が、制御コマンド軌跡DB51に登録された表示制御を試してみると、意図していない表示制御がなされる場合がある。例えば、図7、図8に示す例では、操作者8が、観者に画像67の中央部分に注目を促すために、画像67の中央部分にレーザー光発振装置2の光を照射させたところ、操作者8が意図していないにも関わらず、次のシーンが表示されてしまうエラーが発生する場合がある。これは、始点領域である分割領域Dと、終点領域である分割領域Fが大きすぎたことに起因したヒューマンエラーである。そこで、本発明の実施の形態では、分割領域の大きさを容易に変更可能な画面インタフェースを提供する。   FIG. 9 is a diagram illustrating the update process of the control command locus DB. When the operator 8 tries the display control registered in the control command locus DB 51, unintended display control may be performed. For example, in the example shown in FIGS. 7 and 8, the operator 8 irradiates the central portion of the image 67 with the light of the laser light oscillation device 2 in order to prompt the viewer to pay attention to the central portion of the image 67. Even if the operator 8 does not intend, an error that the next scene is displayed may occur. This is a human error caused by the divided area D that is the start point area and the divided area F that is the end point area being too large. Therefore, in the embodiment of the present invention, a screen interface capable of easily changing the size of the divided area is provided.

図9(a)には、図7(c)と同じ軌跡情報が設定されている。コンテンツの製作者が、制御装置5の入力装置を介して、各領域の境界線74を、矢印75の方向に移動すると、制御装置5は、例えば、図9(b)のように、各領域の大きさを変更する。図9(b)に示す例では、境界線74の移動量に応じて、4つの境界線が連動して、中央部分から外側の方向に移動している。そして、分割領域A〜D、F〜Iが小さくなり、分割領域Eが大きくなっている。   In FIG. 9A, the same trajectory information as in FIG. 7C is set. When the content producer moves the boundary line 74 of each region in the direction of the arrow 75 via the input device of the control device 5, the control device 5 can display each region as shown in FIG. 9B, for example. Change the size of. In the example shown in FIG. 9B, the four boundary lines are interlocked and moved outward from the central portion in accordance with the movement amount of the boundary line 74. The divided areas A to D and F to I are reduced, and the divided area E is increased.

そして、制御装置5は、図9(b)に設定された軌跡情報に基づいて、制御コマンド軌跡DB51を更新する。具体的には、制御装置5は、始点領域の左上座標(x1、y1)及び右下座標(x2、y2)、並びに、終点領域の左上座標(x3、y3)及び右下座標(x4、y4)を更新する。このように、更新処理を行うことによって、前述した、分割領域D及び分割領域Fが大きすぎたことに起因したヒューマンエラーを回避することができる。   Then, the control device 5 updates the control command trajectory DB 51 based on the trajectory information set in FIG. 9B. Specifically, the control device 5 determines the upper left coordinates (x1, y1) and lower right coordinates (x2, y2) of the start point region, and the upper left coordinates (x3, y3) and lower right coordinates (x4, y4) of the end point region. ). As described above, by performing the update process, it is possible to avoid the above-described human error caused by the divided area D and the divided area F being too large.

図10は、データの対応関係を示す模式図である。図10では、「シーン1」と「シーン3」のコンテンツ構成要素に対する、制御コマンド軌跡DB51及びコンテンツDB52のデータを示している。   FIG. 10 is a schematic diagram showing the correspondence of data. FIG. 10 shows data in the control command trajectory DB 51 and the content DB 52 for the content components “scene 1” and “scene 3”.

図10には、「シーン1」のコンテンツ構成要素として「画像67」、及び「シーン3」のコンテンツ構成要素として「画像77」が示されている。また、図10には、「シーン1」のコンテンツ構成要素に対応付けられたデータ76、及び「シーン3」のコンテンツ構成要素に対応付けられたデータ78が示されている。   FIG. 10 shows “image 67” as the content component of “scene 1” and “image 77” as the content component of “scene 3”. In addition, FIG. 10 shows data 76 associated with the content component “scene 1” and data 78 associated with the content component “scene 3”.

例えば、コンテンツの製作者や操作者8が、「シーン1」のコンテンツ構成要素に対応付けられた制御コマンド軌跡画像66の表示を指示すると、制御装置5は、データ76から制御コマンド軌跡画像66cを生成し、表示装置に表示する。或いは、制御装置5は、データ76を記憶する際に制御コマンド軌跡画像66cを生成して記憶装置に記憶しておき、記憶装置から制御コマンド軌跡画像66cを読み出して、表示装置に表示しても良い。   For example, when the content producer or operator 8 instructs the display of the control command trajectory image 66 associated with the content component “scene 1”, the control device 5 displays the control command trajectory image 66c from the data 76. Generate and display on the display device. Alternatively, the control device 5 may generate the control command trajectory image 66c when storing the data 76 and store it in the storage device, read the control command trajectory image 66c from the storage device, and display it on the display device. good.

尚、図10に示す例では、1つのコンテンツ構成要素に対して、1つの制御コマンドが対応付けられているが、複数の異なる制御コマンドが対応付けられても良い。複数の異なる制御コマンドを対応付ける場合、制御装置5は、登録処理において判定時間や判定領域が重複しないように制御する。   In the example shown in FIG. 10, one control command is associated with one content component, but a plurality of different control commands may be associated. When associating a plurality of different control commands, the control device 5 performs control so that determination times and determination regions do not overlap in the registration process.

制御装置5の制御コマンド軌跡判定機能41は、図10に示すようなデータを参照し、軌跡抽出機能24によって抽出された軌跡が、いずれかの制御コマンドに対応しているかを確認する。例えば、コンテンツ表示装置4によって「シーン1」のコンテンツ構成要素の画像が物体7に表示されている場合、制御コマンド軌跡判定機能41は、「シーン1」に対応付けられているデータ76を参照し、軌跡抽出機能24によって抽出された軌跡が、判定時間[a〜b秒]内に始点領域Dから終点領域Fへとレーザー光の輝点が移動する軌跡であれば、「次のシーンを表示」の制御コマンドに対応していると判定する。   The control command trajectory determination function 41 of the control device 5 refers to data as shown in FIG. 10 and confirms whether the trajectory extracted by the trajectory extraction function 24 corresponds to any control command. For example, when an image of the content component “scene 1” is displayed on the object 7 by the content display device 4, the control command locus determination function 41 refers to the data 76 associated with “scene 1”. If the trajectory extracted by the trajectory extraction function 24 is a trajectory in which the bright spot of the laser beam moves from the start point region D to the end point region F within the determination time [a to b seconds], “display next scene” It is determined that it corresponds to the control command.

図11は、第1の表示制御例を説明する図である。図11に示す第1の表示制御例は、図10に示す「シーン1」のコンテンツ構成要素に対して、データ76(=「次のシーンを表示」の制御コマンド)に従った表示制御例である。   FIG. 11 is a diagram illustrating a first display control example. The first display control example shown in FIG. 11 is a display control example according to data 76 (= “display command for next scene”) for the content component of “scene 1” shown in FIG. is there.

図11(a)に示す太線81は、物体7に投影されている画像67(=「シーン1」のコンテンツ構成要素の画像)に対して、操作者8がレーザー光発振装置2の光を照射させた軌跡を示している。矢印82は、軌跡の方向を示している。つまり、太線81の軌跡は、左から右に向かって、ほぼ直線である。   A thick line 81 shown in FIG. 11A indicates that the operator 8 irradiates the light of the laser light oscillation device 2 with respect to the image 67 projected on the object 7 (= the image of the content component of “Scene 1”). The trajectory is shown. An arrow 82 indicates the direction of the locus. That is, the locus of the thick line 81 is substantially a straight line from the left to the right.

図11(a)の状態において、撮影装置3が、画像67を含む撮影画像領域61を撮影し、制御装置5に送信する。制御装置5の画像処理部11は、画像67に対する軌跡を抽出し、制御装置5のコンテンツ処理部13は、太線81の軌跡に対応する制御コマンドが「次のシーンを表示」であることを判定し、次のシーンの画像83(=「シーン2」のコンテンツ構成要素の画像)を、コンテンツ表示装置4に表示させるように表示制御を行う。そして、コンテンツ表示装置4は、図11(b)に示すように、制御装置5の表示制御に従って、画像83を物体7に投影する。   In the state of FIG. 11A, the photographing device 3 photographs the photographed image area 61 including the image 67 and transmits it to the control device 5. The image processing unit 11 of the control device 5 extracts a trajectory for the image 67, and the content processing unit 13 of the control device 5 determines that the control command corresponding to the trajectory of the thick line 81 is “display next scene”. Then, display control is performed so that the image 83 of the next scene (= the image of the content component of “scene 2”) is displayed on the content display device 4. Then, the content display device 4 projects an image 83 onto the object 7 in accordance with the display control of the control device 5 as shown in FIG.

第1の表示制御例に示すように、操作者8は、制御装置5の入力装置等を操作することなく、レーザー光発振装置2のみを操作することによって、次のシーンを表示させることができる。つまり、本発明の実施の形態では、操作者8に負担をかけない表示制御を実現することができる。   As shown in the first display control example, the operator 8 can display the next scene by operating only the laser light oscillation device 2 without operating the input device of the control device 5 or the like. . That is, in the embodiment of the present invention, display control that does not place a burden on the operator 8 can be realized.

図12、図13は、第2の表示制御例を説明する図である。図12、図13に示す第2の表示制御例は、図10に示す「シーン3」のコンテンツ構成要素に対して、データ78(=「軌跡内部にコンテンツを表示」の制御コマンド)に従った表示制御例である。尚、「軌跡内部にコンテンツを表示」の制御コマンドの場合、コンテンツ構成要素の画像として、画像77のほかに、マスク画像が対応付けられている。マスク画像は、画像77よりも上位のレイヤーであり、初期状態では画像77全体を覆っている。図12(a)に示すマスク画像91は、画像77をマスクしていることが理解し易いように、全ての画素を同一色としている。   12 and 13 are diagrams illustrating a second display control example. In the second display control example shown in FIGS. 12 and 13, data 78 (= “control command for displaying content inside the trajectory”) is applied to the content component of “scene 3” shown in FIG. It is an example of display control. In the case of the control command “display content inside the locus”, a mask image is associated with the image of the content component in addition to the image 77. The mask image is a higher layer than the image 77 and covers the entire image 77 in the initial state. In the mask image 91 shown in FIG. 12A, all the pixels have the same color so that it can be easily understood that the image 77 is masked.

図12(a)に示す太線92は、物体7に投影されているマスク画像91に対して、操作者8がレーザー光発振装置2の光を照射させた軌跡を示している。矢印93は、軌跡の方向を示している。つまり、太線92の軌跡は、時計回りに、ほぼ楕円形である。   A thick line 92 shown in FIG. 12A indicates a trajectory of the operator 8 irradiating the light of the laser light oscillator 2 with respect to the mask image 91 projected on the object 7. An arrow 93 indicates the direction of the locus. That is, the locus of the thick line 92 is substantially elliptical in the clockwise direction.

図12(a)の状態において、撮影装置3が、マスク画像91を含む撮影画像領域61を撮影し、制御装置5に送信する。制御装置5の画像処理部11は、マスク画像91に対する軌跡を抽出し、制御装置5のコンテンツ処理部13は、太線92の軌跡に対応する制御コマンドが「軌跡内部にコンテンツを表示」であることを判定し、太線92の軌跡内部に、画像77(=「シーン3」のコンテンツ構成要素の画像)を、コンテンツ表示装置4に表示させるように表示制御を行う。より具体的には、制御装置5のコンテンツ処理部13は、マスク画像91に対して、太線92の軌跡よりも内側の領域を削る画像処理を行う。マスク画像91の下のレイヤーには画像77が配置されているので、削られた領域に画像77が表示されることになる。そして、コンテンツ表示装置4は、図12(b)に示すように、制御装置5の表示制御に従って、軌跡内部の領域が削られたマスク画像91と画像77を重畳した画像を物体7に投影する。   In the state of FIG. 12A, the imaging device 3 captures the captured image area 61 including the mask image 91 and transmits it to the control device 5. The image processing unit 11 of the control device 5 extracts a trajectory for the mask image 91, and the content processing unit 13 of the control device 5 indicates that the control command corresponding to the trajectory of the thick line 92 is “display content inside the trajectory”. The display control is performed so that the image 77 (= the image of the content component of “Scene 3”) is displayed on the content display device 4 inside the locus of the thick line 92. More specifically, the content processing unit 13 of the control device 5 performs image processing on the mask image 91 to cut an area inside the locus of the thick line 92. Since the image 77 is arranged in the layer below the mask image 91, the image 77 is displayed in the shaved area. Then, as shown in FIG. 12B, the content display device 4 projects an image on the object 7 in which the mask image 91 and the image 77 in which the region inside the trajectory is superposed is superimposed according to the display control of the control device 5. .

図13では、図12(b)の状態から、更に、操作者8がレーザー光発振装置2を操作し、より広い範囲に画像77を表示させる指示を行った状態を示している。   FIG. 13 shows a state in which the operator 8 further operates the laser light oscillation device 2 and gives an instruction to display the image 77 in a wider range from the state of FIG.

図13(a)に示す太線94は、物体7に投影されているマスク画像91に対して、操作者8がレーザー光発振装置2の光を照射させた軌跡を示している。矢印95は、軌跡の方向を示している。つまり、太線94の軌跡は、時計回りに、ほぼ楕円形であり、太線92よりも外側に位置している。   A thick line 94 shown in FIG. 13A indicates a locus on which the operator 8 irradiates the light of the laser light oscillation device 2 with respect to the mask image 91 projected on the object 7. An arrow 95 indicates the direction of the locus. That is, the locus of the thick line 94 is substantially elliptical in the clockwise direction, and is located outside the thick line 92.

図13(a)の状態において、撮影装置3が、マスク画像91及び画像77を含む撮影画像領域61を撮影し、制御装置5に送信する。制御装置5の画像処理部11は、マスク画像91に対する軌跡を抽出し、制御装置5のコンテンツ処理部13は、太線94の軌跡に対応する制御コマンドが「軌跡内部にコンテンツを表示」であることを判定し、太線94の軌跡内部に、画像77(=「シーン3」のコンテンツ構成要素の画像)を、コンテンツ表示装置4に表示させるように表示制御を行う。より具体的には、制御装置5のコンテンツ処理部13は、マスク画像91に対して、太線94の軌跡よりも内側の領域を削る画像処理を行う。尚、太線92の軌跡よりも内側の領域は、既に削られているものとして扱う。そして、コンテンツ表示装置4は、図13(b)に示すように、制御装置5の表示制御に従って、軌跡内部の領域が削られたマスク画像91と画像77の重畳画像を物体7に投影する。   In the state of FIG. 13A, the imaging device 3 captures the captured image area 61 including the mask image 91 and the image 77 and transmits it to the control device 5. The image processing unit 11 of the control device 5 extracts a trajectory for the mask image 91, and the content processing unit 13 of the control device 5 indicates that the control command corresponding to the trajectory of the thick line 94 is “display content inside the trajectory”. And the display control is performed so that the image 77 (= the image of the content component of “Scene 3”) is displayed on the content display device 4 inside the locus of the thick line 94. More specifically, the content processing unit 13 of the control device 5 performs image processing on the mask image 91 to cut an area inside the locus of the thick line 94. Note that the area inside the locus of the thick line 92 is treated as already cut. Then, as shown in FIG. 13B, the content display device 4 projects a superimposed image of the mask image 91 and the image 77 in which the area inside the trajectory is cut out on the object 7 according to the display control of the control device 5.

第2の表示制御例に示すように、操作者8は、制御装置5の入力装置等を操作することなく、レーザー光発振装置2のみを操作することによって、レーザー光発振装置2の光の軌跡内部に、徐々にコンテンツを表示させていくという表示制御を実現することができる。つまり、本発明の実施の形態では、操作者8にとっても、観者にとってもエンターテイメント性に富んだ表示制御を実現することができる。   As shown in the second display control example, the operator 8 operates only the laser light oscillation device 2 without operating the input device or the like of the control device 5, thereby tracing the light trajectory of the laser light oscillation device 2. It is possible to realize display control in which content is gradually displayed inside. That is, in the embodiment of the present invention, it is possible to realize display control rich in entertainment for both the operator 8 and the viewer.

以上の通り、コンテンツ表示システム1における制御装置5は、コンテンツ構成要素ごとに対応付けられたレーザー光発振装置2の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを制御コマンド軌跡DB51に記憶しておく。そして、制御装置5は、撮影装置3によって撮影される撮影画像63を取得し、撮影画像63からレーザー光発振装置2の光の軌跡を抽出し、抽出された光の軌跡について、記憶されている情報を参照し、対応する制御コマンドを判定し、判定された制御コマンドに基づいてコンテンツの表示制御を行う。これによって、コンテンツ表示システム1では、コンテンツに応じた適切な表示制御を行い、ヒューマンエラーを抑止することができ、かつエンターテイメント性に富んだ表示制御を実現することができる。   As described above, the control device 5 in the content display system 1 performs control for realizing specific display control in association with the trajectory information for identifying the light trajectory of the laser light oscillation device 2 associated with each content component. The command is stored in the control command locus DB 51. And the control apparatus 5 acquires the picked-up image 63 image | photographed with the imaging device 3, extracts the locus | trajectory of the light of the laser beam oscillation apparatus 2 from the captured image 63, and is memorize | stored about the extracted locus | trajectory of light. By referring to the information, the corresponding control command is determined, and content display control is performed based on the determined control command. As a result, the content display system 1 can perform appropriate display control according to the content, suppress human errors, and realize display control rich in entertainment properties.

また、制御コマンド軌跡DB51に記憶される軌跡情報は、判定時間及び判定領域の組からなり、制御装置5は、抽出された光の軌跡を構成する各輝点の照射時間及び照射位置が、軌跡情報における判定時間及び判定領域に含まれるか否かによって、対応する制御コマンドを判定する。そして、制御装置5は、コンテンツ構成要素の画像に判定領域の位置を示す画像を重畳して、コンテンツ表示装置4を含む任意の表示装置に表示させる。これによって、コンテンツの製作者や操作者8は、表示制御のテスト中に判定領域を視覚的に確認することができ、コンテンツの製作作業や確認作業が容易になる。   In addition, the trajectory information stored in the control command trajectory DB 51 includes a set of determination time and determination area, and the control device 5 indicates that the irradiation time and irradiation position of each bright spot constituting the extracted light trajectory is the trajectory. The corresponding control command is determined depending on the determination time in the information and whether it is included in the determination area. Then, the control device 5 superimposes an image indicating the position of the determination area on the image of the content component, and displays it on an arbitrary display device including the content display device 4. As a result, the content producer or operator 8 can visually confirm the determination area during the display control test, and the content production work and confirmation work are facilitated.

また、制御装置5は、判定領域の位置の変更を受け付けて、制御コマンド軌跡DB51の内容を更新する。これによって、コンテンツの製作者や操作者8は、表示制御のテストを行った結果、ヒューマンエラーが発生し易いと判断した軌跡情報を容易に修正することができる。   In addition, the control device 5 accepts a change in the position of the determination area and updates the content of the control command locus DB 51. As a result, the content producer and the operator 8 can easily correct the trajectory information determined to be prone to human error as a result of the display control test.

つまり、制御装置5は、実行環境下で軌跡判定を視覚的に表示し、調整する機能を有する。このような調整機能は、操作者8が、自然な動作(速度や距離)によってレーザー光発振装置2を操作できるようになるという顕著な効果を奏する。例えば、プロジェクタによってコンテンツを表示する場合、物理的な投影サイズ(コンテンツの位置や大きさ)は、実行環境によって様々である。前述の調整機能を有さず、例えば、記憶された判定領域(時間や範囲)が設計時に固定されたままでは、以下に示す問題が発生すると考えられる。
・人間の動作として無理が生じると、輝点検出のロスト、過剰検出等のエラー要因となる。
・操作者8の熟練を必要とし、操作者8がシステムに合わせる負荷が発生して望ましくない。
・開発時の実験と設計の繰り返しや後戻りの作業が発生する。
・異なる実行環境下で同じシステムを再利用するときに再開発が必要となる。
・開発現場では、制御装置5のディスプレイ上での見え方や動作確認しかできず、現場での動作が想像しづらい。
そこで、実行環境下で軌跡判定を視覚的に表示し、調整する機能を利用して、制御コマンド軌跡DB51の内容を更新することによって、実際の操作者8によるレーザー光発振装置2の動作に合わせた調整が可能となり、前述の問題を解消することができる。
That is, the control device 5 has a function of visually displaying and adjusting the trajectory determination under the execution environment. Such an adjustment function has a remarkable effect that the operator 8 can operate the laser light oscillation device 2 by a natural operation (speed or distance). For example, when content is displayed by a projector, the physical projection size (content position and size) varies depending on the execution environment. If the above-described adjustment function is not provided and, for example, the stored determination area (time or range) is fixed at the time of design, the following problems may occur.
・ If an unreasonable human action occurs, it may cause errors such as lost or excessive detection of bright spots.
-Skill of the operator 8 is required, and a load that the operator 8 adjusts to the system is generated, which is not desirable.
・ Repeated and repetitive work of experiment and design during development occurs.
-Redevelopment is required when reusing the same system under different execution environments.
-At the development site, it is only possible to confirm the appearance and operation of the control device 5 on the display, and it is difficult to imagine the operation at the site.
Therefore, by using the function of visually displaying and adjusting the trajectory determination under the execution environment and updating the contents of the control command trajectory DB 51, the actual operation of the laser light oscillation device 2 by the operator 8 is adjusted. Adjustment is possible, and the above-mentioned problems can be solved.

また、制御装置5は、撮影画像63内の特徴点の座標情報と対応付けて、内部処理における座標空間の対応点の座標情報を特定領域抽出DB32に記憶しておく。そして、制御装置5は、撮影画像63から特定領域画像64を生成し、特定領域画像64から特徴点を抽出し、特定領域抽出DB32を参照して特徴点を内部処理における座標空間の対応点にマッピングすることによって特定領域画像64を射影し、処理画像65を生成する。また、制御装置5は、複数の処理画像65に対して輝点の座標を抽出し、抽出された座標の集合を、レーザー光発振装置2の光の軌跡とする。これによって、撮影装置3の撮影方向やコンテンツ表示装置4の投影方向が制約されず、コンテンツ表示システム1を様々な環境の実空間6に適用することができる。   The control device 5 stores the coordinate information of the corresponding points in the coordinate space in the internal processing in the specific area extraction DB 32 in association with the coordinate information of the feature points in the captured image 63. And the control apparatus 5 produces | generates the specific area image 64 from the picked-up image 63, extracts a feature point from the specific area image 64, refers to specific area extraction DB32, and makes a feature point the corresponding point of the coordinate space in internal processing. The specific area image 64 is projected by mapping, and a processed image 65 is generated. Further, the control device 5 extracts the coordinates of the bright spots for the plurality of processed images 65, and uses the set of the extracted coordinates as the light locus of the laser light oscillation device 2. Thus, the shooting direction of the shooting device 3 and the projection direction of the content display device 4 are not restricted, and the content display system 1 can be applied to the real space 6 in various environments.

また、制御装置5は、実行環境に合わせた撮影装置3の撮影パラメータを撮影画像抽出DB31に記憶しておく。そして、制御装置5は、撮影画像抽出DB31を参照して撮影画像63を取得する。これによって、制御装置5によるいくつかの画像処理の手順が不要となり、制御装置5の処理効率が向上する。ひいては、コンテンツ表示システム1の応答性能を向上させることができる。   Further, the control device 5 stores the shooting parameters of the shooting device 3 in accordance with the execution environment in the shot image extraction DB 31. And the control apparatus 5 acquires the picked-up image 63 with reference to picked-up image extraction DB31. This eliminates the need for some image processing procedures by the control device 5 and improves the processing efficiency of the control device 5. As a result, the response performance of the content display system 1 can be improved.

尚、前述の説明では、制御コマンドの例として、「次のシーンを表示」、「軌跡内部にコンテンツを表示」の2種類を説明したが、本発明はこれらの例に限定されない。例えば、制御コマンドとして、「現在のシーンの開始」、「前のシーンを表示」、「シーンの切り替え」、「シーン内でのアニメーション」等が実現可能である。また、前述した通り、別のコンテンツ表示装置4を追加し、床面に別のコンテンツ表示領域62を設けることによって、「壁面から床面への画像飛ばし」等、よりダイナミックな制御コマンドも実現することができる。   In the above description, two types of “display next scene” and “display content inside the trajectory” have been described as examples of control commands. However, the present invention is not limited to these examples. For example, “start current scene”, “display previous scene”, “switch scene”, “animation in scene”, and the like can be realized as control commands. Further, as described above, by adding another content display device 4 and providing another content display area 62 on the floor surface, a more dynamic control command such as “image skipping from the wall surface to the floor surface” is also realized. be able to.

また、前述の説明では、本発明によって回避できるヒューマンエラーの例として、図7(c)における分割領域D及び分割領域Fが大きすぎたことに起因したヒューマンエラーを説明したが、本発明によって回避できるヒューマンエラーはこの例に限定されない。   In the above description, as an example of the human error that can be avoided by the present invention, the human error caused by the divided area D and the divided area F in FIG. 7C being too large has been described. Human errors that can be made are not limited to this example.

例えば、全てのシーンを一通り説明した後、次回の説明の為に先頭のシーンに戻しておくことがある。このときに、誤ってレーザー光発振装置2の光を照射した場合、制御コマンドに従って何らかの表示制御(例えば、「次のシーンを表示」など)がなされてしまう。そこで、全てのシーンを表示し終えた後、先頭のシーンを表示するときは、一定の時間が経過するまで表示制御を全く行わないようにして、ヒューマンエラーを回避することが考えられる。具体的には、制御コマンド軌跡DB51に、判定時間が「表示開始からx秒」、判定領域が「全て」、制御コマンドが「何もしない」という内容のデータを、先頭のシーンのコンテンツ構成要素に対応付けて記憶させれば良い。   For example, after all the scenes have been explained, they may be returned to the first scene for the next explanation. At this time, if the laser light oscillation device 2 is accidentally irradiated with light, some display control (for example, “display next scene”) is performed according to the control command. Therefore, when displaying the first scene after displaying all the scenes, it is conceivable to avoid human error by not performing display control at all until a certain time elapses. Specifically, in the control command trajectory DB 51, data with a determination time “x seconds from the start of display”, a determination area “all”, and a control command “do nothing” is stored in the content component of the first scene. May be stored in association with each other.

以上、添付図面を参照しながら、本発明に係るコンテンツ表示システム等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the content display system and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1………コンテンツ表示システム
2………レーザー光発振装置
3………撮影装置
4………コンテンツ表示装置
5………制御装置
6………実空間
7………物体
8………操作者
11………画像処理部
12………画像処理情報記憶部
13………コンテンツ処理部
14………コンテンツ情報記憶部
21………撮影画像取得機能
22………特定領域抽出・射影機能
23………輝点抽出機能
24………軌跡抽出機能
31………撮影画像抽出DB
32………特定領域抽出DB
33………輝点抽出DB
34………軌跡抽出DB
41………制御コマンド軌跡判定機能
42………コンテンツ表示制御機能
51………制御コマンド軌跡DB
52………コンテンツDB
61………撮影画像領域
62………コンテンツ表示領域
63………撮影画像
64………特定領域画像
65………処理画像
66、66a、66b、66c、66d………制御コマンド軌跡画像
DESCRIPTION OF SYMBOLS 1 ......... Content display system 2 ......... Laser light oscillation device 3 ......... Shooting device 4 ......... Content display device 5 ......... Control device 6 ......... Real space 7 ......... Object 8 ......... Operation 11 ......... Image processing unit 12 ......... Image processing information storage unit 13 ......... Content processing unit 14 ......... Content information storage unit 21 ......... Captured image acquisition function 22 ......... Specific area extraction / projection function 23 ......... Bright spot extraction function 24 ......... Track extraction function 31 ... …… Photograph image extraction DB
32 ... Specific area extraction DB
33 ..... Bright spot extraction DB
34 .... Trajectory extraction DB
41... Control command locus determination function 42... Content display control function 51.
52 ……… Content DB
61... Imaged image area 62... Content display area 63... Imaged image 64... Specific area image 65 ... Processed image 66, 66 a, 66 b, 66 c, 66 d ......

Claims (8)

操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによってコンテンツの表示制御を指示するコンテンツ表示システムであって、
前記レーザー光発振装置と、
前記レーザー光発振装置の光が照射される領域を撮影する撮影装置と、
前記コンテンツを表示するコンテンツ表示装置と、
前記撮影装置及び前記コンテンツ表示装置を制御する制御装置と、
によって構成され、
前記制御装置は、
前記コンテンツを構成するコンテンツ構成要素毎に、前記レーザー光発振装置の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを記憶する第1記憶手段と、
前記撮影装置によって撮影される撮影画像を取得する取得手段と、
前記撮影画像から前記レーザー光発振装置の光の軌跡を抽出する抽出手段と、
前記抽出手段によって抽出された光の軌跡について、前記第1記憶手段を参照し、対応する前記制御コマンドを判定する判定手段と、
前記判定手段によって判定された前記制御コマンドに基づいて、前記コンテンツの表示制御を行うコンテンツ表示制御手段と、
を備えることを特徴とするコンテンツ表示システム。
A content display system in which an operator instructs display control of content by irradiating an object in real space with light of a laser light oscillation device,
The laser light oscillation device;
A photographing device for photographing a region irradiated with light from the laser light oscillator;
A content display device for displaying the content;
A control device for controlling the photographing device and the content display device;
Composed by
The controller is
First storage means for storing a control command for realizing specific display control in association with trajectory information for identifying a trajectory of light of the laser light oscillation device for each content component constituting the content;
Obtaining means for obtaining a photographed image photographed by the photographing device;
Extraction means for extracting a light locus of the laser light oscillation device from the photographed image;
A determination unit that determines the corresponding control command with reference to the first storage unit with respect to the locus of light extracted by the extraction unit;
Content display control means for performing display control of the content based on the control command determined by the determination means;
A content display system comprising:
前記軌跡情報は、判定時間及び判定領域の組からなり、
前記判定手段は、前記抽出手段によって抽出された光の軌跡を構成する輝点の照射時間及び照射位置が、前記軌跡情報における前記判定時間及び前記判定領域に含まれるか否かによって、対応する前記制御コマンドを判定し、
前記制御装置は、
前記コンテンツ構成要素の画像に前記判定領域の位置を示す画像を重畳して、前記コンテンツ表示装置を含む任意の表示装置に表示させる軌跡情報表示制御手段、
を更に具備することを特徴とする請求項1に記載のコンテンツ表示システム。
The trajectory information consists of a set of determination time and determination area,
The determination means corresponds to whether or not the irradiation time and irradiation position of the bright spot constituting the light trajectory extracted by the extraction means are included in the determination time and the determination region in the trajectory information. Determine the control command,
The controller is
Trajectory information display control means for superimposing an image indicating the position of the determination region on the image of the content component element and displaying it on an arbitrary display device including the content display device;
The content display system according to claim 1, further comprising:
前記制御装置は、
前記判定領域の位置の変更を受け付けて、前記第1記憶手段の内容を更新する軌跡情報更新手段、
を更に具備することを特徴とする請求項2に記載のコンテンツ表示システム。
The controller is
Trajectory information update means for receiving a change in the position of the determination area and updating the contents of the first storage means,
The content display system according to claim 2, further comprising:
前記制御装置は、
前記撮影画像内の特徴点の座標情報と対応付けて、前記制御装置の内部処理における座標空間の対応点の座標情報を記憶する第2記憶手段と、
前記撮影画像から特定領域画像を生成し、前記特定領域画像から特徴点を抽出し、前記第2記憶手段を参照して特徴点を前記制御装置の内部処理における座標空間の対応点にマッピングすることによって前記特定領域画像を射影し、処理画像を生成する射影手段と、
を更に具備し、
前記抽出手段は、複数の前記処理画像に対して輝点の座標を抽出し、抽出された座標の集合を、前記レーザー光発振装置の光の軌跡とする
ことを特徴とする請求項1から請求項3のいずれかに記載のコンテンツ表示システム。
The controller is
Second storage means for storing the coordinate information of the corresponding point in the coordinate space in the internal processing of the control device in association with the coordinate information of the feature point in the captured image;
Generating a specific area image from the captured image, extracting a feature point from the specific area image, and mapping the feature point to a corresponding point in a coordinate space in the internal processing of the control device with reference to the second storage unit Projecting means for projecting the specific area image and generating a processed image,
Further comprising
2. The extraction unit according to claim 1, wherein the extraction unit extracts the coordinates of a bright spot from a plurality of the processed images, and sets a set of the extracted coordinates as a light locus of the laser light oscillation device. Item 4. The content display system according to any one of Items 3 to 4.
前記制御装置は、
実行環境に合わせた前記撮影装置の撮影パラメータを記憶する第3記憶手段、
を更に具備し、
前記取得手段は、前記第3記憶手段を参照して前記撮影画像を取得する
ことを特徴とする請求項1から請求項4のいずれかに記載のコンテンツ表示システム。
The controller is
Third storage means for storing imaging parameters of the imaging apparatus in accordance with the execution environment;
Further comprising
The content display system according to claim 1, wherein the acquisition unit acquires the captured image with reference to the third storage unit.
操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによってコンテンツの表示制御を指示するコンテンツ表示システムにおいて、前記レーザー光発振装置の光が照射される領域を撮影する撮影装置、及び前記コンテンツを表示するコンテンツ表示装置を制御するコンテンツ表示制御装置を制御し、前記コンテンツを構成するコンテンツ構成要素毎に、前記レーザー光発振装置の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを記憶する第1記憶手段を備える制御装置によるコンテンツ表示制御方法であって、
前記撮影装置によって撮影される撮影画像を取得する取得ステップと、
前記撮影画像から前記レーザー光発振装置の光の軌跡を抽出する抽出ステップと、
前記抽出ステップによって抽出された光の軌跡について、前記第1記憶手段を参照し、対応する前記制御コマンドを判定する判定ステップと、
前記判定ステップによって判定された前記制御コマンドに基づいて、前記コンテンツの表示制御を行うコンテンツ表示制御ステップと、
を含むことを特徴とするコンテンツ表示制御方法。
In a content display system in which an operator directs display control of content by irradiating light in a laser beam to an object in real space, shooting is performed to shoot a region irradiated with light from the laser light oscillator The content display control device that controls the device and the content display device that displays the content is associated with trajectory information that identifies the light trajectory of the laser light oscillation device for each content component constituting the content A content display control method by a control device comprising first storage means for storing a control command for realizing specific display control,
An obtaining step of obtaining a photographed image photographed by the photographing device;
An extraction step of extracting a light trajectory of the laser light oscillation device from the captured image;
A determination step of determining the corresponding control command with reference to the first storage unit for the light trajectory extracted by the extraction step;
A content display control step for performing display control of the content based on the control command determined by the determination step;
A content display control method comprising:
操作者が実空間内の物体に対してレーザー光発振装置の光を照射することによってコンテンツの表示制御を指示するコンテンツ表示システムにおいて、前記レーザー光発振装置の光が照射される領域を撮影する撮影装置、及び前記コンテンツを表示するコンテンツ表示装置を制御するコンテンツ表示制御装置であって、
前記コンテンツを構成するコンテンツ構成要素毎に、前記レーザー光発振装置の光の軌跡を識別する軌跡情報と対応付けて、特定の表示制御を実現する制御コマンドを記憶する第1記憶手段と、
前記撮影装置によって撮影される撮影画像を取得する取得手段と、
前記撮影画像から前記レーザー光発振装置の光の軌跡を抽出する抽出手段と、
前記抽出手段によって抽出された光の軌跡について、前記第1記憶手段を参照し、対応する前記制御コマンドを判定する判定手段と、
前記判定手段によって判定された前記制御コマンドに基づいて、前記コンテンツの表示制御を行うコンテンツ表示制御手段と、
を備えることを特徴とするコンテンツ表示制御装置。
In a content display system in which an operator directs display control of content by irradiating light in a laser beam to an object in real space, shooting is performed to shoot a region irradiated with light from the laser light oscillator A content display control device for controlling a device and a content display device for displaying the content,
First storage means for storing a control command for realizing specific display control in association with trajectory information for identifying a trajectory of light of the laser light oscillation device for each content component constituting the content;
Obtaining means for obtaining a photographed image photographed by the photographing device;
Extraction means for extracting a light locus of the laser light oscillation device from the photographed image;
A determination unit that determines the corresponding control command with reference to the first storage unit with respect to the locus of light extracted by the extraction unit;
Content display control means for performing display control of the content based on the control command determined by the determination means;
A content display control device comprising:
コンピュータを、請求項7に記載のコンテンツ表示制御装置として機能させるためのプログラム。   A program for causing a computer to function as the content display control device according to claim 7.
JP2011170811A 2011-08-04 2011-08-04 Content display system, content display control method, content display control device, and program Pending JP2013037420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011170811A JP2013037420A (en) 2011-08-04 2011-08-04 Content display system, content display control method, content display control device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011170811A JP2013037420A (en) 2011-08-04 2011-08-04 Content display system, content display control method, content display control device, and program

Publications (1)

Publication Number Publication Date
JP2013037420A true JP2013037420A (en) 2013-02-21

Family

ID=47887007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011170811A Pending JP2013037420A (en) 2011-08-04 2011-08-04 Content display system, content display control method, content display control device, and program

Country Status (1)

Country Link
JP (1) JP2013037420A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192127A1 (en) * 2013-05-30 2014-12-04 株式会社ディーシステムズ Application program, portable terminal, server device, and computer network system
JP7351948B2 (en) 2022-02-07 2023-09-27 三菱電機Itソリューションズ株式会社 Screen control device, screen control method, and screen control program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JP2001125738A (en) * 1999-09-21 2001-05-11 Seiko Epson Corp Presentation control system and method
JP2001344069A (en) * 2000-03-31 2001-12-14 Seiko Epson Corp Indicated position detection using picture processing
JP2003122505A (en) * 2001-10-12 2003-04-25 Sony Corp Information processor, information processing system, and program
JP2005284874A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Projector and command extraction method
JP2011008768A (en) * 2009-06-29 2011-01-13 Sharp Corp Instruction input device, instruction input method, program, and recording medium thereof
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium
US20110119638A1 (en) * 2009-11-17 2011-05-19 Babak Forutanpour User interface methods and systems for providing gesturing on projected images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JP2001125738A (en) * 1999-09-21 2001-05-11 Seiko Epson Corp Presentation control system and method
JP2001344069A (en) * 2000-03-31 2001-12-14 Seiko Epson Corp Indicated position detection using picture processing
JP2003122505A (en) * 2001-10-12 2003-04-25 Sony Corp Information processor, information processing system, and program
JP2005284874A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Projector and command extraction method
JP2011008768A (en) * 2009-06-29 2011-01-13 Sharp Corp Instruction input device, instruction input method, program, and recording medium thereof
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium
US20110119638A1 (en) * 2009-11-17 2011-05-19 Babak Forutanpour User interface methods and systems for providing gesturing on projected images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014192127A1 (en) * 2013-05-30 2014-12-04 株式会社ディーシステムズ Application program, portable terminal, server device, and computer network system
JP7351948B2 (en) 2022-02-07 2023-09-27 三菱電機Itソリューションズ株式会社 Screen control device, screen control method, and screen control program

Similar Documents

Publication Publication Date Title
CN107251101B (en) Scene modification for augmented reality using markers with parameters
KR101187500B1 (en) Light projection device and illumination device
JP6323040B2 (en) Image processing apparatus, image processing method, and program
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
KR101248736B1 (en) Augmented reality book station based augmented reality system and method, augmented reality processing apparatus for realizing the same
KR101961758B1 (en) 3-Dimensional Contents Providing System, Method and Computer Readable Recoding Medium
US11477432B2 (en) Information processing apparatus, information processing method and storage medium
KR101691880B1 (en) Interactive System Having Auto Calibration Function And Auto Calibration Method of Interactive System
JP6380685B2 (en) Dimension measuring device
AU2017294531A2 (en) A device for generating computer programs and a method for generating computer programs
JP5831764B2 (en) Image display apparatus and program
JP2013037420A (en) Content display system, content display control method, content display control device, and program
JP2019179481A (en) Computer program and portable terminal device
JP2017059041A (en) Image processing device, image processing method, and program
US20220244788A1 (en) Head-mounted display
JP6314564B2 (en) Image processing apparatus, image processing method, and program
JP6694907B2 (en) Judgment device, judgment method and judgment program
KR101595960B1 (en) 3d image generation method and apparatus performing the same
US20170052603A1 (en) Display control apparatus, display control method and recording medium
GB2564715A (en) Systems and methods of forming virtual models
WO2023037626A1 (en) Information processing device, information processing method, and program
WO2023195301A1 (en) Display control device, display control method, and display control program
KR102217198B1 (en) Apparatus and method for providing augmented reality rendering html contents
JP2024021205A (en) image processing program
JP2016224888A (en) Information processing apparatus, coordinate estimation program, and coordinate estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150929