JP2013105330A - Control processing program, image display device and image display method - Google Patents

Control processing program, image display device and image display method Download PDF

Info

Publication number
JP2013105330A
JP2013105330A JP2011248898A JP2011248898A JP2013105330A JP 2013105330 A JP2013105330 A JP 2013105330A JP 2011248898 A JP2011248898 A JP 2011248898A JP 2011248898 A JP2011248898 A JP 2011248898A JP 2013105330 A JP2013105330 A JP 2013105330A
Authority
JP
Japan
Prior art keywords
image
forming apparatus
image forming
position information
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011248898A
Other languages
Japanese (ja)
Other versions
JP5831151B2 (en
Inventor
Kenji Ogasawara
賢二 小笠原
Ryu Higashi
立 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2011248898A priority Critical patent/JP5831151B2/en
Publication of JP2013105330A publication Critical patent/JP2013105330A/en
Application granted granted Critical
Publication of JP5831151B2 publication Critical patent/JP5831151B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a control processing program, an image display device, and an image display method for starting the operation of an extended actual object according to a position of an operator's finger.SOLUTION: A control processing program of the present invention has the steps of: obtaining a background video; obtaining display positional information of an image forming apparatus to be installed; generating a device image of the image forming apparatus, on the basis of the display positional information and size information of the image forming apparatus; obtaining positional information of a hand or a finger; generating a pointer image that illustrates a position of the hand or the finger, on the basis of the positional information of the hand or the finger; generating an output video by composing the background video, the device image, and the pointer image; executing a predetermined operation of a simulation model that simulates the operation of the image forming apparatus, on the basis of a position to install the image forming apparatus and the positional information of the hand or the finger; and displaying the output video.

Description

本発明は、制御処理プログラム、画像表示装置、および画像表示方法に関する。   The present invention relates to a control processing program, an image display device, and an image display method.

近年、現実の世界の映像に仮想的な物体の画像(以下、拡張現実オブジェクトと称する)を合成してディスプレイで表示することにより、その拡張現実オブジェクトがあたかも現実の世界に存在するかのように視聴者に見せる拡張現実感を使用した技術が注目されている。   In recent years, a virtual object image (hereinafter referred to as an augmented reality object) is synthesized on a real world image and displayed on a display, so that the augmented reality object exists as if it exists in the real world. A technology that uses augmented reality that viewers can see is drawing attention.

たとえば下記の特許文献1には、現実の部屋の映像に仮想的な家具の画像を合成して、家具があたかも現実の部屋に存在するかのように見せる技術が開示されている。   For example, Patent Document 1 below discloses a technique in which a virtual furniture image is synthesized with an image of an actual room so that the furniture appears as if it exists in the actual room.

また、単に現実の世界の映像に拡張現実オブジェクト合成して表示させるだけではなく、拡張現実オブジェクトに対して操作者が働きかけることにより、拡張現実オブジェクトが何らかの動作を開始する技術も開発されている。たとえば、下記の特許文献2には、現実の世界の映像に合成して表示された仮想的なキャラクタを操作者が発する音声に応じて動かす技術が開示されている。   In addition, a technique has been developed in which an augmented reality object starts some operation when an operator acts on the augmented reality object, instead of simply synthesizing and displaying the augmented reality object on a video in the real world. For example, Patent Document 2 below discloses a technique for moving a virtual character that is synthesized and displayed on a video image of the real world in accordance with a voice uttered by an operator.

しかしながら、特許文献2の画像表示システムでは、操作者が発する音声に応じて拡張現実オブジェクトの動作を開始することはできるものの、操作者の動作、たとえば操作者の指の位置に応じて拡張現実オブジェクトの動作を開始することはできない。   However, in the image display system of Patent Literature 2, although the operation of the augmented reality object can be started in accordance with the sound emitted by the operator, the augmented reality object is determined in accordance with the operation of the operator, for example, the position of the operator's finger. The operation cannot be started.

特表2010−541054号公報Special table 2010-541044 gazette 特許第4696184号公報Japanese Patent No. 4696184

本発明は、上述した問題を解決するためになされたものである。したがって、本発明の目的は、操作者の指の位置に応じて拡張現実オブジェクトの動作を開始することができる制御処理プログラム、画像表示装置、および画像表示方法を提供することである。   The present invention has been made to solve the above-described problems. Accordingly, an object of the present invention is to provide a control processing program, an image display device, and an image display method capable of starting an operation of an augmented reality object according to the position of an operator's finger.

本発明の上記目的は、下記によって達成される。   The above object of the present invention is achieved by the following.

(1)背景映像を取得する手順(a)と、設置する画像形成装置の表示位置情報を取得する手順(b)と、前記表示位置情報と前記画像形成装置のサイズに関する情報とに基づいて、前記画像形成装置の装置画像を生成する手順(c)と、手または指の位置情報を取得する手順(d)と、前記手または指の位置情報に基づいて、前記手または指の位置を示すポインタ画像を生成する手順(e)と、前記背景映像、前記装置画像、および前記ポインタ画像を合成して出力映像を生成する手順(f)と、前記画像形成装置を設置する位置と前記手または指の位置情報とに基づいて、前記画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行する手順(g)と、前記出力映像を表示する手順(h)と、を有する、コンピューターに実行させるための制御処理プログラム。   (1) Based on the procedure (a) for acquiring the background image, the procedure (b) for acquiring the display position information of the image forming apparatus to be installed, and the display position information and information on the size of the image forming apparatus, The position of the hand or finger is indicated based on the procedure (c) for generating the device image of the image forming apparatus, the procedure (d) for acquiring the position information of the hand or finger, and the position information of the hand or finger. A procedure (e) for generating a pointer image, a procedure (f) for synthesizing the background image, the device image, and the pointer image to generate an output image, a position where the image forming apparatus is installed, and the hand or A computer having a procedure (g) for executing a predetermined operation of a simulation model simulating the operation of the image forming apparatus based on the finger position information and a procedure (h) for displaying the output video Control processing program to be executed by the.

(2)前記背景映像は、前記画像形成装置を設置する場所を撮像手段が撮像して取得されることを特徴とする上記(1)に記載の制御処理プログラム。   (2) The control processing program according to (1), wherein the background video is acquired by an imaging unit imaging a place where the image forming apparatus is installed.

(3)前記手順(b)において、前記背景映像からマーカーの画像を抽出して前記表示位置情報を取得することを特徴とする上記(2)に記載の制御処理プログラム。   (3) The control processing program according to (2), wherein in the step (b), a marker image is extracted from the background video to acquire the display position information.

(4)上記(1)〜(3)のいずれか1つに記載の画像処理プログラムを記録したコンピューター読み取り可能な記録媒体。   (4) A computer-readable recording medium on which the image processing program according to any one of (1) to (3) is recorded.

(5)背景映像を取得する背景映像取得手段と、設置する画像形成装置の表示位置情報を取得する表示位置情報取得手段と、前記表示位置情報と前記画像形成装置のサイズに関する情報とに基づいて、前記画像形成装置の装置画像を生成する装置画像生成手段と、手または指の位置情報を取得する手指位置情報取得手段と、前記手または指の位置情報に基づいて、前記手または指の位置を示すポインタ画像を生成するポインタ画像生成手段と、前記背景映像、前記装置画像、および前記ポインタ画像を合成して出力映像を生成する画像合成手段と、前記画像形成装置を設置する位置と前記手または指の位置情報とに基づいて、前記画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行するモデル実行手段と、前記出力映像を表示する表示手段と、を有することを特徴とする画像表示装置。   (5) Based on background video acquisition means for acquiring a background video, display position information acquisition means for acquiring display position information of an image forming apparatus to be installed, and information on the display position information and the size of the image forming apparatus. A device image generation unit that generates a device image of the image forming device, a finger position information acquisition unit that acquires position information of a hand or a finger, and the position of the hand or finger based on the position information of the hand or the finger A pointer image generating means for generating a pointer image indicating image, an image synthesizing means for generating an output video by synthesizing the background video, the apparatus image, and the pointer image, a position where the image forming apparatus is installed, and the hand Alternatively, based on the finger position information, model execution means for executing a predetermined operation of a simulation model that simulates the operation of the image forming apparatus, and the output projection The image display apparatus characterized by having a display unit for displaying.

(6)前記背景映像取得手段は、撮像手段を有し、前記背景映像は、前記画像形成装置を設置する場所を前記撮像手段が撮像して取得されることを特徴とする上記(5)に記載の画像表示装置。   (6) In the above (5), the background video acquisition unit includes an imaging unit, and the background video is acquired by imaging the location where the image forming apparatus is installed by the imaging unit. The image display device described.

(7)前記表示位置情報取得手段は、前記背景映像からマーカーの画像を抽出して前記表示位置情報を取得することを特徴とする上記(6)に記載の画像表示装置。   (7) The image display device according to (6), wherein the display position information acquisition unit acquires the display position information by extracting a marker image from the background video.

(8)背景映像を取得する段階と、設置する画像形成装置の表示位置情報を取得する段階と、前記表示位置情報と前記画像形成装置のサイズに関する情報とに基づいて、前記画像形成装置の装置画像を生成する段階と、手または指の位置情報を取得する段階と、前記手または指の位置情報に基づいて、前記手または指の位置を示すポインタ画像を生成する段階と、前記背景映像、前記装置画像、および前記ポインタ画像を合成して出力映像を生成する段階と、前記画像形成装置を設置する位置と前記手または指の位置情報とに基づいて、前記画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行する段階と、前記出力映像を表示する段階と、を有する、画像表示方法。   (8) Based on the step of acquiring a background image, the step of acquiring display position information of the image forming apparatus to be installed, and the display position information and information relating to the size of the image forming apparatus, the apparatus of the image forming apparatus Generating an image; obtaining hand or finger position information; generating a pointer image indicating the hand or finger position based on the hand or finger position information; and the background video; The operation of the image forming apparatus is simulated based on the step of synthesizing the apparatus image and the pointer image to generate an output video, the position where the image forming apparatus is installed, and the position information of the hand or finger. An image display method comprising: performing a predetermined operation of a simulation model; and displaying the output video.

本発明によれば、操作者の手または指の位置に基づいて、ディスプレイに表示された拡張現実オブジェクトのシミュレーションモデルの所定動作を実行し、拡張現実オブジェクトの動作を開始する。したがって、操作者は、画像形成装置を実際に操作しているような体験をすることができるので、画像形成装置を実際に設置した場合に近い状態で事前検討することができる。   According to the present invention, based on the position of the operator's hand or finger, a predetermined operation of the simulation model of the augmented reality object displayed on the display is executed, and the operation of the augmented reality object is started. Therefore, the operator can experience as if the image forming apparatus is actually operated, and thus can examine in advance in a state close to the case where the image forming apparatus is actually installed.

本発明の第1の実施形態の画像表示装置の概観を示す概略斜視図である。1 is a schematic perspective view showing an overview of an image display device according to a first embodiment of the present invention. 本発明の第1の実施形態の画像表示装置の概略ブロック構成図である。1 is a schematic block configuration diagram of an image display device according to a first embodiment of the present invention. 本発明の第1の実施形態における制御処理プログラムの処理手順を概略的に説明するためのフローチャートである。It is a flowchart for demonstrating roughly the process sequence of the control processing program in the 1st Embodiment of this invention. 本発明の第1の実施形態において、入力操作として「終了要求」が選択された場合にディスプレイに表示される背景映像を例示する図である。FIG. 6 is a diagram illustrating a background image displayed on a display when “end request” is selected as an input operation in the first embodiment of the present invention. 本発明の第1の実施形態において、マーカーが配置されていない場合にディスプレイに表示される背景映像を例示する図である。In the 1st Embodiment of this invention, it is a figure which illustrates the background image | video displayed on a display when the marker is not arrange | positioned. 本発明の第1の実施形態において、操作者の手指がカメラの視野に入っていない場合にディスプレイに表示される映像を例示する図である。In the 1st Embodiment of this invention, it is a figure which illustrates the image | video displayed on a display when an operator's finger is not in the visual field of a camera. 本発明の第1の実施形態において、背景映像、装置画像、およびポインタ画像を合成した場合にディスプレイに表示される映像を例示する図である。In the 1st Embodiment of this invention, it is a figure which illustrates the image | video displayed on a display when a background image | video, an apparatus image, and a pointer image are synthesize | combined. 図3に示すステップS103を説明するフローチャートである。It is a flowchart explaining step S103 shown in FIG. 図3に示すステップS105を説明するフローチャートである。It is a flowchart explaining step S105 shown in FIG. 図3に示すステップS106を説明するフローチャートである。It is a flowchart explaining step S106 shown in FIG. 操作ポイントを算出する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating an operation point. 図3に示すステップS108を説明するフローチャートである。It is a flowchart explaining step S108 shown in FIG. 図12に示すステップS503を説明するフローチャートである。It is a flowchart explaining step S503 shown in FIG. ポインタ画像を例示するための図である。It is a figure for illustrating a pointer image. ポインタ画像を例示するための図である。It is a figure for illustrating a pointer image. ポインタ画像を例示するための図である。It is a figure for illustrating a pointer image. ポインタ画像を例示するための図である。It is a figure for illustrating a pointer image. ポインタ画像を例示するための図である。It is a figure for illustrating a pointer image. 図3に示すステップS110を説明するフローチャートである。It is a flowchart explaining step S110 shown in FIG. 図15に示すステップS702を説明するフローチャートである。It is a flowchart explaining step S702 shown in FIG. 「印刷動作」のシミュレーションを実行した場合にディスプレイに表示される映像を例示する図である。It is a figure which illustrates the image | video displayed on a display when the simulation of "printing operation" is performed. 本発明の第2の実施形態の画像表示装置の概略ブロック構成図である。It is a schematic block block diagram of the image display apparatus of the 2nd Embodiment of this invention.

(第1の実施形態)
以下、図1を参照して、本発明の第1の実施形態を説明する。図1は本発明の第1の実施形態の画像表示装置の概観を示す概略斜視図であり、図2は本発明の第1の実施形態の画像表示装置の概略ブロック構成図である。本実施形態の画像表示装置は、操作者の手または指の位置に基づいて、ディスプレイに表示された拡張現実オブジェクトのシミュレーションモデルの所定動作を実行し、拡張現実オブジェクトの動作を開始させることを特徴とする。なお、本実施形態の画像表示装置は、複写機、プリンター、ファクシミリ、複合機などの画像形成装置の設置を検討する場合に好適に使用することができる。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a schematic perspective view showing an overview of an image display apparatus according to a first embodiment of the present invention, and FIG. 2 is a schematic block diagram of the image display apparatus according to the first embodiment of the present invention. The image display device according to the present embodiment executes a predetermined operation of a simulation model of an augmented reality object displayed on a display based on the position of an operator's hand or finger, and starts the operation of the augmented reality object. And Note that the image display apparatus of this embodiment can be suitably used when considering the installation of an image forming apparatus such as a copying machine, a printer, a facsimile machine, or a multifunction machine.

図1に示すとおり、本実施形態の画像表示装置100は、携帯可能なタブレット型の端末であり、画像表示装置100の操作者(以下、単に操作者と称する)が室内を自由に持ち歩くことができるように構成されている。本実施形態では、操作者が画像表示装置100を使用して、画像形成装置および画像形成装置のオプション装置(以下、画像形成装置等と称する)を窓Wがある室内に設置することを検討する場合を想定して説明する。   As shown in FIG. 1, the image display device 100 according to the present embodiment is a portable tablet terminal, and an operator of the image display device 100 (hereinafter simply referred to as an operator) can freely carry around the room. It is configured to be able to. In the present embodiment, the operator considers using the image display apparatus 100 to install the image forming apparatus and an optional apparatus for the image forming apparatus (hereinafter referred to as an image forming apparatus or the like) in a room with the window W. A case will be described.

なお、本実施形態の画像表示装置は、上述のようなタブレット型ではなく、背景に拡張現実オブジェクトを重ね合せて表示するゴーグル型(メガネ型)であってもよい。この場合、画像表示装置は操作者の顔部に装着されるので持ち運ぶ必要がなくなる。   Note that the image display device of the present embodiment is not a tablet type as described above, but may be a goggle type (glasses type) that displays an augmented reality object superimposed on a background. In this case, since the image display device is attached to the face of the operator, it is not necessary to carry it.

画像表示装置100は、カメラ110、センサー120、ディスプレイ130、タッチパネル140、スピーカー150、制御部160(図2を参照)、および筐体170を有する。   The image display device 100 includes a camera 110, a sensor 120, a display 130, a touch panel 140, a speaker 150, a control unit 160 (see FIG. 2), and a housing 170.

カメラ110は、背景映像取得手段および表示位置情報取得手段として、画像形成装置等を設置する場所を撮像し、背景映像を取得する。操作者は、画像形成装置等を設置する場所がカメラ110の視野に入るように筐体170の向きを調整する。   The camera 110 captures an image of a place where an image forming apparatus or the like is installed as a background image acquisition unit and a display position information acquisition unit, and acquires a background image. The operator adjusts the orientation of the housing 170 so that the place where the image forming apparatus or the like is installed falls within the field of view of the camera 110.

カメラ110は、筐体170の一面に取り付けられており、画像形成装置等を設置する場所の映像を所定の周期で取り込み、制御部160に伝達する。この際、マーカー200の画像も画像形成装置等を設置する場所の映像の一部として取り込まれ、制御部160に伝達される。マーカー200は、表面に文字、記号、図形などが記されたシート状の媒体であり、設置する画像形成装置の機種を識別する情報を含む。操作者は、画像形成装置を設置する場所にマーカー200を予め配置しておく。なお、カメラ110は、筐体170に内蔵することもできる。   The camera 110 is attached to one surface of the housing 170, captures a video of a place where the image forming apparatus or the like is installed at a predetermined cycle, and transmits it to the control unit 160. At this time, the image of the marker 200 is also captured as part of the image of the place where the image forming apparatus or the like is installed, and is transmitted to the control unit 160. The marker 200 is a sheet-like medium having characters, symbols, graphics, etc. written on the surface thereof, and includes information for identifying the model of the image forming apparatus to be installed. The operator arranges the marker 200 in advance at the place where the image forming apparatus is installed. Note that the camera 110 can also be incorporated in the housing 170.

センサー120は、手指位置情報取得手段として、操作者の手または指(以下、手指と称する)を検出する。センサー120は、たとえば赤外線センサーを有し、筐体170の一面にカメラ110と並んで取り付けられる。センサー120は、センサー120の近距離にある物体からの赤外線放射を赤外線センサーで検出する。センサー120は、操作者の手指が赤外線センサーの検出範囲に入ると、操作者の手指の赤外線放射を検出して、画像データとして制御部160に伝達する。センサー120は、筐体170に内蔵することもできる。   The sensor 120 detects an operator's hand or finger (hereinafter referred to as a finger) as finger position information acquisition means. The sensor 120 includes, for example, an infrared sensor, and is attached to one surface of the housing 170 along with the camera 110. The sensor 120 detects infrared radiation from an object at a short distance from the sensor 120 with an infrared sensor. When the operator's finger enters the detection range of the infrared sensor, the sensor 120 detects the infrared radiation of the operator's finger and transmits it to the controller 160 as image data. The sensor 120 can also be built in the housing 170.

なお、後述するとおり、本実施形態の画像表示装置100では、操作者の手指の位置に基づいて、ディスプレイ130に表示された拡張現実オブジェクトのシミュレーションモデルの所定動作を実行する。操作者の手指の位置は、センサー120が操作者の手指を検出し、制御部160で検出結果を処理することによって取得される。   As will be described later, in the image display apparatus 100 according to the present embodiment, a predetermined operation of the simulation model of the augmented reality object displayed on the display 130 is executed based on the position of the finger of the operator. The position of the operator's finger is acquired by the sensor 120 detecting the operator's finger and processing the detection result by the control unit 160.

一方、センサー120は赤外線センサーで物体を検出するので、特別に判別処理を施さない限り、制御部160は手指が操作者のものであるのか他の人間のものであるのかを判別することはできない。以下では、説明の便宜上、操作者の手指を用いる場合を例示して説明する。しかしながら、手指には操作者以外の人間の手指も含むことができる。また、人間の手指の代わりに指示棒などを用いることもできる。   On the other hand, since the sensor 120 detects an object with an infrared sensor, the control unit 160 cannot determine whether the finger belongs to an operator or another person unless special determination processing is performed. . Below, for convenience of explanation, a case where the operator's fingers are used will be described as an example. However, the fingers may include human fingers other than the operator. In addition, an indicator stick or the like can be used instead of human fingers.

ディスプレイ130は、表示手段として、出力映像、各種設定項目、メッセージなどを表示する。具体的には、ディスプレイ130は、制御部160が生成する拡張現実オブジェクトと背景映像とが合成された出力映像を表示する。また、ディスプレイ130は、画像表示装置100の各種のモード、機能、オプション装置の機種、表示方法などの設定項目を設定する際の設定画面を表示する。さらに、ディスプレイ130は、各種の設定項目を設定する際に制御部160から出力されたメッセージ、警告メッセージなどを表示する。   The display 130 displays output video, various setting items, messages, and the like as display means. Specifically, the display 130 displays an output video in which the augmented reality object generated by the control unit 160 and the background video are combined. The display 130 displays a setting screen for setting setting items such as various modes and functions of the image display device 100, the model of the optional device, and the display method. Further, the display 130 displays a message, a warning message, or the like output from the control unit 160 when setting various setting items.

なお、画像表示装置100は、制御部160からの出力映像を画像表示装置100の外部に出力する出力端子(不図示)をさらに備えることもできる。表画像示装置100が当該出力端子を通じて大画面のディスプレイ、プロジェクタなどに出力映像を送信することにより、ディスプレイ130に表示される映像と同じ映像を大画面のディスプレイ、プロジェクタなどで同時に観ることができる。   The image display device 100 may further include an output terminal (not shown) that outputs an output video from the control unit 160 to the outside of the image display device 100. The front image display device 100 transmits an output video to a large screen display, projector, or the like through the output terminal, so that the same video as the video displayed on the display 130 can be simultaneously viewed on the large screen display, projector, or the like. .

タッチパネル140は、操作者からの入力操作を受付ける。本実施形態では、操作者は、タッチパネル140を介して各種のモード、機能、オプション装置の機種、表示方法などの設定項目の設定をすることができる。タッチパネル140は、ディスプレイ130上に配置されており、ディスプレイ130の表示に対応する位置に操作者の手指が接触することにより、上記設定項目が選択され、選択された設定項目の情報が制御部160に伝達される。なお、ゴーグル型の画像表示装置の場合は、押ボタンスイッチなどを介して各種のモード、機能、オプション装置の機種、表示方法などを設定することができる。   Touch panel 140 accepts an input operation from an operator. In the present embodiment, the operator can set setting items such as various modes, functions, optional device models, and display methods via the touch panel 140. The touch panel 140 is disposed on the display 130, and the setting item is selected when the operator's finger touches a position corresponding to the display on the display 130, and information on the selected setting item is displayed on the control unit 160. Is transmitted to. In the case of a goggle-type image display device, various modes, functions, optional device models, display methods, and the like can be set through pushbutton switches and the like.

スピーカー150は、印刷音、効果音、警告音、音声案内などを出力する。スピーカー150は、たとえば実際の画像形成装置等が発する音を収録した音または模した音を印刷音として画像形成装置等の動作シミュレーションをする際に発生させる。また、スピーカー150は、たとえば画像表示装置100の設定画面の設定項目を選択するときなどに効果音を出力する。また、動作上のトラブルが生じたときなどには警告音や音声案内を出力する。   The speaker 150 outputs printing sound, sound effect, warning sound, voice guidance, and the like. The speaker 150 is generated when an operation simulation of the image forming apparatus or the like is performed by using, as a print sound, a sound recording or imitating a sound generated by an actual image forming apparatus or the like. The speaker 150 outputs a sound effect when selecting a setting item on the setting screen of the image display apparatus 100, for example. Further, when an operational trouble occurs, a warning sound or voice guidance is output.

制御部160は、カメラ110、センサー120、ディスプレイ130、タッチパネル140、およびスピーカー150を制御する。図2に示すとおり、制御部160は、CPU(Central Processing Unit)部161、ROM(Read Only Memory)部162、RAM(Random Access Memory)部163、および大容量記憶部164を有する。制御部160は、表示位置情報取得手段、装置画像生成手段、手指位置情報取得手段、ポインタ画像生成手段、画像合成手段、モデル実行手段として機能する。   The control unit 160 controls the camera 110, the sensor 120, the display 130, the touch panel 140, and the speaker 150. As illustrated in FIG. 2, the control unit 160 includes a CPU (Central Processing Unit) unit 161, a ROM (Read Only Memory) unit 162, a RAM (Random Access Memory) unit 163, and a large capacity storage unit 164. The control unit 160 functions as display position information acquisition means, device image generation means, finger position information acquisition means, pointer image generation means, image composition means, and model execution means.

CPU部161は、バスを通じてROM部162、RAM部163、および大容量記憶部164に接続されている。また、CPU部161は、各種専用インターフェース(不図示)を通じてそれぞれカメラ110、センサー120、ディスプレイ130、タッチパネル140、およびスピーカー150に接続されている。   The CPU unit 161 is connected to the ROM unit 162, the RAM unit 163, and the mass storage unit 164 through a bus. The CPU unit 161 is connected to the camera 110, the sensor 120, the display 130, the touch panel 140, and the speaker 150 through various dedicated interfaces (not shown).

ROM部162は、制御処理プログラム、3Dデータ、およびコンテンツデータを格納する。制御処理プログラムは、画像表示装置100の動作を制御し、各種の演算処理を実行するためのソフトウェア・プログラムであり、CPU部161によって逐次的に実行される。   The ROM unit 162 stores a control processing program, 3D data, and content data. The control processing program is a software program for controlling the operation of the image display apparatus 100 and executing various arithmetic processes, and is sequentially executed by the CPU unit 161.

3Dデータは、設置する画像形成装置およびオプション装置の外形を表す3次元画像データを含む。オプション装置としては、たとえば中綴じステープル装置、ステープル製本装置などがある。本実施形態では、3Dデータとして画像形成装置等の機種に応じた3次元画像データが用意されている。なお、3Dデータは、コンピューター・グラフィックスなどで使用される一般的なデータ形式でROM部162に記憶されており、データ形式はとくに限定されない。   The 3D data includes three-dimensional image data representing the outer shape of the image forming apparatus to be installed and the optional apparatus. Examples of the optional device include a saddle stitching staple device and a staple binding device. In this embodiment, 3D image data corresponding to the model of the image forming apparatus or the like is prepared as 3D data. The 3D data is stored in the ROM unit 162 in a general data format used in computer graphics, and the data format is not particularly limited.

コンテンツデータは、画像形成装置等に関する実体的なデータなどを含む。具体的には、コンテンツデータは、画像形成装置等の構成に関する情報、画像形成装置等の各部のサイズおよび位置に関する情報、マーカー画像情報、シミュレーションモデルなどを含む。   The content data includes substantial data regarding the image forming apparatus and the like. Specifically, the content data includes information regarding the configuration of the image forming apparatus, information regarding the size and position of each unit of the image forming apparatus, marker image information, a simulation model, and the like.

画像形成装置等は、機種によって構成が異なる。コンテンツデータは、それぞれの機種が有する構成要素、構成要素同士の関係などの情報を含む。また、コンテンツデータは、画像形成装置等の各々の筐体サイズに加えて、各々の構成要素、たとえば画像形成装置の操作パネル(オペレーション・パネル)、背面ドア、排紙トレイなどの構成要素のサイズおよび位置も含む。   The configuration of the image forming apparatus or the like differs depending on the model. The content data includes information such as the constituent elements of each model and the relationship between the constituent elements. In addition to the size of each housing of the image forming apparatus and the like, the content data includes the size of each constituent element such as an operation panel of the image forming apparatus, a rear door, and a paper discharge tray. And location.

マーカー画像情報は、マーカーの画像に含まれる情報である。マーカー画像情報は、画像形成装置の機種と一義的に対応付けられている。したがって、背景映像からマーカー200の画像を抽出し、マーカー画像情報を取得することにより、設置する画像形成装置の機種を特定することができる。   The marker image information is information included in the marker image. The marker image information is uniquely associated with the model of the image forming apparatus. Therefore, by extracting the image of the marker 200 from the background video and acquiring the marker image information, the model of the image forming apparatus to be installed can be specified.

シミュレーションモデルは、画像形成装置等の動作を模擬するための動作シミュレーションモデルである。CPU部161は、設置する画像形成装置等の機種を特定したのち、シミュレーションモデルを走行させて、画像形成装置等の動作シミュレーションを開始する。   The simulation model is an operation simulation model for simulating the operation of the image forming apparatus or the like. After specifying the model of the image forming apparatus or the like to be installed, the CPU 161 runs the simulation model and starts an operation simulation of the image forming apparatus or the like.

RAM部163は、背景映像、AR(Augmented Reality)オブジェクト画像、表示状態情報、内部状態情報などを格納する。背景映像は、カメラ110が撮像した背景映像であり、所定の周期で取得されてRAM部163に格納される。本実施形態では、CPU部161は、背景映像に含まれるマーカー200の画像を抽出して画像形成装置を設置する表示位置情報を取得し、RAM部163に格納する。   The RAM unit 163 stores a background video, an AR (Augmented Reality) object image, display state information, internal state information, and the like. The background video is a background video captured by the camera 110, acquired at a predetermined cycle, and stored in the RAM unit 163. In the present embodiment, the CPU 161 extracts the image of the marker 200 included in the background video, obtains display position information for installing the image forming apparatus, and stores it in the RAM 163.

ARオブジェクト画像は、拡張現実オブジェクトとしての画像形成装置等の画像(以下、装置画像と称する)と拡張現実オブジェクトとしての手指のポインタ画像を含む。   The AR object image includes an image of an image forming apparatus or the like as an augmented reality object (hereinafter referred to as a device image) and a pointer image of a finger as an augmented reality object.

装置画像は、3Dデータを、設置する画像形成装置等の大きさおよび向きに合わせて、ディスプレイ130に表示する2次元画像に変換したものである。本実施形態では、CPU部161は、画像形成装置の表示位置情報と、ROM部162に格納されている画像形成装置等のサイズに関する情報と、表示状態情報とに基づいて、3Dデータから画像形成装置等の装置画像を生成し、RAM部163に格納する。   The apparatus image is obtained by converting 3D data into a two-dimensional image to be displayed on the display 130 in accordance with the size and orientation of the image forming apparatus to be installed. In the present embodiment, the CPU unit 161 forms an image from 3D data based on display position information of the image forming apparatus, information on the size of the image forming apparatus and the like stored in the ROM unit 162, and display state information. A device image of the device or the like is generated and stored in the RAM unit 163.

また、ポインタ画像は、ディスプレイ130上で操作者の手指の位置を示す。ポインタ画像は、たとえば「矢印」、「指」などの所定の画像から選択され、背景映像の操作者の手指の画像10の位置に重ね合せるように生成される。また、ポインタ画像を表示しないように設定することもできる。CPU部161は、手指の位置情報に基づいて、ポインタ画像を生成し、RAM部163に格納する。手指の位置情報は、センサー120からの画像データに基づいてCPU部161が算出する。手指の位置情報の具体的な取得方法およびポインタ画像の具体的な生成方法については後述する。   The pointer image indicates the position of the operator's finger on the display 130. The pointer image is selected from predetermined images such as “arrow” and “finger”, for example, and is generated so as to be superimposed on the position of the image 10 of the operator's finger in the background video. It is also possible to set so that the pointer image is not displayed. The CPU unit 161 generates a pointer image based on the finger position information and stores the pointer image in the RAM unit 163. The CPU 161 calculates the finger position information based on the image data from the sensor 120. A specific method for acquiring finger position information and a specific method for generating a pointer image will be described later.

表示状態情報は、装置画像がディスプレイ130にどのような状態で表示されるかについての情報である。表示状態情報は、現在表示対象となっているオプション構成に関する情報、表示方法に関する情報などを含む。表示方法としては、たとえば装置画像の重ね合せ、透過などがある。表示状態情報は、現在表示対象となっているオプション構成や表示方法が変更されると更新される。オプション構成に関する情報、表示方法に関する情報はタッチパネル140を介して操作者が適宜設定することができる。   The display state information is information on how the device image is displayed on the display 130. The display state information includes information regarding an option configuration that is currently displayed, information regarding a display method, and the like. As a display method, for example, there are superposition and transmission of device images. The display state information is updated when the option configuration or display method currently being displayed is changed. Information relating to the option configuration and information relating to the display method can be appropriately set by the operator via the touch panel 140.

内部状態情報は、シミュレーションモデルの内部状態に関する情報である。本実施形態では、内部状態には、大きく分けて「正常状態」および「故障状態」がある。動作シミュレーションが開始されると、シミュレーションモデルは、「正常状態」となる。   The internal state information is information related to the internal state of the simulation model. In the present embodiment, the internal state is roughly divided into a “normal state” and a “failure state”. When the operation simulation is started, the simulation model is in a “normal state”.

内部状態が「正常状態」のとき、シミュレーションモデルは、「印刷動作」などの動作を実行することができる。一方、「故障状態」のとき、シミュレーションモデルは、「印刷動作」などの動作を実行することができない。一方、内部状態が「故障状態」のときしか実行できない動作もある。内部状態が「故障状態」のときは、たとえば背面ドアが開いているときなどである。   When the internal state is “normal state”, the simulation model can execute an operation such as “printing operation”. On the other hand, in the “failure state”, the simulation model cannot execute an operation such as “printing operation”. On the other hand, there are operations that can be executed only when the internal state is a “failure state”. The internal state is “failed state”, for example, when the rear door is open.

動作シミュレーションの開始時における内部状態情報の初期値は、ROM部162のコンテンツデータに格納されている。動作シミュレーションが進行し、内部状態が変化すると、内部状態情報は更新される。内部状態が「正常状態」で、シミュレーションモデルが印刷中である場合、内部状態情報は、「正常状態」でかつ「印刷中」である旨を示す情報を含む。   The initial value of the internal state information at the start of the operation simulation is stored in the content data of the ROM unit 162. As the operation simulation proceeds and the internal state changes, the internal state information is updated. When the internal state is “normal state” and the simulation model is printing, the internal state information includes information indicating “normal state” and “printing”.

CPU161は、シミュレーションモデルの内部状態情報を参照し、画像形成装置を設置する位置と手指の位置情報とに基づいて、画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行する。シミュレーションモデルの具体的な動作については後述する。   The CPU 161 refers to the internal state information of the simulation model, and executes a predetermined operation of the simulation model that simulates the operation of the image forming apparatus based on the position where the image forming apparatus is installed and the position information of the fingers. Specific operations of the simulation model will be described later.

大容量記憶部164は、たとえばハードディスクドライブ、フラッシュメモリなどを備える。大容量記憶部164には、動作シミュレーションを実行する際に表示する動画、設定項目を設定する際に表示するメッセージ動画などの動画データまたは画像データ、印刷音、効果音、警告音、音声案内などの音声データが格納されている。   The large capacity storage unit 164 includes, for example, a hard disk drive, a flash memory, and the like. The large-capacity storage unit 164 includes moving image data or image data such as a moving image to be displayed when an operation simulation is executed, a message moving image to be displayed when setting items are set, printing sound, sound effect, warning sound, voice guidance, and the like. Audio data is stored.

以下、図3〜図7を参照して、本実施形態における制御処理プログラムの処理手順を概略的に説明する。図3は本発明の第1の実施形態における制御処理プログラムの処理手順を概略的に説明するためのフローチャートである。また、図4は、本発明の第1の実施形態において、入力操作として「終了要求」が選択された場合にディスプレイに表示される背景映像を例示する図である。また、図5は本発明の第1の実施形態において、マーカーが配置されていない場合にディスプレイに表示される背景映像を例示する図であり、図6は本発明の第1の実施形態において、操作者の手指がカメラの視野に入っていない場合にディスプレイに表示される映像を例示する図である。また、図7は、本発明の第1の実施形態において、背景映像、装置画像、およびポインタ画像を合成した場合にディスプレイに表示される映像を例示する図である。   Hereinafter, the processing procedure of the control processing program in the present embodiment will be schematically described with reference to FIGS. FIG. 3 is a flowchart for schematically explaining the processing procedure of the control processing program in the first embodiment of the present invention. FIG. 4 is a diagram illustrating a background image displayed on the display when “end request” is selected as the input operation in the first embodiment of the present invention. FIG. 5 is a diagram illustrating a background image displayed on the display when no marker is arranged in the first embodiment of the present invention, and FIG. 6 is a diagram illustrating the background image displayed in the first embodiment of the present invention. It is a figure which illustrates the image | video displayed on a display when an operator's finger is not in the visual field of a camera. FIG. 7 is a diagram illustrating a video displayed on the display when the background video, the device image, and the pointer image are combined in the first embodiment of the present invention.

まず、背景映像を取得する(ステップS101)。カメラ110は、室内において画像形成装置を設置する場所を撮像し、撮像した背景映像をRAM部163に格納する。画像形成装置を設置する場所にマーカー200が事前に配置されている場合、マーカー200を含んだ背景映像がRAM部163に格納される。また、操作者がカメラ110の視野に手指を挿し入れると、背景映像には操作者の手指の画像10も含まれる。   First, a background video is acquired (step S101). The camera 110 captures a place where the image forming apparatus is installed indoors, and stores the captured background video in the RAM unit 163. When the marker 200 is arranged in advance at the place where the image forming apparatus is installed, the background video including the marker 200 is stored in the RAM unit 163. When the operator inserts a finger into the field of view of the camera 110, the background video includes the image 10 of the operator's finger.

次に、入力操作を受け付ける(ステップS102)。制御部160は、タッチパネル140を介して操作者の入力操作を受け付ける。ディスプレイ130は、「終了要求」、「停止」、および「開始」の選択画面を表示する。入力操作として「終了要求」が選択された場合(ステップS102:終了要求)、処理を終了する。入力操作として「停止」が選択された場合(ステップS102:停止)、ステップS111に移行する。図4に示すとおり、制御部160は出力映像として背景映像を出力し、ディスプレイ130は出力映像を表示する。そして、再びステップS101に戻って処理を継続する。   Next, an input operation is accepted (step S102). The control unit 160 receives an operator's input operation via the touch panel 140. The display 130 displays a selection screen of “end request”, “stop”, and “start”. When “end request” is selected as the input operation (step S102: end request), the process ends. When “stop” is selected as the input operation (step S102: stop), the process proceeds to step S111. As shown in FIG. 4, the control unit 160 outputs a background video as an output video, and the display 130 displays the output video. And it returns to step S101 again and continues a process.

一方、入力操作として「開始」が選択された場合(ステップS102:開始)、設置する画像形成装置の表示位置情報を取得する(ステップS103)。制御部160は、背景映像からマーカー200の画像を抽出し、設置する画像形成装置の表示位置情報を取得する。   On the other hand, when “start” is selected as the input operation (step S102: start), display position information of the image forming apparatus to be installed is acquired (step S103). The control unit 160 extracts the image of the marker 200 from the background video, and acquires display position information of the image forming apparatus to be installed.

次に、表示位置情報が取得されたか否かを判定する(ステップS104)。表示位置情報が取得されていない場合(ステップS104:NO)、ステップS111に移行する。図5に示すとおり、制御部160は出力映像として背景映像を出力し、ディスプレイ130は出力映像を表示する。そして、再びステップS101に戻って処理を継続する。   Next, it is determined whether display position information has been acquired (step S104). When the display position information is not acquired (step S104: NO), the process proceeds to step S111. As shown in FIG. 5, the control unit 160 outputs a background video as an output video, and the display 130 displays the output video. And it returns to step S101 again and continues a process.

一方、表示位置情報が取得された場合(ステップS104:YES)、画像形成装置等の装置画像を生成する(ステップS105)。制御部160は、表示位置情報と、ROM部162に格納されている画像形成装置等のサイズに関する情報と、表示状態情報とに基づいて、3Dデータから画像形成装置等の装置画像を生成する。生成された画像形成装置等の装置画像はRAM部163に格納される。   On the other hand, when the display position information is acquired (step S104: YES), an apparatus image such as an image forming apparatus is generated (step S105). The control unit 160 generates a device image of the image forming apparatus or the like from the 3D data based on the display position information, the information regarding the size of the image forming apparatus or the like stored in the ROM unit 162, and the display state information. The generated device image of the image forming apparatus or the like is stored in the RAM unit 163.

次に、手指の位置情報を取得する(ステップS106)。センサー120は、手指からの赤外線放射を検出して、検出結果を画像データとして制御部160に伝達する。制御部160は、上記画像データに基づいて手指の位置情報を算出する。   Next, the finger position information is acquired (step S106). The sensor 120 detects infrared radiation from a finger and transmits the detection result to the control unit 160 as image data. The controller 160 calculates finger position information based on the image data.

次に、手指の位置情報が取得されたか否かを判定する(ステップS107)。手指の位置情報が取得されていない場合(ステップS107:NO)、ステップS111に移行する。図6に示すとおり、制御部160は出力映像として背景映像に装置画像20を合成した出力映像を出力し、ディスプレイ130は出力映像を表示する。そして、再びステップS101に戻って処理を継続する。   Next, it is determined whether or not the finger position information has been acquired (step S107). When the finger position information is not acquired (step S107: NO), the process proceeds to step S111. As shown in FIG. 6, the control unit 160 outputs an output video obtained by synthesizing the device image 20 with the background video as an output video, and the display 130 displays the output video. And it returns to step S101 again and continues a process.

一方、手指の位置情報が取得されている場合(ステップS107:YES)、ポインタ画像を生成する(ステップS108)。制御部160は、内部状態情報、手指の位置情報などに基づいて、所定の形状のポインタ画像を生成する。ポインタ画像は、手指の位置情報に基づいて、背景映像の操作者の手指の画像10の位置に重ね合せるように生成される。生成されたポインタ画像はRAM部163に格納される。   On the other hand, if the finger position information has been acquired (step S107: YES), a pointer image is generated (step S108). The control unit 160 generates a pointer image having a predetermined shape based on the internal state information, the finger position information, and the like. The pointer image is generated based on the finger position information so as to be superimposed on the position of the finger image 10 of the operator of the background video. The generated pointer image is stored in the RAM unit 163.

次に、背景映像、装置画像20、およびポインタ画像を合成する(ステップS109)。制御部160は、RAM部163に格納された背景映像、装置画像、およびポインタ画像を合成する。   Next, the background video, the device image 20 and the pointer image are synthesized (step S109). The control unit 160 combines the background video, device image, and pointer image stored in the RAM unit 163.

次に、シミュレーションモデルの所定動作を実行する(ステップS110)。制御部160は、画像形成装置を設置する位置と手指の位置情報とに基づいて、画像形成装置を設置する位置と操作者の手指の位置との間の離間距離を算出し、シミュレーションモデルの所定の動作を当該離間距離の大きさに応じて実行する。   Next, a predetermined operation of the simulation model is executed (step S110). The control unit 160 calculates a separation distance between the position where the image forming apparatus is installed and the position of the operator's finger based on the position where the image forming apparatus is installed and the position information of the fingers. This operation is executed according to the size of the separation distance.

次に、出力映像を表示する(ステップS111)。図7に示すとおり、制御部160は背景映像、装置画像20、およびポインタ画像30を合成した出力映像を出力し、ディスプレイ130は出力映像を表示する。そして、再びステップS101に戻って処理を継続する。   Next, the output video is displayed (step S111). As shown in FIG. 7, the control unit 160 outputs an output video obtained by combining the background video, the device image 20, and the pointer image 30, and the display 130 displays the output video. And it returns to step S101 again and continues a process.

以上、本実施形態における制御処理プログラムの処理手順を概略的に説明した。以下では、図8〜図17を参照して、図3に示す本実施形態の制御処理プログラムの処理手順についてより詳しく説明する。   The processing procedure of the control processing program in the present embodiment has been schematically described above. Below, with reference to FIGS. 8-17, the process sequence of the control processing program of this embodiment shown in FIG. 3 is demonstrated in detail.

<設置する画像形成装置の表示位置情報の取得(ステップS103)>
図8は、図3に示すステップS103を説明するフローチャートである。図8に示すとおり、まず、背景映像からマーカー200の画像を抽出する(ステップS201)。CPU部161は、RAM部163に格納されている背景映像からマーカー200の画像を抽出する。
<Acquisition of Display Position Information of Image Forming Apparatus to be Installed (Step S103)>
FIG. 8 is a flowchart for explaining step S103 shown in FIG. As shown in FIG. 8, first, an image of the marker 200 is extracted from the background video (step S201). The CPU unit 161 extracts an image of the marker 200 from the background video stored in the RAM unit 163.

次に、マーカー200の画像が抽出されたか否かを判定する(ステップS202)。マーカー200の画像が抽出された場合(ステップS202:YES)、設置する画像形成装置の表示位置情報を取得する(ステップS203)。具体的には、CPU部161は、背景映像から抽出されたマーカー200の画像の大きさおよび向きから、表示位置情報として、設置する画像形成装置の表示位置座標および向きを算出する。ここで、画像形成装置の向きは、画像表示装置100とマーカー200とを結ぶ直線の方向に対する画像形成装置の角度で表される。   Next, it is determined whether an image of the marker 200 has been extracted (step S202). When the image of the marker 200 is extracted (step S202: YES), the display position information of the image forming apparatus to be installed is acquired (step S203). Specifically, the CPU 161 calculates the display position coordinates and orientation of the image forming apparatus to be installed as display position information from the size and orientation of the marker 200 image extracted from the background video. Here, the orientation of the image forming apparatus is represented by the angle of the image forming apparatus with respect to the direction of a straight line connecting the image display apparatus 100 and the marker 200.

なお、背景映像から抽出されたマーカーの画像の大きさおよび向きから、拡張現実オブジェクトの表示位置座標および向きを算出する技術は公知技術であるので、ここでは説明を省略する。   Note that a technique for calculating the display position coordinates and orientation of the augmented reality object from the size and orientation of the marker image extracted from the background video is a known technique, and thus description thereof is omitted here.

また、本実施形態では、マーカー200の位置は、設置する画像形成装置の底面の中央部の位置に対応している。しかしながら、マーカー200の位置は、設置する画像形成装置の底面の端部の位置に対応するようにしてもよい。   In the present embodiment, the position of the marker 200 corresponds to the position of the central portion of the bottom surface of the image forming apparatus to be installed. However, the position of the marker 200 may correspond to the position of the end of the bottom surface of the image forming apparatus to be installed.

さらに、CPU部161は、抽出されたマーカー200の画像からマーカー画像情報と、カメラ110とマーカー200との離間距離とを取得する。   Further, the CPU 161 acquires marker image information and the distance between the camera 110 and the marker 200 from the extracted image of the marker 200.

一方、マーカー200の画像が検出されなかった場合(ステップS202:NO)、ステップS104に移行する。   On the other hand, when the image of the marker 200 is not detected (step S202: NO), the process proceeds to step S104.

<画像形成装置等の装置画像の生成(ステップS105)>
図9は、図3に示すステップS105を説明するフローチャートである。図9に示すとおり、まず、表示状態情報を取得する(ステップS301)。上述したとおり、表示状態情報は、装置画像20がディスプレイ130にどのような状態で表示されるかについての情報である。
<Generation of Device Image of Image Forming Apparatus (Step S105)>
FIG. 9 is a flowchart for explaining step S105 shown in FIG. As shown in FIG. 9, first, display state information is acquired (step S301). As described above, the display state information is information on how the device image 20 is displayed on the display 130.

次に、画像形成装置等の3Dデータを取得する(ステップS302)。具体的には、画像形成装置等の機種と表示状態情報とに基づいてROM部162の3Dデータを取得する。   Next, 3D data of the image forming apparatus or the like is acquired (step S302). Specifically, the 3D data of the ROM unit 162 is acquired based on the model of the image forming apparatus and the display state information.

次に、画像形成装置等の装置画像を生成する(ステップS303)。具体的には、ステップS302で取得された3Dデータと、表示位置情報と、画像形成装置等のサイズに関する情報とに基づいて、画像形成装置等の装置画像20を生成する。たとえば、画像形成装置として複写機の機種Xを生成し、オプション装置として中綴じステープル装置の機種Yを透過表示で生成する。   Next, an apparatus image such as an image forming apparatus is generated (step S303). Specifically, the apparatus image 20 such as an image forming apparatus is generated based on the 3D data acquired in step S302, the display position information, and information regarding the size of the image forming apparatus or the like. For example, a model X of a copying machine is generated as an image forming apparatus, and a model Y of a saddle stitching staple apparatus is generated as an optional device in a transparent display.

<手指の位置情報の取得(ステップS106)>
図10は図3に示すステップS106を説明するフローチャートであり、図11は操作ポイントを算出する方法を説明するための模式図である。
<Acquisition of Finger Position Information (Step S106)>
FIG. 10 is a flowchart for explaining step S106 shown in FIG. 3, and FIG. 11 is a schematic diagram for explaining a method for calculating an operation point.

まず、図10に示すとおり、センサーから近距離にある物体を検出する(ステップS401)。操作者が手指などをセンサー120の検出範囲に挿し入れると、センサー120はセンサー120から近距離にある物体を検出して、画像データとして制御部160に伝達する。   First, as shown in FIG. 10, an object at a short distance from the sensor is detected (step S401). When the operator inserts a finger or the like into the detection range of the sensor 120, the sensor 120 detects an object at a short distance from the sensor 120 and transmits it to the control unit 160 as image data.

次に、手指の位置情報を取得する(ステップS402)。センサー120からの画像データから操作者の手指の位置情報を取得する。   Next, the finger position information is acquired (step S402). The position information of the operator's fingers is acquired from the image data from the sensor 120.

具体的には、制御部160は、カメラ110と操作者の手指との間の離間距離を計測し、当該離間距離に基づいて上記画像データから手指の領域を抽出する。なお、センサー120からの離間距離が一定の範囲内である画像領域を他の領域と区別して抽出する技術は公知であるので、ここでは説明を省略する。   Specifically, the control unit 160 measures a separation distance between the camera 110 and the operator's finger, and extracts a finger region from the image data based on the separation distance. Note that a technique for extracting an image area whose distance from the sensor 120 is within a certain range and distinguishing it from other areas is publicly known, and thus description thereof is omitted here.

図11に示すとおり、本実施形態では、抽出された手指の領域40から操作ポイントを算出し、手指の位置情報とする。手指の領域40は、カメラ110で撮像される背景映像の領域(以下、視認領域50と称する)の上下左右のいずれかの辺から伸びる形で抽出される。手指の領域40と視認領域50の辺とが交わる位置(A点)が図11に示す区画P1〜P4のうちのどの区画に存在するかに応じて、操作ポイント(B点)を決定する。具体的には、以下のとおりである。
・A点が区画P1の辺に存在するとき、B点は手指の領域の最も下でかつ最も右にとる。
・A点が区画P2の辺に存在するとき、B点は手指の領域の最も下でかつ最も左にとる。
・A点が区画P3の辺に存在するとき、B点は手指の領域の最も上でかつ最も右にとる。
・A点が区画P4の辺に存在するとき、B点は手指の領域の最も上でかつ最も左にとる。
As shown in FIG. 11, in the present embodiment, an operation point is calculated from the extracted finger region 40 and used as finger position information. The finger region 40 is extracted in such a manner as to extend from any of the upper, lower, left, and right sides of a background image region (hereinafter referred to as a viewing region 50) captured by the camera 110. The operation point (point B) is determined according to which of the sections P1 to P4 shown in FIG. 11 the position (point A) where the finger region 40 and the side of the visual recognition area 50 intersect is present. Specifically, it is as follows.
When point A is present on the side of section P1, point B is at the bottom and rightmost of the finger area.
When point A is present on the side of section P2, point B is at the bottom and leftmost of the finger area.
When point A exists on the side of section P3, point B is at the top and rightmost of the finger area.
When point A is present on the side of section P4, point B is on the top and leftmost of the finger area.

<ポインタ画像の生成(ステップS108)>
図12は図3に示すステップS108を説明するフローチャートであり、図13は図12に示すステップS503を説明するフローチャートである。また、図14A〜図14Eは、ポインタ画像を例示するための図である。
<Generation of Pointer Image (Step S108)>
12 is a flowchart for explaining step S108 shown in FIG. 3, and FIG. 13 is a flowchart for explaining step S503 shown in FIG. 14A to 14E are diagrams for illustrating pointer images.

以下では、設置位置に設置された画像形成装置を実空間上に想定し、当該画像形成装置を仮想的な画像形成装置と称する。仮想的な画像形成装置をディスプレイ130上に可視化したものが上述した画像形成装置の装置画像20である。本実施形態では、仮想的な画像形成装置と操作ポイントとの離間距離に応じてポインタ画像の形状を選択する。   Hereinafter, the image forming apparatus installed at the installation position is assumed in real space, and the image forming apparatus is referred to as a virtual image forming apparatus. The virtual image forming apparatus visualized on the display 130 is the apparatus image 20 of the image forming apparatus described above. In this embodiment, the shape of the pointer image is selected according to the distance between the virtual image forming apparatus and the operation point.

仮想的な画像形成装置と操作ポイントとの離間距離は、画像形成装置を設置する位置と操作ポイントとの位置に基づいて算出することができる。また、仮想的な画像形成装置の各構成要素の位置、たとえば操作パネルの位置は、画像形成装置を設置する位置と、画像形成装置等の各部のサイズおよび位置に関する情報とに基づいて算出することができる。   The separation distance between the virtual image forming apparatus and the operation point can be calculated based on the position where the image forming apparatus is installed and the position of the operation point. In addition, the position of each component of the virtual image forming apparatus, for example, the position of the operation panel, is calculated based on the position where the image forming apparatus is installed and information on the size and position of each part of the image forming apparatus and the like. Can do.

一方、上述のとおり、操作ポイントの位置は、カメラ110と操作者の手指との間の相対的な位置関係に基づくものであるので、マーカー200を基準とした位置に変換する必要がある。カメラ110とマーカー200との離間距離は、背景映像から抽出したマーカー200の画像から算出することができる。したがって、マーカー200を基準とした実空間の操作ポイントの位置を算出することができる。以下、マーカー200を基準とした操作ポイントの位置を単に操作ポイントと称する。   On the other hand, as described above, the position of the operation point is based on the relative positional relationship between the camera 110 and the operator's finger, and thus needs to be converted to a position based on the marker 200. The separation distance between the camera 110 and the marker 200 can be calculated from the image of the marker 200 extracted from the background video. Therefore, the position of the operation point in the real space with reference to the marker 200 can be calculated. Hereinafter, the position of the operation point with reference to the marker 200 is simply referred to as an operation point.

本実施形態では、ポインタ画像の形状、色、透過率は、シミュレーションモデルの内部状態と、仮想的な画像形成装置と操作ポイントとの離間距離とに応じて変化させることができる。以下、ポインタ画像を生成する手順を説明する。   In the present embodiment, the shape, color, and transmittance of the pointer image can be changed according to the internal state of the simulation model and the separation distance between the virtual image forming apparatus and the operation point. Hereinafter, a procedure for generating a pointer image will be described.

まず、図12に示すとおり、シミュレーションモデルの内部状態情報を取得する(ステップS501)。上述のとおり、内部状態情報は、シミュレーションモデルの内部状態に関する情報である。   First, as shown in FIG. 12, the internal state information of the simulation model is acquired (step S501). As described above, the internal state information is information related to the internal state of the simulation model.

次に、仮想的な画像形成装置と操作ポイントとの離間距離を算出する(ステップS502)。具体的には、制御部160は、仮想的な画像形成装置の位置と手指の位置情報とに基づいて、仮想的な画像形成装置と操作ポイントとの離間距離を算出する。   Next, a separation distance between the virtual image forming apparatus and the operation point is calculated (step S502). Specifically, the control unit 160 calculates a separation distance between the virtual image forming apparatus and the operation point based on the position of the virtual image forming apparatus and the position information of the fingers.

次に、ポインタ画像を選択する(ステップS503)。制御部160は、シミュレーションモデルの内部状態と、仮想的な画像形成装置と操作ポイントとの離間距離と、に応じて、ポインタ画像を選択する。具体的には、図13に示すとおりである。なお、以下ではポインタ画像として「矢印(Obj1)」、「指(Obj2)」、「半透明の矢印(Obj3)」、「工具(Obj4)」を例示して説明するが、ポインタ画像はこれらに限定されない。また、上記離間距離および内部状態とポインタ画像の形状、色、透過率との対応関係も以下で説明するものに限定されない。   Next, a pointer image is selected (step S503). The control unit 160 selects a pointer image according to the internal state of the simulation model and the separation distance between the virtual image forming apparatus and the operation point. Specifically, this is as shown in FIG. Hereinafter, “arrow (Obj1)”, “finger (Obj2)”, “translucent arrow (Obj3)”, and “tool (Obj4)” will be described as examples of pointer images. It is not limited. Further, the correspondence relationship between the distance and the internal state and the shape, color, and transmittance of the pointer image is not limited to that described below.

まず、仮想的な画像形成装置と操作ポイントとの距離が第1の所定距離以上か否かを判定する(ステップS601)。仮想的な画像形成装置と操作ポイントとの距離が第1の所定距離以上の場合(ステップS601:第1の所定距離以上)、図14Aに示すとおり、ポインタ画像31として「半透明の矢印(Obj3)」を選択する(ステップS602)。   First, it is determined whether or not the distance between the virtual image forming apparatus and the operation point is equal to or greater than a first predetermined distance (step S601). When the distance between the virtual image forming apparatus and the operation point is equal to or greater than the first predetermined distance (step S601: equal to or greater than the first predetermined distance), as shown in FIG. 14A, a “translucent arrow (Obj3) is displayed as the pointer image 31. ) ”Is selected (step S602).

一方、仮想的な画像形成装置と操作ポイントとの距離が第1の所定距離未満の場合(ステップS601:第1の所定距離未満)、シミュレーションモデルの内部状態を判定する(ステップS603)。内部状態が「故障状態」である場合(ステップS603:故障状態)、図14Bに示すとおり、ポインタ画像32として「工具(Obj4)」を選択する(ステップS604)。なお、上記第1の所定距離は、たとえば50cm〜2mであり、好適には1mである。   On the other hand, when the distance between the virtual image forming apparatus and the operation point is less than the first predetermined distance (step S601: less than the first predetermined distance), the internal state of the simulation model is determined (step S603). When the internal state is “failure state” (step S603: failure state), “tool (Obj4)” is selected as the pointer image 32 as shown in FIG. 14B (step S604). The first predetermined distance is, for example, 50 cm to 2 m, and preferably 1 m.

一方、内部状態が「正常状態」である場合(ステップS603:正常状態)、仮想的な画像形成装置の表面のうち操作ポイントから最も近い面は背面であるか否かを判定する(ステップS605)。仮想的な画像形成装置の表面のうち操作ポイントから最も近い面が背面である場合(ステップS605:YES)、図14Cに示すとおり、ポインタ画像32として「工具(Obj4)」を選択する(ステップS606)。   On the other hand, when the internal state is the “normal state” (step S603: normal state), it is determined whether the surface closest to the operation point is the back surface among the surfaces of the virtual image forming apparatus (step S605). . When the surface closest to the operation point is the back surface among the surfaces of the virtual image forming apparatus (step S605: YES), “tool (Obj4)” is selected as the pointer image 32 as shown in FIG. 14C (step S606). ).

一方、仮想的な画像形成装置の表面のうち操作ポイントから最も近い面が背面ではない場合(ステップS605:NO)、操作ポイントは仮想的な画像形成装置の操作パネルから第2の所定距離以内に存在するか否かを判定する(ステップS607)。操作ポイントが仮想的な画像形成装置の操作パネルから第2の所定距離以内に存在する場合(ステップS607:YES)、図14Dに示すとおり、ポインタ画像33として「指(Obj2)」を選択する(ステップS608)。なお、上記第2の所定距離は、たとえば10〜30cmであり、好適には20cmである。   On the other hand, when the surface closest to the operation point is not the back surface among the surfaces of the virtual image forming apparatus (step S605: NO), the operation point is within the second predetermined distance from the operation panel of the virtual image forming apparatus. It is determined whether or not it exists (step S607). When the operation point exists within the second predetermined distance from the operation panel of the virtual image forming apparatus (step S607: YES), “finger (Obj2)” is selected as the pointer image 33 as shown in FIG. 14D ( Step S608). Note that the second predetermined distance is, for example, 10 to 30 cm, and preferably 20 cm.

一方、操作ポイントが仮想的な画像形成装置の操作パネルから第2の所定距離以内に存在しない場合(ステップS607:NO)、図14Eに示すとおり、ポインタ画像30として「矢印(Obj1)」を選択する(ステップS609)。   On the other hand, if the operation point does not exist within the second predetermined distance from the operation panel of the virtual image forming apparatus (step S607: NO), “arrow (Obj1)” is selected as the pointer image 30 as shown in FIG. 14E. (Step S609).

次に、再び図12に戻って、ポインタ画像を生成する(ステップS504)。ポインタ画像30〜33は、図4A〜図4Eに示すとおり、その先端が操作ポイントに一致し、背景映像の操作者の手指の画像10に重ね合されるように生成される。生成されたポインタ画像30〜33はRAM部163に格納される。   Next, returning to FIG. 12 again, a pointer image is generated (step S504). As shown in FIGS. 4A to 4E, the pointer images 30 to 33 are generated so that their tips coincide with the operation points and are superimposed on the image 10 of the operator's finger in the background video. The generated pointer images 30 to 33 are stored in the RAM unit 163.

<シミュレーションモデルの所定動作の実行(ステップS110)>
図15は図3に示すステップS110を説明するフローチャートであり、図16は図15に示すステップS702を説明するフローチャートである。また、図17は、「印刷動作」のシミュレーションを実行した場合にディスプレイに表示される映像を例示する図である。
<Execution of predetermined operation of simulation model (step S110)>
FIG. 15 is a flowchart for explaining step S110 shown in FIG. 3, and FIG. 16 is a flowchart for explaining step S702 shown in FIG. FIG. 17 is a diagram illustrating an example of an image displayed on the display when a “printing operation” simulation is executed.

まず、シミュレーションモデルの内部状態情報を取得する(ステップS701)。制御部160は、シミュレーションモデルの内部状態情報を取得して、シミュレーションモデルが現在どのような状態であるのかを参照する。   First, internal state information of the simulation model is acquired (step S701). The control unit 160 acquires the internal state information of the simulation model, and refers to the current state of the simulation model.

次に、シミュレーションモデルの動作を選択する(ステップS702)。制御部160は、仮想的な画像形成装置と操作者の手指との位置関係およびシミュレーションモデルの内部状態に応じて、シミュレーションモデルの動作を選択する。具体的には、図16に示すとおりである。なお、以下では、シミュレーションモデルの動作として「印刷動作」および「背面ドアオープン動作」を選択する場合について例示して説明するが、シミュレーションモデルの動作は「印刷動作」および「背面ドアオープン動作」に限定されない。   Next, the operation of the simulation model is selected (step S702). The control unit 160 selects the operation of the simulation model according to the positional relationship between the virtual image forming apparatus and the operator's fingers and the internal state of the simulation model. Specifically, it is as shown in FIG. In the following description, the case of selecting “printing operation” and “rear door opening operation” as the operation of the simulation model will be described as an example, but the operation of the simulation model will be described as “printing operation” and “rear door opening operation”. It is not limited.

まず、シミュレーションモデルの内部状態を判定する(ステップS801)。内部状態が「正常状態」である場合(ステップS801:正常状態)、ステップS802に移行する。一方、内部状態が「故障状態」である場合(ステップS801:故障状態)、ステップS805に移行する。   First, the internal state of the simulation model is determined (step S801). When the internal state is “normal state” (step S801: normal state), the process proceeds to step S802. On the other hand, when the internal state is “failure state” (step S801: failure state), the process proceeds to step S805.

ステップS802に移行した場合、操作ポイントが仮想的な画像形成装置の操作パネルから第3の所定距離以内に存在するか否かを判定する(ステップS802)。操作ポイントが画像形成装置の操作パネルから第3の所定距離以内に存在しない場合(ステップS802:NO)、シミュレーションモデルの動作を選択せずに図15のステップS703に移行する。なお、上記第3の所定距離は、たとえば1〜10cmであり、好適には5cmである。   When the process proceeds to step S802, it is determined whether or not the operation point exists within a third predetermined distance from the operation panel of the virtual image forming apparatus (step S802). If the operation point does not exist within the third predetermined distance from the operation panel of the image forming apparatus (step S802: NO), the process proceeds to step S703 in FIG. 15 without selecting the operation of the simulation model. Note that the third predetermined distance is, for example, 1 to 10 cm, and preferably 5 cm.

一方、操作ポイントが仮想的な画像形成装置の操作パネルから第3の所定距離以内に存在する場合(ステップS802:YES)、シミュレーションモデルが動作中か否かを判定する(ステップS803)。シミュレーションモデルが動作中である場合(ステップS803:YES)、シミュレーションモデルの動作を選択せずに図15のステップS703に移行する。   On the other hand, when the operation point exists within the third predetermined distance from the operation panel of the virtual image forming apparatus (step S802: YES), it is determined whether or not the simulation model is operating (step S803). If the simulation model is operating (step S803: YES), the process proceeds to step S703 in FIG. 15 without selecting the operation of the simulation model.

一方、シミュレーションモデルが動作中ではない場合(ステップS803:NO)、シミュレーションモデルの動作として「印刷動作」を選択し、図15のステップS703に移行する。   On the other hand, if the simulation model is not in operation (step S803: NO), “printing operation” is selected as the operation of the simulation model, and the process proceeds to step S703 in FIG.

次に、ステップS805に移行した場合、操作ポイントが仮想的な画像形成装置の背面ドアの開閉部から第4の所定距離以内に存在するか否かを判定する(ステップS805)。操作ポイントが仮想的な画像形成装置の背面ドアの開閉部から第4の所定距離以内に存在しない場合(ステップS805:NO)、シミュレーションモデルの動作を選択せずに図15のステップS703に移行する。なお、上記第4の所定距離は、たとえば1〜10cmであり、好適には5cmである。   Next, when the process proceeds to step S805, it is determined whether or not the operation point is within a fourth predetermined distance from the opening / closing part of the rear door of the virtual image forming apparatus (step S805). If the operation point does not exist within the fourth predetermined distance from the opening / closing part of the rear door of the virtual image forming apparatus (step S805: NO), the process proceeds to step S703 in FIG. 15 without selecting the operation of the simulation model. . The fourth predetermined distance is, for example, 1 to 10 cm, and preferably 5 cm.

一方、操作ポイントが仮想的な画像形成装置の背面ドアの開閉部から第4の所定距離以内に存在する場合(ステップS805:YES)、シミュレーションモデルが背面ドアオープン中か否かを判定する(ステップS806)。シミュレーションモデルが背面ドアオープン中である場合(ステップS806:YES)、シミュレーションモデルの動作を選択せずに図15のステップS703に移行する。   On the other hand, if the operation point exists within the fourth predetermined distance from the opening / closing part of the rear door of the virtual image forming apparatus (step S805: YES), it is determined whether or not the simulation model is open at the rear door (step S805). S806). If the simulation model is open at the rear door (step S806: YES), the process proceeds to step S703 in FIG. 15 without selecting the operation of the simulation model.

一方、シミュレーションモデルが背面ドアオープン中ではない場合(ステップS806:NO)、シミュレーションモデルの動作として「背面ドアオープン動作」を選択し、図15のステップS703に移行する。   On the other hand, if the simulation model is not open at the back door (step S806: NO), “back door open operation” is selected as the operation of the simulation model, and the process proceeds to step S703 in FIG.

次に、再び図15に戻って、シミュレーションモデルの内部状態を更新する(ステップS703)。ステップS702で選択したシミュレーションモデルの動作に基づいて、シミュレーションモデルの内部状態を更新する。   Next, returning to FIG. 15 again, the internal state of the simulation model is updated (step S703). Based on the operation of the simulation model selected in step S702, the internal state of the simulation model is updated.

次に、操作ポイントが規定の領域に存在するか否かを判定する(ステップS704)。操作者の手指の移動に伴いポインタ画像の表示位置も移動する。制御部160は、操作ポイントが、仮想的な画像形成装置の予め規定された領域(たとえば、操作パネル上のスタートボタン)に存在するか否かを判定する。操作ポイントが規定の領域に存在しない場合(ステップS704:NO)、シミュレーションモデルの所定動作を実行せずに図3のステップS111に移行する。   Next, it is determined whether or not the operation point exists in a specified area (step S704). As the operator's finger moves, the display position of the pointer image also moves. The control unit 160 determines whether or not the operation point exists in a predetermined region (for example, a start button on the operation panel) of the virtual image forming apparatus. If the operation point does not exist in the specified area (step S704: NO), the process proceeds to step S111 in FIG. 3 without executing the predetermined operation of the simulation model.

なお、上記規定の領域は、必ずしも操作ポイントと接触する範囲の領域である必要はない。たとえば、操作パネル上のスタートボタン上方の所定の範囲を含むように設定することもできる。   The prescribed area does not necessarily have to be an area in contact with the operation point. For example, it can be set to include a predetermined range above the start button on the operation panel.

また、操作ポイントが所定の領域に存在するか否かを判定するのではなく、たとえば操作ポイントの位置が単位時間あたりに動く距離、すなわち操作ポイントの移動速度に応じて、シミュレーションモデルの所定動作を実行するように構成してもよい。   Further, instead of determining whether or not the operation point exists in a predetermined region, for example, a predetermined operation of the simulation model is performed according to the distance that the position of the operation point moves per unit time, that is, the movement speed of the operation point. It may be configured to execute.

一方、操作ポイントが規定の領域に存在する場合(ステップS704:YES)、シミュレーションモデルの所定動作を実行する(ステップS705)。ステップS702で選択されたシミュレーションモデルの動作に基づいて、シミュレーションモデルの所定動作を実行する。   On the other hand, when the operation point exists in the specified region (step S704: YES), a predetermined operation of the simulation model is executed (step S705). Based on the operation of the simulation model selected in step S702, a predetermined operation of the simulation model is executed.

たとえば、選択されたシミュレーションモデルの動作が「印刷動作」である場合、制御部160は、シミュレーションモデルで「印刷動作」を実行する。図17に示すとおり、「印刷動作」が実行されると、ディスプレイ130には装置画像20が印刷した用紙Sを排紙する様子が動画で表示される。また、スピーカー150は、装置画像20の印刷動作に合わせて印刷音を発生する。なお、装置画像20が印刷する様子を動画で表示する代わりに、実際の画像形成装置が印刷する様子を収録した動画をディスプレイ130に表示してもよい。   For example, when the operation of the selected simulation model is “printing operation”, the control unit 160 executes “printing operation” with the simulation model. As shown in FIG. 17, when the “printing operation” is executed, the display 130 displays a moving image of the discharge of the paper S printed by the device image 20. Further, the speaker 150 generates a printing sound in accordance with the printing operation of the device image 20. Instead of displaying the printing of the device image 20 as a moving image, a moving image that records the printing performed by the actual image forming apparatus may be displayed on the display 130.

以上のとおり、本実施形態の画像表示装置100は、画像形成装置を設置する場所の背景映像からマーカー200の画像を抽出して表示位置情報を取得し、装置画像20を生成する。また、画像表示装置100は、手指の位置情報を取得し、ポインタ画像30〜33を生成する。そして、画像形成装置を設置する位置および手指の位置情報に基づいて、シミュレーションモデルの所定の動作を実行し、装置画像20およびポインタ画像30〜33を背景映像と合成して表示する。   As described above, the image display apparatus 100 according to the present embodiment extracts the image of the marker 200 from the background video of the place where the image forming apparatus is installed, acquires the display position information, and generates the apparatus image 20. In addition, the image display apparatus 100 acquires finger position information and generates pointer images 30 to 33. Then, based on the position where the image forming apparatus is installed and the position information of the fingers, a predetermined operation of the simulation model is executed, and the apparatus image 20 and the pointer images 30 to 33 are combined with the background video and displayed.

以上のとおり、説明した本実施形態は、以下の効果を奏する。   As described above, the described embodiment has the following effects.

(a)画像形成装置を設置する場所の背景映像に装置画像20を合成して表示し、操作者の手指の位置に基づいて、ディスプレイ130に表示された装置画像20のシミュレーションモデルの所定動作を実行し、装置画像20の動作を開始する。したがって、操作者は、設置する場所で画像形成装置等を実際に操作しているような体験をすることができるので、画像形成装置等を実際に設置した場合に近い状態で事前検討することができる。   (A) The apparatus image 20 is synthesized and displayed on the background image of the place where the image forming apparatus is installed, and a predetermined operation of the simulation model of the apparatus image 20 displayed on the display 130 is performed based on the position of the finger of the operator. Execute and start the operation of the device image 20. Therefore, the operator can experience as if the image forming apparatus or the like is actually operated at the installation location, so that it is possible to examine in advance in a state close to the case where the image forming apparatus or the like is actually installed. it can.

(b)画像形成装置を設置する位置に配置されたマーカー200の画像を抽出して、画像形成装置の表示位置情報を取得するので、画像表示装置100を保持する操作者の位置が変化しても背景映像に装置画像20を正確な位置および向きで表示することができる。その結果、操作者は、設置する画像形成装置と室内の他の物体、たとえば窓Wとの位置関係などを確実に把握することができる。   (B) Since the image of the marker 200 arranged at the position where the image forming apparatus is installed is extracted and the display position information of the image forming apparatus is acquired, the position of the operator holding the image display apparatus 100 changes. In addition, the device image 20 can be displayed on the background image with an accurate position and orientation. As a result, the operator can reliably grasp the positional relationship between the image forming apparatus to be installed and other objects in the room, for example, the window W.

(c)現物の画像形成装置を使用することなく、画像形成装置の動作を確認することができる確認用現物の確保・設置、トナー、用紙などの費用を削減することができる。   (C) Without using the actual image forming apparatus, it is possible to reduce the cost of securing and installing the actual object for confirmation that can confirm the operation of the image forming apparatus, toner, paper, and the like.

(第2の実施形態)
第1の実施形態では、画像形成装置を設置する場所の背景映像からマーカーの画像を抽出して表示位置情報を取得し、背景映像、装置画像、およびポインタ画像を合成して表示することを説明した。第2の実施形態では、背景映像からマーカーの画像を抽出して表示位置情報を取得せずに他の方法を用いて表示位置情報を取得し、規定の背景映像、装置画像、およびポインタ画像を合成して表示することを説明する。なお、以下の説明では説明の重複を避けるため、第1の実施形態と同様の構成については説明を省略する。
(Second Embodiment)
In the first embodiment, it is described that a marker image is extracted from a background video of a place where an image forming apparatus is installed to obtain display position information, and the background video, the device image, and the pointer image are combined and displayed. did. In the second embodiment, the marker position image is extracted from the background image and the display position information is acquired by using another method without acquiring the display position information, and the specified background image, device image, and pointer image are obtained. Explain that combining and displaying. In the following description, the description of the same configuration as that of the first embodiment is omitted to avoid duplication of description.

図18は、本発明の第2の実施形態の画像表示装置の概略ブロック構成図である。図18に示すとおり、本実施形態の画像表示装置100は、第1の実施形態のカメラ110の代わりに背景映像生成部180を有する。   FIG. 18 is a schematic block diagram of an image display apparatus according to the second embodiment of the present invention. As illustrated in FIG. 18, the image display apparatus 100 according to the present embodiment includes a background video generation unit 180 instead of the camera 110 according to the first embodiment.

背景映像生成部180は、画像表示装置100の筐体170に内蔵されていてもよいし、筐体170の外部に配置されていてもよい。背景映像生成部180が筐体170の外部に配置されている場合は、有線通信または無線通信で映像データを制御部160に送信する。以下では、背景映像生成部180が筐体170に内蔵されている場合について説明する。   The background video generation unit 180 may be built in the housing 170 of the image display device 100 or may be disposed outside the housing 170. When the background video generation unit 180 is disposed outside the housing 170, the video data is transmitted to the control unit 160 by wired communication or wireless communication. Hereinafter, a case where the background video generation unit 180 is built in the housing 170 will be described.

<背景映像の取得>
背景映像生成部180は、背景映像取得手段として、大容量記憶部164に規定の背景映像を複数格納している。背景映像は、たとえば画像形成装置等が設置されるオフィスの映像、画像形成装置等を紹介する展示場の映像、コンピューター・グラフィックスの映像などを含む。制御部160は、背景映像生成部180で生成された規定の背景映像に装置画像20およびポインタ画像を合成して出力映像を生成し、ディスプレイ130は合成された出力映像を表示する。したがって、操作者は、画像形成装置等が設置されると想定される場所や状況に応じて背景映像を適宜切り替えることができる。
<Acquisition of background video>
The background video generation unit 180 stores a plurality of prescribed background videos in the large-capacity storage unit 164 as background video acquisition means. The background image includes, for example, an image of an office where an image forming apparatus or the like is installed, an image of an exhibition hall that introduces the image forming apparatus or the like, an image of computer graphics, and the like. The control unit 160 generates an output video by combining the device image 20 and the pointer image with the prescribed background video generated by the background video generation unit 180, and the display 130 displays the combined output video. Therefore, the operator can appropriately switch the background video according to the place or situation where the image forming apparatus or the like is assumed to be installed.

<設置する画像形成装置の表示位置情報の取得>
本実施形態では、たとえば画像表示装置100の位置が予め定められており、設置する画像形成装置の位置と画像表示装置100との相対的な位置が既知である場合を想定する。あるいは、画像表示装置100の位置を正確に取得することができる公知の技術を使用してもよい。制御部160は、設置する画像形成装置の位置と画像表示装置100との相対的な位置関係に基づいて、画像形成装置の表示位置情報を取得することができる。
<Acquisition of display position information of image forming apparatus to be installed>
In the present embodiment, for example, it is assumed that the position of the image display apparatus 100 is determined in advance and the position of the image forming apparatus to be installed and the relative position of the image display apparatus 100 are known. Or you may use the well-known technique which can acquire the position of the image display apparatus 100 correctly. The control unit 160 can acquire display position information of the image forming apparatus based on the relative positional relationship between the position of the image forming apparatus to be installed and the image display apparatus 100.

以上のとおり、本実施形態の画像表示装置100は、設置する画像形成装置の位置と操作者との相対的な位置関係に基づいて表示位置情報を取得し、背景映像生成部180で生成された規定の背景映像に装置画像およびポインタ画像を合成して表示する。   As described above, the image display apparatus 100 according to the present embodiment acquires display position information based on the relative positional relationship between the position of the image forming apparatus to be installed and the operator, and is generated by the background video generation unit 180. A device image and a pointer image are synthesized and displayed on a prescribed background video.

以上のとおり、説明した本実施形態は、第1の実施形態の効果に加えて以下の効果を奏する。   As described above, the described embodiment has the following effects in addition to the effects of the first embodiment.

(d)背景映像生成部180は、大容量記憶部164に規定の背景映像を複数保持している。したがって、操作者は、画像形成装置等が設置されると想定される場所に応じて背景映像を適宜切り替えることができる。   (D) The background video generation unit 180 holds a plurality of prescribed background videos in the large capacity storage unit 164. Therefore, the operator can appropriately switch the background video according to the place where the image forming apparatus or the like is assumed to be installed.

以上のとおり、実施形態において、本発明の画像表示装置を説明した。しかしながら、本発明は、その技術思想の範囲内において当業者が適宜に追加、変形、および省略することができることはいうまでもない。   As described above, the image display device of the present invention has been described in the embodiment. However, it goes without saying that the present invention can be appropriately added, modified, and omitted by those skilled in the art within the scope of the technical idea.

たとえば、第1の実施形態では、1つのマーカーを配置して1台の画像形成装置を設置する場合について説明した。しかしながら、マーカーの数は1つに限定されず、複数のマーカーを配置してもよい。たとえば、2つのマーカーを配置する場合、2台の画像形成装置の装置画像を表示することができる。   For example, in the first embodiment, the case where one marker is arranged and one image forming apparatus is installed has been described. However, the number of markers is not limited to one, and a plurality of markers may be arranged. For example, when two markers are arranged, device images of two image forming apparatuses can be displayed.

また、第1の実施形態では、画像形成装置を設置する場所に配置されたマーカーを用いて表示位置情報を取得することを説明した。しかしながら、表示位置情報を取得する方法はマーカーを使用する方法に限定されない。   Further, in the first embodiment, it has been described that display position information is acquired using a marker arranged at a place where the image forming apparatus is installed. However, the method for acquiring the display position information is not limited to the method using a marker.

また、第1の実施形態では、センサーによって検出された物体の画像データから手指の領域を抽出し、当該手指の領域とカメラの視認領域の辺とが交わる位置が所定のうちのどの区画に存在するかに応じて、操作ポイントを決定することを説明した。しかしながら、操作ポイントの決定方法は、このような方法に限定されず他の方法を使用してもよい。   In the first embodiment, a finger region is extracted from the image data of the object detected by the sensor, and the position where the finger region and the side of the camera viewing region intersect each other exists in any predetermined section. It has been explained that the operation point is determined depending on whether or not to do so. However, the operation point determination method is not limited to such a method, and other methods may be used.

10 操作者の手指の画像、
20 装置画像、
30〜33 ポインタ画像、
40 手指の領域、
100 画像表示装置、
110 カメラ、
120 センサー
130 ディスプレイ、
140 タッチパネル、
150 スピーカー、
160 制御部、
161 CPU部、
162 RAM部、
163 ROM部、
164 大容量記憶部、
170 筐体、
180 背景映像生成部、
200 マーカー。
10 Images of the fingers of the operator,
20 Device image,
30-33 pointer image,
40 finger area,
100 image display device,
110 cameras,
120 sensor 130 display,
140 touch panel,
150 speakers,
160 control unit,
161 CPU section,
162 RAM section,
163 ROM part,
164 Mass storage unit,
170 housing,
180 background image generator,
200 markers.

Claims (8)

背景映像を取得する手順(a)と、
設置する画像形成装置の表示位置情報を取得する手順(b)と、
前記表示位置情報と前記画像形成装置のサイズに関する情報とに基づいて、前記画像形成装置の装置画像を生成する手順(c)と、
手または指の位置情報を取得する手順(d)と、
前記手または指の位置情報に基づいて、前記手または指の位置を示すポインタ画像を生成する手順(e)と、
前記背景映像、前記装置画像、および前記ポインタ画像を合成して出力映像を生成する手順(f)と、
前記画像形成装置を設置する位置と前記手または指の位置情報とに基づいて、前記画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行する手順(g)と、
前記出力映像を表示する手順(h)と、
を有する、コンピューターに実行させるための制御処理プログラム。
A procedure (a) for acquiring a background image;
A procedure (b) of acquiring display position information of the image forming apparatus to be installed;
A procedure (c) for generating a device image of the image forming device based on the display position information and information on the size of the image forming device;
A procedure (d) of acquiring position information of a hand or a finger;
A step (e) for generating a pointer image indicating the position of the hand or finger based on the position information of the hand or finger;
A procedure (f) of generating an output video by combining the background video, the device image, and the pointer image;
A procedure (g) for executing a predetermined operation of a simulation model for simulating the operation of the image forming apparatus based on the position where the image forming apparatus is installed and the position information of the hand or finger;
A procedure (h) for displaying the output video;
A control processing program for causing a computer to execute the program.
前記背景映像は、前記画像形成装置を設置する場所を撮像手段が撮像して取得されることを特徴とする請求項1に記載の制御処理プログラム。   The control processing program according to claim 1, wherein the background video is acquired by an imaging unit imaging a place where the image forming apparatus is installed. 前記手順(b)において、前記背景映像からマーカーの画像を抽出して前記表示位置情報を取得することを特徴とする請求項2に記載の制御処理プログラム。   The control processing program according to claim 2, wherein in the step (b), a marker image is extracted from the background video to acquire the display position information. 請求項1〜3のいずれか1項に記載の画像処理プログラムを記録したコンピューター読み取り可能な記録媒体。   The computer-readable recording medium which recorded the image processing program of any one of Claims 1-3. 背景映像を取得する背景映像取得手段と、
設置する画像形成装置の表示位置情報を取得する表示位置情報取得手段と、
前記表示位置情報と前記画像形成装置のサイズに関する情報とに基づいて、前記画像形成装置の装置画像を生成する装置画像生成手段と、
手または指の位置情報を取得する手指位置情報取得手段と、
前記手または指の位置情報に基づいて、前記手または指の位置を示すポインタ画像を生成するポインタ画像生成手段と、
前記背景映像、前記装置画像、および前記ポインタ画像を合成して出力映像を生成する画像合成手段と、
前記画像形成装置を設置する位置と前記手または指の位置情報とに基づいて、前記画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行するモデル実行手段と、
前記出力映像を表示する表示手段と、
を有することを特徴とする画像表示装置。
Background image acquisition means for acquiring a background image;
Display position information acquisition means for acquiring display position information of the image forming apparatus to be installed;
An apparatus image generation unit configured to generate an apparatus image of the image forming apparatus based on the display position information and information on the size of the image forming apparatus;
Finger position information acquisition means for acquiring position information of the hand or finger;
Pointer image generation means for generating a pointer image indicating the position of the hand or finger based on the position information of the hand or finger;
Image combining means for combining the background image, the device image, and the pointer image to generate an output image;
Model execution means for executing a predetermined operation of a simulation model for simulating the operation of the image forming apparatus based on the position where the image forming apparatus is installed and the position information of the hand or finger;
Display means for displaying the output video;
An image display device comprising:
前記背景映像取得手段は、撮像手段を有し、
前記背景映像は、前記画像形成装置を設置する場所を前記撮像手段が撮像して取得されることを特徴とする請求項5に記載の画像表示装置。
The background video acquisition means has imaging means,
The image display apparatus according to claim 5, wherein the background video is acquired by the imaging unit imaging a place where the image forming apparatus is installed.
前記表示位置情報取得手段は、前記背景映像からマーカーの画像を抽出して前記表示位置情報を取得することを特徴とする請求項6に記載の画像表示装置。   The image display apparatus according to claim 6, wherein the display position information acquisition unit acquires the display position information by extracting a marker image from the background video. 背景映像を取得する段階と、
設置する画像形成装置の表示位置情報を取得する段階と、
前記表示位置情報と前記画像形成装置のサイズに関する情報とに基づいて、前記画像形成装置の装置画像を生成する段階と、
手または指の位置情報を取得する段階と、
前記手または指の位置情報に基づいて、前記手または指の位置を示すポインタ画像を生成する段階と、
前記背景映像、前記装置画像、および前記ポインタ画像を合成して出力映像を生成する段階と、
前記画像形成装置を設置する位置と前記手または指の位置情報とに基づいて、前記画像形成装置の動作を模擬するシミュレーションモデルの所定の動作を実行する段階と、
前記出力映像を表示する段階と、
を有する、画像表示方法。
Acquiring a background image;
Acquiring display position information of the image forming apparatus to be installed;
Generating a device image of the image forming apparatus based on the display position information and information on a size of the image forming apparatus;
Obtaining hand or finger position information;
Generating a pointer image indicating the position of the hand or finger based on the position information of the hand or finger;
Synthesizing the background video, the device image, and the pointer image to generate an output video;
Executing a predetermined operation of a simulation model for simulating the operation of the image forming apparatus based on the position where the image forming apparatus is installed and the position information of the hand or finger;
Displaying the output video;
An image display method comprising:
JP2011248898A 2011-11-14 2011-11-14 Control processing program, image display apparatus, and image display method Active JP5831151B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011248898A JP5831151B2 (en) 2011-11-14 2011-11-14 Control processing program, image display apparatus, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011248898A JP5831151B2 (en) 2011-11-14 2011-11-14 Control processing program, image display apparatus, and image display method

Publications (2)

Publication Number Publication Date
JP2013105330A true JP2013105330A (en) 2013-05-30
JP5831151B2 JP5831151B2 (en) 2015-12-09

Family

ID=48624817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011248898A Active JP5831151B2 (en) 2011-11-14 2011-11-14 Control processing program, image display apparatus, and image display method

Country Status (1)

Country Link
JP (1) JP5831151B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043179A (en) * 2013-08-26 2015-03-05 ブラザー工業株式会社 Image processing program
JP2015210763A (en) * 2014-04-30 2015-11-24 株式会社モノコト Image processing method, and image processing program
JP2016136376A (en) * 2015-01-14 2016-07-28 株式会社リコー Information processing apparatus, information processing method, and program
JP2017072999A (en) * 2015-10-07 2017-04-13 株式会社リコー Information processing apparatus, information processing method and program
WO2019012940A1 (en) * 2017-07-14 2019-01-17 京セラドキュメントソリューションズ株式会社 Display device and display system
US10359916B2 (en) 2015-02-16 2019-07-23 Fujifilm Corporation Virtual object display device, method, program, and system
WO2022241047A1 (en) * 2021-05-11 2022-11-17 Axon Enterprise, Inc. Equipment detection using a wearable device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034906A (en) * 2005-07-29 2007-02-08 Ricoh Co Ltd Composite animation video creation system and method thereof
JP2008040832A (en) * 2006-08-07 2008-02-21 Canon Inc Mixed sense of reality presentation system and control method for it
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034906A (en) * 2005-07-29 2007-02-08 Ricoh Co Ltd Composite animation video creation system and method thereof
JP2008040832A (en) * 2006-08-07 2008-02-21 Canon Inc Mixed sense of reality presentation system and control method for it
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043179A (en) * 2013-08-26 2015-03-05 ブラザー工業株式会社 Image processing program
JP2015210763A (en) * 2014-04-30 2015-11-24 株式会社モノコト Image processing method, and image processing program
JP2016136376A (en) * 2015-01-14 2016-07-28 株式会社リコー Information processing apparatus, information processing method, and program
US10359916B2 (en) 2015-02-16 2019-07-23 Fujifilm Corporation Virtual object display device, method, program, and system
JP2017072999A (en) * 2015-10-07 2017-04-13 株式会社リコー Information processing apparatus, information processing method and program
WO2019012940A1 (en) * 2017-07-14 2019-01-17 京セラドキュメントソリューションズ株式会社 Display device and display system
JPWO2019012940A1 (en) * 2017-07-14 2019-11-07 京セラドキュメントソリューションズ株式会社 Display device and display system
WO2022241047A1 (en) * 2021-05-11 2022-11-17 Axon Enterprise, Inc. Equipment detection using a wearable device

Also Published As

Publication number Publication date
JP5831151B2 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
JP5831151B2 (en) Control processing program, image display apparatus, and image display method
JP5689707B2 (en) Display control program, display control device, display control system, and display control method
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP4777182B2 (en) Mixed reality presentation apparatus, control method therefor, and program
JP4115188B2 (en) Virtual space drawing display device
JP5777786B1 (en) Information processing apparatus, information processing method, and program
EP1708139A2 (en) Calibration method and apparatus
JP6021296B2 (en) Display control program, display control device, display control system, and display control method
JP2015084002A (en) Mirror display system and image display method thereof
JP7378232B2 (en) Image processing device and its control method
JP2022058753A (en) Information processing apparatus, information processing method, and program
TW201219095A (en) Game system, control method and computer program
JP5664215B2 (en) Augmented reality display system, augmented reality display method used in the system, and augmented reality display program
US20220172439A1 (en) Head-mounted information processing apparatus and head-mounted display system
JP2021016547A (en) Program, recording medium, object detection device, object detection method, and object detection system
JP2012079076A (en) Information processor, information display method, information display program, and recording medium
JP2006018444A (en) Image processing system and additional information indicating device
JP4689344B2 (en) Information processing method and information processing apparatus
JP2009301350A (en) Virtual image display system and virtual image display method
JP5831149B2 (en) Simulation method, simulation apparatus, and control program for simulation apparatus
JP2000112334A (en) Driving operation training device
JP6436872B2 (en) Information processing apparatus, information processing method, and program
US20100171859A1 (en) Projection and Registration Device
JP7462097B1 (en) Virtual experience system and program
JP2017056607A (en) Data processing device, data processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151012

R150 Certificate of patent or registration of utility model

Ref document number: 5831151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150