JP2013105329A - Simulation method, simulation device and control program for simulation device - Google Patents

Simulation method, simulation device and control program for simulation device Download PDF

Info

Publication number
JP2013105329A
JP2013105329A JP2011248896A JP2011248896A JP2013105329A JP 2013105329 A JP2013105329 A JP 2013105329A JP 2011248896 A JP2011248896 A JP 2011248896A JP 2011248896 A JP2011248896 A JP 2011248896A JP 2013105329 A JP2013105329 A JP 2013105329A
Authority
JP
Japan
Prior art keywords
target device
image
installation
simulation
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011248896A
Other languages
Japanese (ja)
Other versions
JP5831150B2 (en
Inventor
Kenji Ogasawara
賢二 小笠原
Ryu Higashi
立 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2011248896A priority Critical patent/JP5831150B2/en
Publication of JP2013105329A publication Critical patent/JP2013105329A/en
Application granted granted Critical
Publication of JP5831150B2 publication Critical patent/JP5831150B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a simulation method, a simulation device and a control program for the simulation device, which can reduce trouble in an object device after its purchase.SOLUTION: The invention includes a step (S05) for acquiring an image of installation site in a real space where a device to be an object of AR simulation is arranged, a step (S06) for detecting a designated installation site of the object device, a step (S08) for generating an AR object of the object device fitted with an optional device, at the detected installation site, according to the fitting condition of the optional device fitted to the object device, and a step (S09) for generating a composite image including the image and AR object, and displaying the composite image.

Description

本発明は、シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムに関する。   The present invention relates to a simulation method, a simulation apparatus, and a control program for the simulation apparatus.

商品である対象装置の購入にあたって、設置場所に十分なスペースが存在するか否かなどを事前に検討する場合、装置カタログに記載された寸法や、対象装置のモックアップを利用するしかなく、計算ミス、考慮漏れ等によるトラブルを防ぐことが困難であった。   When purchasing the target device, which is a product, when considering in advance whether there is sufficient space at the installation location, etc., the only option is to use the dimensions described in the device catalog and the mockup of the target device. It was difficult to prevent troubles due to mistakes and omissions.

一方、拡張現実(AR:Augmented Reality)を利用し、現実環境に家具のARオブジェクトを合成して提示する技術が提案されている(例えば、特許文献1参照。)。   On the other hand, a technique has been proposed in which augmented reality (AR) is used to synthesize and present furniture AR objects in the real environment (see, for example, Patent Document 1).

特表2010−541054号公報Special table 2010-541044 gazette

しかし、特許文献1の技術を適用し、拡張現実において対象装置のARオブジェクトを合成して提示したとしても、対象装置の設置状況が適正か否かを事前検討するための有効な情報を有しないため、購入後のトラブルを削減することが困難であった。   However, even if the technique of Patent Document 1 is applied and the AR object of the target device is synthesized and presented in augmented reality, it does not have effective information for examining in advance whether or not the installation status of the target device is appropriate. Therefore, it was difficult to reduce trouble after purchase.

本発明は、上記従来技術に伴う課題を解決するためになされたものであり、対象装置の購入後のトラブルを削減し得るシミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムを提供することを目的とする。   The present invention has been made in order to solve the problems associated with the above-described prior art, and has an object to provide a simulation method, a simulation apparatus, and a control program for the simulation apparatus that can reduce trouble after the purchase of the target apparatus. To do.

本発明の上記目的は、下記の手段によって達成される。   The above object of the present invention is achieved by the following means.

(1)シミュレーション装置の制御プログラムであって、
ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得手順と、
指定された前記対象装置の設置位置を検出する設置位置検出手順と、
前記対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、前記オプション装置が装着された前記対象装置のARオブジェクトを生成するARオブジェクト生成手順と、
前記映像および前記ARオブジェクトが含まれた合成画像を生成する画像合成手順と、
前記合成画像を表示する表示手順と、
を有する処理を、前記シミュレーション装置に実行させることを特徴とする制御プログラム。
(1) A simulation device control program,
A background image acquisition procedure for acquiring an image of the installation location in the real space where the target device of the AR simulation is arranged;
An installation position detection procedure for detecting an installation position of the specified target device;
An AR object generation procedure for generating an AR object of the target device to which the option device is mounted at the detected installation position in accordance with the mounting status of the option device to be mounted on the target device;
An image composition procedure for generating a composite image including the video and the AR object;
A display procedure for displaying the composite image;
A control program causing the simulation apparatus to execute a process having

(2)前記ARオブジェクト生成手順において、複数の前記オプション装置が重ね合わせた状態あるいは透過した状態で、前記ARオブジェクトが生成されることを特徴とする上記(1に記載の制御プログラム。   (2) The control program according to (1), wherein, in the AR object generation procedure, the AR object is generated in a state where a plurality of the optional devices are overlapped or transmitted.

(3)前記処理は、予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生手順を、さらに有することを特徴とする上記(1)又は上記(2)に記載の制御プログラム。   (3) The control program according to (1) or (2), wherein the processing further includes a data reproduction procedure for reproducing audio data, moving image data, or device rotation data prepared in advance. .

(4)前記処理は、前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手順を、さらに有し、
前記画像合成手順において、前記付加情報が追加された合成画像が生成される
ことを特徴とする上記(1)〜(3)のいずれか1項に記載の制御プログラム。
(4) The process further includes an additional information generation procedure for generating additional information for determining whether or not the installation status of the target device is appropriate.
The control program according to any one of (1) to (3), wherein in the image composition procedure, a composite image to which the additional information is added is generated.

(5)前記設置状況は、前記対象装置の筐体サイズを考慮しており、
前記筐体サイズは、前記対象装置にオプション装置が装着される場合、前記オプション装置のサイズも含んでいることを特徴とする上記(4)に記載の制御プログラム。
(5) The installation status considers the casing size of the target device,
The control program according to (4), wherein the case size includes a size of the option device when the option device is mounted on the target device.

(6)前記設置状況は、前記対象装置の設置サイズを考慮しており、
前記設置サイズは、前記対象装置の筐体サイズに、実際の操作に必要となる作業領域を加えて算出され、
前記筐体サイズは、前記対象装置にオプション装置が装着される場合、前記オプション装置のサイズを含んでいる
ことを特徴とする上記(4)に記載の制御プログラム。
(6) The installation situation considers the installation size of the target device,
The installation size is calculated by adding a work area required for actual operation to the housing size of the target device,
The control program according to (4), wherein the case size includes a size of the option device when the option device is mounted on the target device.

(7)前記作業領域は、前記対象装置の操作者の体型を考慮して設定されることを特徴とする上記(6)に記載の制御プログラム。   (7) The control program according to (6), wherein the work area is set in consideration of a body shape of an operator of the target device.

(8)前記作業領域は、外部の周辺装置に接続するためのコネクターを考慮して設定されることを特徴とする上記(6)に記載の制御プログラム。   (8) The control program according to (6), wherein the work area is set in consideration of a connector for connecting to an external peripheral device.

(9)前記付加情報は、前記コネクターの挿入方向、前記コネクターの規格、前記コネクターに接続される周辺装置の名称、あるいは、これらの組み合わせを、さらに含んでいることを特徴とする上記(8)に記載の制御プログラム。   (9) In the above (8), the additional information further includes an insertion direction of the connector, a standard of the connector, a name of a peripheral device connected to the connector, or a combination thereof. The control program described in 1.

(10)前記処理は、前記対象装置と前記実空間の設置場所に位置する障害物との干渉を検出する検出手順を、さらに有し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいることを特徴とする上記(1)〜(9)のいずれか1項に記載の制御プログラム。
(10) The processing further includes a detection procedure for detecting interference between the target device and an obstacle located at the installation location of the real space,
The control program according to any one of (1) to (9), wherein the additional information includes warning information that alerts the interference.

(11)前記警告情報は、前記干渉を指摘するメッセージを含んでいることを特徴とする上記(10)に記載の制御プログラム。   (11) The control program according to (10), wherein the warning information includes a message indicating the interference.

(12)前記の設置位置検出手順において、前記対象装置の設置位置は、前記実空間における設置場所に配置されているマーカーに基づいて検出されることを特徴とする上記(1)〜(11)のいずれか1項に記載の制御プログラム。   (12) In the installation position detection procedure, the installation position of the target device is detected based on a marker arranged at an installation location in the real space. The control program according to any one of the above.

(13)ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得ステップと、
指定された前記対象装置の設置位置を検出する設置位置検出ステップと、
前記対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、前記オプション装置が装着された前記対象装置のARオブジェクトを生成するARオブジェクト生成ステップと、
前記映像および前記ARオブジェクトが含まれた合成画像を生成する画像合成ステップと、
前記合成画像を表示する表示ステップと、
を有することを特徴とするシミュレーション方法。
(13) A background video acquisition step of acquiring a video of an installation location in a real space where a target device for AR simulation is arranged;
An installation position detection step for detecting an installation position of the specified target device;
An AR object generation step of generating an AR object of the target device to which the option device is mounted at the detected installation position according to a mounting state of the option device to be mounted on the target device;
An image compositing step for generating a composite image including the video and the AR object;
A display step for displaying the composite image;
A simulation method characterized by comprising:

(14)予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生ステップを、さらに有することを特徴とする上記(13)に記載のシミュレーション方法。   (14) The simulation method according to (13), further including a data reproduction step of reproducing audio data, moving image data, or device rotation data prepared in advance.

(15)前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成ステップを、さらに有し、
前記画像合成ステップにおいては、前記付加情報が追加された合成画像が生成される
ことを特徴とする上記(13)又は上記(14)に記載のシミュレーション方法。
(15) The method further includes an additional information generation step of generating additional information for determining whether or not the installation status of the target device is appropriate,
The simulation method according to (13) or (14) above, wherein in the image composition step, a composite image to which the additional information is added is generated.

(16)前記対象装置と前記実空間の設置場所に位置する障害物との干渉を検出する干渉検出ステップを、さらに有し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいることを特徴とする上記(13)〜(15)のいずれか1項に記載のシミュレーション方法。
(16) An interference detection step of detecting interference between the target device and an obstacle located at the installation location in the real space,
The simulation method according to any one of (13) to (15), wherein the additional information includes warning information that alerts the interference.

(17)ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得するための背景映像取得部と、
指定された前記対象装置の設置位置を検出するための設置位置検出手段と、
前記対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、前記オプション装置が装着された前記対象装置のARオブジェクトを生成するためのARオブジェクト生成手段と、
前記映像および前記ARオブジェクトが含まれた合成画像を生成するための画像合成手段と、
前記合成画像を表示するための表示部と、
を有することを特徴とするシミュレーション装置。
(17) a background image acquisition unit for acquiring an image of an installation location in a real space where an AR simulation target device is arranged;
Installation position detection means for detecting the installation position of the specified target device;
An AR object generating means for generating an AR object of the target device to which the optional device is mounted at a detected installation position according to a mounting state of the optional device mounted on the target device;
Image synthesizing means for generating a synthesized image including the video and the AR object;
A display unit for displaying the composite image;
A simulation apparatus comprising:

(18)予め用意されている音声データ、動画データあるいは装置自転データを再生するためのデータ再生手段を、さらに有することを特徴とする上記(17)に記載のシミュレーション装置。   (18) The simulation apparatus according to (17), further including data reproduction means for reproducing audio data, moving image data, or apparatus rotation data prepared in advance.

(19)前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手段を、さらに有し、
前記画像合成手段は、前記付加情報が追加された合成画像を生成する
ことを特徴とする上記(17)又は上記(18)に記載のシミュレーション装置。
(19) It further includes additional information generating means for generating additional information for determining whether or not the installation status of the target device is appropriate,
The simulation apparatus according to (17) or (18), wherein the image synthesis unit generates a synthesized image to which the additional information is added.

(20)前記対象装置と前記実空間の設置場所に位置する障害物との干渉を検出するための干渉検出手段を、さらに有し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいることを特徴とする上記(17)〜(19)のいずれか1項に記載のシミュレーション装置。
(20) It further includes interference detection means for detecting interference between the target device and an obstacle located at the installation location of the real space,
The simulation apparatus according to any one of (17) to (19), wherein the additional information includes warning information that alerts the interference.

本発明に係るシミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムによれば、操作者に表示される合成画像には、指定した設置位置に配置されかつオプション装置の装着状況に応じた対象装置の画像(対象装置の設置状況が適正か否かを事前検討するための有効な情報)が含まれており、対象装置を実際に設置した時に近い状態を視覚的に把握することが可能であり、対象装置の設置状況が適正か否かを事前検討する際において、計算ミスや考慮漏れ等によるトラブルを防ぐことが容易である。したがって、対象装置の購入後のトラブルを削減し得るシミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムを提供することが可能である。   According to the simulation method, the simulation apparatus, and the control program for the simulation apparatus according to the present invention, the composite image displayed to the operator includes the image of the target device that is arranged at the designated installation position and that corresponds to the installation status of the optional device. (Effective information for examining whether the installation status of the target device is appropriate or not) is included, and it is possible to visually grasp the state close to when the target device was actually installed. When examining in advance whether or not the installation status of the apparatus is appropriate, it is easy to prevent troubles due to calculation mistakes or omissions. Therefore, it is possible to provide a simulation method, a simulation apparatus, and a control program for the simulation apparatus that can reduce trouble after purchase of the target apparatus.

本発明の実施の形態に係るシミュレーション装置を説明するための概略図である。It is the schematic for demonstrating the simulation apparatus which concerns on embodiment of this invention. 図1に示されるシミュレーション装置の機能を説明するための概略図である。It is the schematic for demonstrating the function of the simulation apparatus shown by FIG. 図1に示されるシミュレーション装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the simulation apparatus shown by FIG. 図3に示される3Dデータに係る対象製品の一例を説明するための側面図である。It is a side view for demonstrating an example of the target product which concerns on 3D data shown by FIG. 図3に示される3Dデータに係る対象製品の別の一例を説明するための側面図である。It is a side view for demonstrating another example of the target product which concerns on 3D data shown by FIG. 図3に示される3Dデータに係るオプション装置の一例を説明するための側面図である。It is a side view for demonstrating an example of the option apparatus which concerns on 3D data shown by FIG. 図3に示される3Dデータに係るオプション装置の別の一例を説明するための側面図である。It is a side view for demonstrating another example of the option apparatus which concerns on 3D data shown by FIG. 図3に示される3Dデータに係る操作者体型パターンの一例を説明するための概念図である。It is a conceptual diagram for demonstrating an example of the operator body shape pattern which concerns on 3D data shown by FIG. 図3に示される3Dデータに係る操作者体型パターンの別の一例を説明するための概念図である。It is a conceptual diagram for demonstrating another example of the operator figure pattern which concerns on 3D data shown by FIG. 図3に示されるROM部の制御処理プログラムを説明するための図表である。4 is a chart for explaining a control processing program of a ROM section shown in FIG. 3. 図3に示されるRAM部の表示状態情報を説明するための図表である。4 is a chart for explaining display state information of a RAM section shown in FIG. 3. 図3に示されるディスプレイのメニュー画面を説明するための概念図である。It is a conceptual diagram for demonstrating the menu screen of the display shown by FIG. 図3に示されるセンサーを説明するための概念図である。It is a conceptual diagram for demonstrating the sensor shown by FIG. 図11に示されるオプション装置選択モードのオプション装置の指定の一例を説明するための概念図である。It is a conceptual diagram for demonstrating an example of designation | designated of the option apparatus of the option apparatus selection mode shown by FIG. 図11に示されるオプション装置選択モードのオプション装置の指定の別の一例を説明するための概念図である。It is a conceptual diagram for demonstrating another example of designation | designated of the option apparatus of the option apparatus selection mode shown by FIG. 図11に示されるオプション装置選択モードの本体カラーを説明するための概念図である。It is a conceptual diagram for demonstrating the main body color of the option apparatus selection mode shown by FIG. 図11に示される重ね合わせモードの重ね合わせを説明するための概念図である。It is a conceptual diagram for demonstrating the superimposition of the superimposition mode shown by FIG. 図11に示される重ね合わせモードの透過を説明するための概念図である。It is a conceptual diagram for demonstrating transmission of the superposition mode shown by FIG. 図11に示される操作者指定モードの子供を説明するための概念図である。It is a conceptual diagram for demonstrating the child of the operator designation | designated mode shown by FIG. 図11に示される操作者指定モードの男性を説明するための概念図である。It is a conceptual diagram for demonstrating the man of the operator designation | designated mode shown by FIG. 図11に示されるサイズ表示モードの筐体サイズを説明するための概念図である。It is a conceptual diagram for demonstrating the housing | casing size of the size display mode shown by FIG. 図11に示されるサイズ表示モードの設置サイズを説明するための概念図である。It is a conceptual diagram for demonstrating the installation size of the size display mode shown by FIG. 図11に示される障害物モードに係る障害物の一例を説明するための概念図である。It is a conceptual diagram for demonstrating an example of the obstruction which concerns on the obstruction mode shown by FIG. 図11に示される障害物モードに係る障害物の検出を説明するための概念図である。It is a conceptual diagram for demonstrating the detection of the obstruction which concerns on the obstruction mode shown by FIG. 図11に示される障害物モード(干渉警報)を説明するための概念図である。It is a conceptual diagram for demonstrating the obstruction mode (interference warning) shown by FIG. 図11に示される音声モード、動画モードおよび回転モードを説明するための概念図である。It is a conceptual diagram for demonstrating the audio | voice mode, moving image mode, and rotation mode which are shown by FIG. 図11に示される重量表示モードを説明するための概念図である。It is a conceptual diagram for demonstrating the weight display mode shown by FIG. 図11に示されるコネクター位置表示モードを説明するための概念図である。It is a conceptual diagram for demonstrating the connector position display mode shown by FIG. 図3に示される制御処理プログラムのアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm of the control processing program shown by FIG. 図29に示されるステップS03のタッチパネル入力処理のアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm of the touchscreen input process of step S03 shown by FIG. 図29に示されるステップS06のマーカー検出処理のアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm of the marker detection process of step S06 shown by FIG. 図29に示されるステップS08のARオブジェクト画像作成処理のアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm of AR object image creation processing of step S08 shown by FIG. 図29に示されるステップS09のARオブジェクト画像合成表示処理のアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm of AR object image composition display processing of step S09 shown by FIG.

以下、本発明の実施の形態を、図面を参照しつつ説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るシミュレーション装置を説明するための概略図、図2は、図1に示されるシミュレーション装置の機能を説明するための概略図である。   FIG. 1 is a schematic diagram for explaining a simulation apparatus according to an embodiment of the present invention, and FIG. 2 is a schematic diagram for explaining functions of the simulation apparatus shown in FIG.

本発明の実施の形態に係るシミュレーション装置100は、拡張現実(AR)技術を利用し、実空間の設置場所90の背景映像と、商品である対象装置10のARオブジェクト画像等を合成(オーバーレイ)して表示することが可能であり、例えば、対象装置10を購入する操作者によって、対象装置10の動作状態を事前に確認し(対象装置10の設置状況が適正か否かを判別し)、購入後のトラブルを削減するために使用される。例えば、設置場所90は、操作者が勤務するオフィスであり、対象装置10は、プリンター専用機や、コピー機能、プリンター機能およびスキャン機能を有するMFP(Multi−Function Peripheral)であり、操作者は、対象装置10のユーザーである。   The simulation apparatus 100 according to the embodiment of the present invention uses augmented reality (AR) technology to synthesize (overlay) the background image of the installation location 90 in the real space and the AR object image of the target device 10 that is a product. For example, an operator who purchases the target device 10 confirms the operation state of the target device 10 in advance (determines whether the installation status of the target device 10 is appropriate) Used to reduce trouble after purchase. For example, the installation location 90 is an office where an operator works, and the target apparatus 10 is a printer dedicated machine or an MFP (Multi-Function Peripheral) having a copy function, a printer function, and a scan function. A user of the target device 10.

符号Mは、図形、記号、文字等が記載されたシートからなるマーカーであり、設置位置、シミュレーション装置100までの距離、設置される対象装置10と一意に対応付けられた装置識別情報を、シミュレーション装置100に教授するために使用される。マーカーMが保持する情報は、例えば、2次元マトリックスコードにより記載される。なお、マーカーMは、シート状に限定されない。また、RFIDタグのように、マーカーMにメモリーおよび送信機を取り付け、設置位置情報およびメモリーに記憶された情報(対象装置10を一意に対応付ける情報)を、シミュレーション装置100に送信することも可能である。   A symbol M is a marker composed of a sheet on which figures, symbols, characters, and the like are written, and simulates the installation position, the distance to the simulation device 100, and device identification information uniquely associated with the target device 10 to be installed. Used to teach the device 100. The information held by the marker M is described by, for example, a two-dimensional matrix code. The marker M is not limited to a sheet shape. Further, like the RFID tag, a memory and a transmitter can be attached to the marker M, and the installation position information and information stored in the memory (information that uniquely associates the target device 10) can be transmitted to the simulation device 100. is there.

次に、シミュレーション装置100の構成を詳述する。   Next, the configuration of the simulation apparatus 100 will be described in detail.

図3は、図1に示されるシミュレーション装置の構成を説明するためのブロック図、図4および図5は、図3に示される3Dデータに係る対象製品の一例および別の一例を説明するための側面図、図6および図7は、図3に示される3Dデータに係るオプション装置の一例および別の一例を説明するための側面図、図8および図9は、図3に示される3Dデータに係る操作者体型パターンの一例およびの別の一例を説明するための概念図、図10は、図3に示されるROM部の制御処理プログラムを説明するための図表、図11は、図3に示されるRAM部の表示状態情報を説明するための図表、図12は、図3に示されるディスプレイのメニュー画面を説明するための概念図、図13は、図3に示されるセンサーを説明するための概念図である。   FIG. 3 is a block diagram for explaining the configuration of the simulation apparatus shown in FIG. 1, and FIGS. 4 and 5 are examples for explaining one example and another example of the target product related to the 3D data shown in FIG. 6 is a side view, FIG. 8 is a side view for explaining another example of the optional device related to the 3D data shown in FIG. 3, and FIG. 8 is a diagram showing the 3D data shown in FIG. FIG. 10 is a conceptual diagram for explaining an example of the operator body pattern and another example, FIG. 10 is a chart for explaining the control processing program of the ROM unit shown in FIG. 3, and FIG. 11 is shown in FIG. FIG. 12 is a conceptual diagram for explaining the menu screen of the display shown in FIG. 3, and FIG. 13 is a diagram for explaining the sensor shown in FIG. Conceptual diagram That.

シミュレーション装置100は、カメラ付き携帯電話やスマートフォンからなり、CPU110、ROM部120、RAM部130、タッチパネル140、ディスプレイ150、カメラ160、センサー170およびスピーカー180を有し、これらは、バス190を経由して相互に接続されている。   The simulation apparatus 100 includes a camera-equipped mobile phone and a smartphone, and includes a CPU 110, a ROM unit 120, a RAM unit 130, a touch panel 140, a display 150, a camera 160, a sensor 170, and a speaker 180. Are connected to each other.

CPU110は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するマイクロプロセッサ等から構成される制御回路であり、シミュレーション装置100の各機能は、それに対応するプログラムをCPU110が実行することにより発揮される。   The CPU 110 is a control circuit composed of a microprocessor or the like that executes control of the above-described units and various arithmetic processes according to a program. Each function of the simulation apparatus 100 is exhibited by the CPU 110 executing a corresponding program. Is done.

ROM部120は、例えば、不揮発性の半導体メモリーや、大容量の磁気ディスク装置を有しており、3D(dimensional)データ、コンテンツデータおよび制御処理プログラムが記憶されている。   The ROM unit 120 has, for example, a nonvolatile semiconductor memory and a large-capacity magnetic disk device, and stores 3D (dimensional) data, content data, and a control processing program.

3Dデータは、対象装置10の装置本体部(図4および図5参照)やオプション装置(図6および図7参照)の外形データ、操作者を模式的に表示するための外形データ(図8および図9参照)および実空間の設置場所90に位置する障害物を模式的に表示するための外形データを含んでいる。   The 3D data includes external data of an apparatus main body (see FIGS. 4 and 5) and an optional device (see FIGS. 6 and 7) of the target device 10 and external data for schematically displaying an operator (see FIGS. 8 and 8). 9) and outline data for schematically displaying an obstacle located at the installation location 90 in the real space.

コンテンツデータは、装置本体部およびオプション装置に係る仕様情報、再生データおよびマーカー画像情報を含んでいる。   The content data includes specification information, reproduction data, and marker image information related to the device main body and the optional device.

仕様情報は、装置本体部およびオプション装置の筐体サイズ、色および重量、装置本体部とオプション装置との組み合わせの適否、外部の周辺装置に接続するためのコネクター情報、操作者の分類データ(操作者の体型パターンを表現する人体情報)を含んでいる。コネクター情報は、コネクターの設置位置と挿入方向、コネクターの規格、コネクターに接続される周辺装置の名称を含んでいる。   The specification information includes the case size, color and weight of the device main unit and optional device, suitability of the combination of the device main unit and optional device, connector information for connecting to external peripheral devices, operator classification data (operation Human body information expressing the body pattern of the person). The connector information includes the installation position and insertion direction of the connector, the connector standard, and the name of the peripheral device connected to the connector.

再生データは、装置動作に関わる音声データ、動画データおよび回転データを含んでいる。回転データは、対象装置を回転させて装置全体の外観を把握するための装置自転データである。マーカー画像情報は、実空間の設置場所90の背景映像からマーカーMの画像を分離する(切り出す)ための識別情報である。なお、筐体サイズは、3Dデータから算出することも可能である。   The reproduction data includes audio data, moving image data, and rotation data related to the operation of the apparatus. The rotation data is device rotation data for rotating the target device and grasping the appearance of the entire device. The marker image information is identification information for separating (cutting out) the image of the marker M from the background video of the installation place 90 in the real space. Note that the housing size can also be calculated from 3D data.

制御処理プログラムは、ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得し、指定された対象装置の設置位置を検出し、対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、オプション装置が装着された対象装置のARオブジェクトを生成し、映像およびARオブジェクトが含まれた合成画像を生成し、合成画像を表示するために使用され、図10に示されるように、タッチパネル入力処理、マーカー検出処理、ARオブジェクト画像作成処理およびARオブジェクト画像合成表示処理などを実行するプログラムからなり、CPU110により必要に応じて読み出され、RAM部130上で実行処理される。   The control processing program acquires an image of the installation location in the real space where the target device of the AR simulation is arranged, detects the installation position of the designated target device, and according to the mounting status of the optional device mounted on the target device At the detected installation position, an AR object of the target device on which the optional device is mounted is generated, a composite image including the video and the AR object is generated, and used to display the composite image. As shown in the figure, the program includes a program for executing touch panel input processing, marker detection processing, AR object image creation processing, AR object image composition display processing, and the like, which are read by the CPU 110 as necessary and executed on the RAM unit 130. Is done.

したがって、操作者に表示される合成画像には、指定した設置位置に配置されかつオプション装置の装着状況に応じた対象装置の画像(対象装置の設置状況が適正か否かを事前検討するための有効な情報)が含まれており、対象装置を実際に設置した時に近い状態を視覚的に把握することが可能であり、対象装置の設置状況が適正か否かを事前検討する際において、計算ミスや考慮漏れ等によるトラブルを防ぐことが容易である。つまり、対象装置の購入後のトラブルを削減することが可能である。   Therefore, the composite image displayed to the operator includes an image of the target device that is placed at the specified installation position and according to the mounting status of the optional device (for examining whether the installation status of the target device is appropriate). Effective information), it is possible to visually grasp the state near the time when the target device was actually installed, and when calculating in advance whether or not the target device is installed properly It is easy to prevent troubles due to mistakes and omissions. That is, it is possible to reduce troubles after purchasing the target device.

なお、タッチパネル入力処理は、表示状態情報を更新するために実行される。マーカー検出処理は、対象装置10の設置位置(表示位置)と向き(方向)を算出するために実行される。ARオブジェクト画像作成処理は、3DデータをARオブジェクト画像に変換するために実行される。ARオブジェクト画像合成表示処理は、操作者に対してARシミュレーション結果を提示するために実行される。   The touch panel input process is executed to update the display state information. The marker detection process is executed to calculate the installation position (display position) and direction (direction) of the target device 10. The AR object image creation process is executed to convert 3D data into an AR object image. The AR object image composition display process is executed to present an AR simulation result to the operator.

RAM部130は、例えば、揮発性の半導体メモリーや、大容量の磁気ディスク装置を有しており、作業領域として一時的にプログラムおよびデータを記憶したり、背景映像、ARオブジェクト画像、表示状態情報を記憶するために使用される。   The RAM unit 130 includes, for example, a volatile semiconductor memory and a large-capacity magnetic disk device, and temporarily stores programs and data as a work area, background video, AR object image, display state information Used to remember.

背景映像は、実空間の設置場所90をカメラ160によって撮影して得られた画像データである。ARオブジェクト画像は、装置本体部、オプション装置および障害物の3Dデータから変換された画像データである。表示状態情報は、操作者に対してARシミュレーション結果を提示する際に、障害物や付加情報を追加表示したり、指定されたデータを再生したりするために使用され、図11に示されるように、オプション装置選択モード、重ね合わせモード、操作者指定モード、サイズ表示モード、障害物モード、音声モード、動画モード、回転モード、重量表示モードおよびコネクター位置表示モードを含んでいる。   The background video is image data obtained by photographing the installation location 90 in the real space with the camera 160. The AR object image is image data converted from 3D data of the device main body, the optional device, and the obstacle. The display state information is used to additionally display obstacles and additional information and reproduce designated data when presenting the AR simulation result to the operator, as shown in FIG. In addition, an optional device selection mode, an overlay mode, an operator designation mode, a size display mode, an obstacle mode, an audio mode, a moving image mode, a rotation mode, a weight display mode, and a connector position display mode are included.

タッチパネル140は、文字入力、各種設定、スタート指示等の各種指示を操作者が行うために利用される入力手段であり、例えば、表示状態情報を入力(更新)するために使用される。なお、タッチパネル140を利用し、設置される対象装置10の位置を指定したり、設置される対象装置10を特定したりするための識別データを入力することも可能である。   The touch panel 140 is an input unit used for an operator to perform various instructions such as character input, various settings, and a start instruction. For example, the touch panel 140 is used to input (update) display state information. It is also possible to input identification data for specifying the position of the target device 10 to be installed or specifying the target device 10 to be installed using the touch panel 140.

ディスプレイ150は、本実施の形態においてはタッチパネル140と一体化されており、カメラ160の映像、ARシミュレーション結果、エラーの発生状況、現在変更可能な設定、合成画像(アノテーション))などを、操作者に提示するために使用される出力手段である。   The display 150 is integrated with the touch panel 140 in the present embodiment, and displays an image of the camera 160, an AR simulation result, an error occurrence state, a currently changeable setting, a composite image (annotation), and the like. Is an output means used for presenting.

ディスプレイ150は、表示状態情報を入力するための階層構造を有する画面を有する。例えば、図12に示される構成においては、操作者が、Menuボタンを押下すると、画面が更新され、表示状態情報の変更に関わる選択メニューが表示され、操作者によって表示状態を変更することが可能となる。表示状態情報の変更は、例えば、トグルやラジオボタンを利用することが可能である。   The display 150 has a screen having a hierarchical structure for inputting display state information. For example, in the configuration shown in FIG. 12, when the operator presses the Menu button, the screen is updated, a selection menu related to the change of the display state information is displayed, and the display state can be changed by the operator. It becomes. For example, toggles and radio buttons can be used to change the display state information.

表示状態情報の変更において、メニュー表示を利用せず、画面をタッチすることで主要なモードに切り替わるように構成することも可能である。例えば、Menuボタン以外の場所をクリックする度に、サイズ表示モードを、「無し」→「筺体サイズ」→「設置サイズ」→「無し」の順に切り替わるように構成することもできる。   In changing the display state information, it is possible to switch to the main mode by touching the screen without using the menu display. For example, each time a place other than the Menu button is clicked, the size display mode may be switched in the order of “none” → “case size” → “installation size” → “none”.

なお、設置サイズは、装置本体部の筺体サイズと、実際の操作に必要となる作業領域とを含んでいる。対象装置の筺体サイズは、装置本体部にオプション装置が装着される場合、オプション装置のサイズを含んでいる。   The installation size includes the housing size of the apparatus main body and the work area required for actual operation. The housing size of the target device includes the size of the optional device when the optional device is mounted on the device main body.

カメラ160は、例えば、RGBカメラからなり、実空間の設置場所90の背景映像を撮影するために使用される。背景映像は、マーカーMの画像抽出やARオブジェクト画像との合成のために使用される。マーカーMの画像は、そのサイズと傾きから、実空間の設置場所90におけるマーカーMとシミュレーション装置100(カメラ160)との間の距離とマーカーMの向き(方向)を算出するために使用される。なお、実空間上におけるマーカーMとシミュレーション装置100との距離を算出することなく、背景映像から得られるマーカーMの画像のサイズと傾きから直接的にAR上における対象装置10のサイズ、向きを算出することも可能である。   The camera 160 is composed of, for example, an RGB camera, and is used to capture a background image of the installation space 90 in the real space. The background video is used for image extraction of the marker M and synthesis with the AR object image. The image of the marker M is used to calculate the distance between the marker M and the simulation apparatus 100 (camera 160) and the direction (direction) of the marker M from the size and inclination of the marker M. . Note that the size and orientation of the target device 10 on the AR are directly calculated from the size and inclination of the image of the marker M obtained from the background video without calculating the distance between the marker M and the simulation device 100 in real space. It is also possible to do.

センサー170は、物体からの反射光が戻ってくるまでの時間に基づいて物体までの距離を算出する深度センサーからなり、図13に示されるように、障害物までの距離を測定するために使用される。測定光は、例えば、赤外線である。障害物は、例えば、壁92である。なお、本実施の形態において、カメラ160およびセンサー170は一体化されており、キネクト(Kinect)センサーから構成される。センサー170は、必要に応じて磁気センサーや超音波センサー等の3次元センサーを適用することも可能である。   The sensor 170 is a depth sensor that calculates the distance to the object based on the time until the reflected light from the object returns, and is used to measure the distance to the obstacle as shown in FIG. Is done. The measurement light is, for example, infrared. The obstacle is, for example, a wall 92. In the present embodiment, the camera 160 and the sensor 170 are integrated, and are composed of a kinect sensor. As the sensor 170, a three-dimensional sensor such as a magnetic sensor or an ultrasonic sensor can be applied as necessary.

なお、マーカーMの画像のサイズと傾きから算出さるマーカーMの位置を表す基準点Pは、障害物の測定点P〜Pや、実空間の設置場所90の背景映像と合成するために対象装置10等の3Dデータを座標変換する際に利用される。障害物の測定点P〜Pは、マーカーMの測定点Pに配置される対象装置10と障害物との干渉の有無を検出するために使用される。 Note that the reference point P 1 representing the position of the marker M calculated from the size and inclination of the image of the marker M is combined with the measurement points P 2 to P 4 of the obstacle and the background image of the installation place 90 in the real space. It is used when 3D data of the target device 10 or the like is subjected to coordinate conversion. The obstacle measurement points P 2 to P 4 are used to detect the presence or absence of interference between the target device 10 arranged at the measurement point P 1 of the marker M and the obstacle.

障害物の干渉において、障害物は、背景映像の一部分を占める画像であり、対象装置100と干渉する(立体的なぶつかりがある)か否かを直接判定することはできない。そのため、距離が算出されている(位置が特定されている)マーカーMの基準点P上に対象装置10を配置した際に、センサー170から最も遠い距離に配置されることとなる対象装置10のパーツの位置を、背景基準距離とする。次に、センサー170が実空間の設置場所90をスキャンすることによって、背景映像中の複数の測定点P〜Pとセンサー170(カメラ160)との間の距離が検出され、これらの距離データを統合することにより障害物の3Dデータが取得される。 In the interference of the obstacle, the obstacle is an image that occupies a part of the background image, and it cannot be directly determined whether or not the object device 100 interferes (there is a three-dimensional collision). Therefore, when the distance is arranged target device 10 on the reference point P 1 of the calculated and are (location is specified) marker M, the target device 10 that would be placed in the farthest distance from the sensor 170 The position of the part is the background reference distance. Next, when the sensor 170 scans the installation place 90 in the real space, the distances between the plurality of measurement points P 2 to P 4 in the background image and the sensor 170 (camera 160) are detected, and these distances are detected. The 3D data of the obstacle is acquired by integrating the data.

障害物の3Dデータは、マーカーMに配置された対象装置10の3Dデータと、立体的に比較可能である。つまり、障害物のARオブジェクトが、設置サイズ領域の内部に位置しており、対象装置10の設置サイズと重なっている場合(測定点Pの場合)、障害物と干渉すると判別し、設置サイズ領域の外部に位置しており、対象装置10の設置サイズと重なっていない場合(測定点Pおよび測定点Pの場合)、障害物と干渉しないと判別することが可能である。 The 3D data of the obstacle can be compared three-dimensionally with the 3D data of the target device 10 arranged at the marker M. That, AR object obstacle located in the interior of the installation size region (in the case of measuring point P 3) In case of overlap with the installation size of the target device 10, determines that interferes with the obstacle, installation size located outside the region (in the case of measuring point P 2 and the measurement point P 4) when not overlap the installation size of the target device 10, it is possible to determine not to interfere with the obstacle.

なお、測定点の数は、特に限定されず、例えば、センサー170の性能によって適宜設定される。また、干渉の有無は、筺体サイズに基づくことも可能である。また、実空間の設置場所90の3Dデータは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるステレオカメラを利用して取得することも可能である。   Note that the number of measurement points is not particularly limited, and is appropriately set depending on the performance of the sensor 170, for example. The presence or absence of interference can also be based on the size of the housing. Further, the 3D data of the installation location 90 in the real space can be obtained by using a stereo camera that can record information in the depth direction by simultaneously photographing the object from a plurality of different directions.

スピーカー180は、表示状態情報の音声モードで指定された音声や、動画モードで指定された動画に含まれる音声を再生するために使用される。   The speaker 180 is used to reproduce the sound specified in the sound mode of the display state information and the sound included in the moving image specified in the moving image mode.

次に、表示状態情報の各モードを順次詳述する。   Next, each mode of the display state information will be described in detail.

図14および図15は、図11に示されるオプション装置選択モードのオプション装置の指定の一例および別の一例を説明するための概念図、図16は、図11に示されるオプション装置選択モードの本体カラーを説明するための概念図である。   14 and 15 are conceptual diagrams for explaining an example of designation of an option device in the option device selection mode shown in FIG. 11 and another example, and FIG. 16 is a main body of the option device selection mode shown in FIG. It is a conceptual diagram for demonstrating a color.

オプション装置選択モードは、装着可能なオプション装置の一覧および切り替え可能な装置本体部の色(本体カラー)の一覧を有し、オプション装置を指定(装着の有無)したり、装置本体部の色(本体カラー)を切り替えるために使用される。例えば、オプション装置は、フィニッシャーやADF(Auto Document Feeder)であり、本体カラーは、白、黒、グレイである。   The optional device selection mode has a list of optional devices that can be mounted and a list of switchable device main body colors (main body colors). The optional device can be specified (with or without mounting), or the device main body color ( Used to switch the body color. For example, the optional device is a finisher or ADF (Auto Document Feeder), and the main body colors are white, black, and gray.

例えば、オプション装置を指定すると、図14および図15に示されるように、装置本体部にオプション装置が取り付けられた対象装置の3Dデータが生成される。また、本体カラーを切り替える場合、例えば、黒を選択すると、図4に示される白色のプリンターは、図16に示される黒色のプリンターに変更される。   For example, when an optional device is designated, as shown in FIGS. 14 and 15, 3D data of a target device having the optional device attached to the device main body is generated. When the main body color is switched, for example, when black is selected, the white printer shown in FIG. 4 is changed to the black printer shown in FIG.

オプション装置を選択した場合、対象装置の外形の位置データ(マーカーMからの相対距離データ)は、マーカーMの位置データを基準に自動的に再計算される。つまり、オプション装置の選択(装着)状態にしたがって、対象装置の位置を代表する基準点とマーカーMとの間の相対距離が変更される。なお、対象装置の位置を代表する基準点の選定は、特に限定されず、例えば、対象装置の内部中心点や重心点、対象装置の底面のコーナー部等を利用することが可能である。また、装置本体部の位置データを変更せず、オプション装置の位置データを、装置本体部の位置データを基準とした差分データによって特定することもできる。   When the optional device is selected, the position data of the outer shape of the target device (relative distance data from the marker M) is automatically recalculated based on the position data of the marker M. That is, the relative distance between the reference point representing the position of the target device and the marker M is changed according to the selection (mounting) state of the optional device. The selection of the reference point that represents the position of the target device is not particularly limited, and for example, an internal center point or a center of gravity point of the target device, a corner portion on the bottom surface of the target device, or the like can be used. Further, the position data of the optional device can be specified by the difference data based on the position data of the apparatus main body without changing the position data of the apparatus main body.

図17および図18は、図11に示される重ね合わせモードの「重ね合わせ」および「透過」を説明するための概念図である。   17 and 18 are conceptual diagrams for explaining “superposition” and “transmission” in the superposition mode shown in FIG. 11.

重ね合わせモードにおいては、「単一」、「重ね合わせ」および「透過」を選択可能である。「単一」は、同時に設置できない(すなわち、択一的な、或いは排他的な)オプション装置はひとつのみ表示させたい場合に指定される。「重ね合わせ」および「透過」は、排他設置される複数のオプション装置を同時に表示させたい場合に使用される。なお、「重ね合わせ」においては、図17に示されるように、表示サイズが大きなオプション装置が背景のレイヤから順に表示され、「透過」においては、図18に示されるように、重ね合わさったオプション装置が任意の透過率で表示される。なお、重ね合わさったオプション装置は、それぞれ識別しやすいように、色調を変えて表示することも可能である。   In the superposition mode, “single”, “superposition”, and “transmission” can be selected. “Single” is designated when only one optional device that cannot be installed at the same time (ie, alternative or exclusive) is to be displayed. “Overlapping” and “Transmission” are used when it is desired to simultaneously display a plurality of optional devices that are exclusively installed. In “overlay”, as shown in FIG. 17, option devices having a large display size are displayed in order from the background layer. In “transparent”, as shown in FIG. The device is displayed with an arbitrary transmittance. Note that the overlaid optional devices can be displayed in different colors so that they can be easily identified.

図19は、図11に示される操作者指定モードの「子供」および「男性」を説明するための概念図である。   FIG. 19 is a conceptual diagram for explaining “child” and “male” in the operator designation mode shown in FIG.

操作者指定モードは、操作者のARオブジェクト画像における操作者タイプおよび付加的な特徴を指定するために使用される。操作者タイプは、「無し」、「子供」、「女性」および「男性」であり、付加的な特徴は、「体型」である。「無し」は、操作者のARオブジェクト画像を表示させたくない場合に指定される。「子供」、「女性」および「男性」のオブジェクトサイズは、それぞれ、身長130cm、身長160cmおよび身長170cmである。「体型」は、3つの種類(細、中、太)に分類され、ARオブジェクトのサイズを微調整したい場合に指定される。   The operator designation mode is used to designate an operator type and additional features in the operator's AR object image. The operator types are “none”, “children”, “female” and “male”, and an additional feature is “body type”. “None” is designated when it is not desired to display the AR object image of the operator. The object sizes of “children”, “female”, and “male” are 130 cm tall, 160 cm tall, and 170 cm tall, respectively. “Body shape” is classified into three types (thin, medium, and thick), and is designated when fine adjustment of the size of the AR object is desired.

例えば、「子供」が指定される場合、図19に示されるARオブジェクト画像が合成され、「男性」が指定される場合、図20に示されるARオブジェクト画像が合成される。「体型」に係るARオブジェクトは、独立して用意したり、指定されたARオブジェクトを変形したりすることで生成することが可能である。   For example, when “child” is designated, the AR object image shown in FIG. 19 is synthesized, and when “male” is designated, the AR object image shown in FIG. 20 is synthesized. The AR object related to the “body shape” can be generated by preparing independently or by transforming the designated AR object.

図21および図22は、図11に示されるサイズ表示モードの筐体サイズおよび設置サイズを説明するための概念図である。   21 and 22 are conceptual diagrams for explaining the housing size and the installation size in the size display mode shown in FIG.

サイズ表示モードは、「無し」、「筐体サイズ」および「設置サイズ」が選択可能である。「無し」は、枠とサイズデータを表示させたくない場合に指定される。「筐体サイズ」は、図21に示されるように、現在表示するオプション構成の各サイズに合わせた枠とサイズデータを表示させたい場合に指定される。「設置サイズ」は、図22に示されるように、現在表示するオプション構成の設置サイズに合わせた枠とサイズデータを表示させたい場合に指定される。   As the size display mode, “None”, “Case size”, and “Installation size” can be selected. “None” is designated when it is not desired to display the frame and size data. As shown in FIG. 21, “casing size” is designated when it is desired to display a frame and size data in accordance with each size of the option configuration currently displayed. As shown in FIG. 22, the “installation size” is designated when it is desired to display a frame and size data in accordance with the installation size of the option configuration currently displayed.

設置サイズに含まれる実際の操作に必要となる作業領域は、操作者タイプおよび付加的な特徴、外部の周辺装置に接続するためのコネクターの配置位置および電源に接続するためのコネクターの配置位置を考慮して算出されが、周囲の障害物の有無や、動作シミュレーション中の紙の排紙状態等に基づいて動的に算出したり、固定的なサイズの加算によって算出したりすることも可能である。   The work area required for the actual operation included in the installation size includes the operator type and additional features, the location of the connector to connect to external peripheral devices and the location of the connector to connect to the power supply. It can be calculated dynamically based on the presence or absence of surrounding obstacles, paper discharge status during operation simulation, etc., or by adding a fixed size. is there.

図23は、図11に示される障害物モードに係る障害物の一例を説明するための概念図、図24は、図11に示される障害物モードに係る障害物の検出を説明するための概念図、図25は、図11に示される障害物モード(干渉警報)を説明するための概念図である。   FIG. 23 is a conceptual diagram for explaining an example of an obstacle related to the obstacle mode shown in FIG. 11, and FIG. 24 is a concept for explaining detection of an obstacle related to the obstacle mode shown in FIG. 25 is a conceptual diagram for explaining the obstacle mode (interference alarm) shown in FIG.

障害物モードは、実空間の設置場所90に存在する障害物を考慮するために使用され、「無し」、「表示のみ」および「干渉警報」が選択可能である。障害物は、例えば、図23に示される壁92や本棚94である。「無し」は、周辺の障害物の検出および表示を実行させたくない場合に指定される。「表示のみ」は、周辺の障害物の検出のみを実行させたい場合に指定され、例えば、図24に示されるように障害物のオブジェクトが表示される。「干渉警報」は、周辺の障害物の検出および干渉の検出を実行させたい場合に指定され、図25に示されるように、障害物とのぶつかり状態を示している映像および警告メッセージが表示される。警告メッセージは、障害物とのぶつかりを注意喚起する干渉情報である。   The obstacle mode is used to consider an obstacle present at the installation location 90 in the real space, and “None”, “Display only”, and “Interference alarm” can be selected. The obstacle is, for example, a wall 92 or a bookshelf 94 shown in FIG. “None” is designated when it is not desired to execute detection and display of surrounding obstacles. “Display only” is specified when it is desired to execute only detection of surrounding obstacles. For example, as shown in FIG. 24, an obstacle object is displayed. “Interference warning” is designated when it is desired to execute detection of obstacles in the vicinity and detection of interference, and as shown in FIG. 25, a video and a warning message indicating a collision state with an obstacle are displayed. The The warning message is interference information that calls attention to an obstacle.

干渉の発生は、対象装置と障害物との接触(設置サイズが占める領域と周辺の障害物が占める領域とに重なりが生じること)を検出することにより、判別される。また、警告は、文字によって構成する形態に限定されず、音声、光(色)、対象装置と障害物とが接触する部分の強調表示によって構成したり、これらを適宜組み合わせたりすることも可能である。   The occurrence of interference is determined by detecting contact between the target apparatus and an obstacle (overlap between an area occupied by the installation size and an area occupied by surrounding obstacles). In addition, the warning is not limited to a form constituted by characters, and may be constituted by highlighting a portion where the target device and the obstacle are in contact with each other, or may be appropriately combined. is there.

図26は、図11に示される音声モード、動画モードおよび回転モードを説明するための概念図である。   FIG. 26 is a conceptual diagram for explaining the audio mode, moving image mode, and rotation mode shown in FIG. 11.

音声モード、動画モードおよび回転モードは、例えば、図26に示されるように、コンテンツデータが含まれる再生データを利用した動作表示のために使用される。   The audio mode, the moving image mode, and the rotation mode are used for operation display using reproduction data including content data, for example, as shown in FIG.

音声モードは、予め用意されている音声データ(音声No.1〜3)を指定するために使用される。音声データは、例えば、動作音であり、指定された音声が再生される。動画モードは、予め用意されている動画データ(動画No.1〜3)を指定するために使用される。動画データは、例えば、印刷開始に伴って紙が排出される様子の動画であり、指定された動画が再生される。回転モードは、対象装置を回転させて、装置全体の外観を把握するために使用され、装置自転データが再生される。   The voice mode is used for designating voice data (voice Nos. 1 to 3) prepared in advance. The sound data is, for example, an operation sound, and a designated sound is reproduced. The moving image mode is used to specify moving image data (moving image Nos. 1 to 3) prepared in advance. The moving image data is, for example, a moving image in which paper is discharged as printing starts, and a specified moving image is reproduced. The rotation mode is used to rotate the target device to grasp the overall appearance of the device, and the device rotation data is reproduced.

図27は、図11に示される重量表示モードを説明するための概念図である。   FIG. 27 is a conceptual diagram for explaining the weight display mode shown in FIG. 11.

重量表示モードは、「有り」および「無し」が選択可能である。「無し」は、図21に示されるように、重量を表示させたくない場合に指定される。「有り」は、図27に示されるように、現在表示されている装置本体部とオプション装置の総重量を表示させたい場合に指定される。なお、装置本体部の重量とオプション装置の重量とを独立して表示することも可能である。   As the weight display mode, “present” and “absent” can be selected. “None” is designated when the weight is not desired to be displayed as shown in FIG. As shown in FIG. 27, “present” is designated when it is desired to display the total weight of the currently displayed apparatus main body and the optional apparatus. Note that the weight of the apparatus main body and the weight of the optional device can be displayed independently.

図28は、図11に示されるコネクター位置表示モードを説明するための概念図である。   FIG. 28 is a conceptual diagram for explaining the connector position display mode shown in FIG.

コネクター位置表示モードは、「有り」および「無し」が選択可能である。「有り」は、図25に示されるように、外部の周辺装置に接続するためのコネクターの設置位置データと挿入方向、コネクターの規格、周辺装置の名称を表示させたい場合に指定される。例えば、コネクターの規格は、USB(Universal Serial Bus)であり、周辺装置の名称は、電源である。なお、コネクターの挿入方向、コネクターの規格および周辺装置の名称は、例えば、バルーン表示することも可能である。   “Yes” and “No” can be selected as the connector position display mode. “Present” is designated when it is desired to display the connector installation position data and insertion direction for connecting to an external peripheral device, the connector standard, and the name of the peripheral device, as shown in FIG. For example, the connector standard is USB (Universal Serial Bus), and the name of the peripheral device is a power supply. The insertion direction of the connector, the standard of the connector, and the name of the peripheral device can be displayed in a balloon, for example.

次に、制御処理プログラムを詳述する。   Next, the control processing program will be described in detail.

図29は、図3に示される制御処理プログラムのアルゴリズムを説明するためのフローチャートである。   FIG. 29 is a flowchart for explaining an algorithm of the control processing program shown in FIG.

まず、タッチパネル操作(タッチパネルを利用した操作指示)の有無を検出するため、入力スキャンが実行され(ステップS01)、タッチパネル操作の有無が判別される(ステップS02)。タッチパネル操作が検出されない場合(ステップS02:No)、実行シーケンスは、ステップS05に進む。タッチパネル操作が検出された場合(ステップS02:Yes)、タッチパネル入力処理が実行される(ステップS03)。そして、制御処理の終了の有無が判別される(ステップS04)。   First, in order to detect the presence or absence of a touch panel operation (operation instruction using the touch panel), an input scan is executed (step S01), and the presence or absence of the touch panel operation is determined (step S02). When the touch panel operation is not detected (step S02: No), the execution sequence proceeds to step S05. When a touch panel operation is detected (step S02: Yes), touch panel input processing is executed (step S03). Then, it is determined whether or not the control process has ended (step S04).

制御処理は終了したと判別される場合(ステップS04:Yes)、制御処理プログラムの実行は終了する。制御処理が終了しないと判別される場合(ステップS04:No)、実行シーケンスは、ステップS05に進む。   When it is determined that the control process is finished (step S04: Yes), the execution of the control process program is finished. When it is determined that the control process does not end (step S04: No), the execution sequence proceeds to step S05.

ステップS05においては、カメラからの背景映像がRAM部の背景映像部に取り込まれ(記憶され)、その後、マーカー検出処理が実行される(ステップS06)。次に、マーカー検出処理においてマーカーが検出されたか否かが判別される(ステップS07)。   In step S05, the background video from the camera is captured (stored) in the background video portion of the RAM, and then the marker detection process is executed (step S06). Next, it is determined whether or not a marker is detected in the marker detection process (step S07).

マーカーが検出されなかったと判別される場合(ステップS07:No)、実行シーケンスは、ステップS01にリターンする。マーカーが検出されたと判別される場合(ステップS07:Yes)、ARオブジェクト画像作成処理およびARオブジェクト画像合成処理が実行され(ステップS08およびS09)、実行シーケンスは、ステップS01にリターンする。   When it is determined that the marker has not been detected (step S07: No), the execution sequence returns to step S01. If it is determined that a marker has been detected (step S07: Yes), an AR object image creation process and an AR object image composition process are executed (steps S08 and S09), and the execution sequence returns to step S01.

次に、タッチパネル入力処理を詳述する。   Next, the touch panel input process will be described in detail.

図30は、図29に示されるステップS03のタッチパネル入力処理のアルゴリズムを説明するためのフローチャートである。   FIG. 30 is a flowchart for explaining the algorithm of the touch panel input process of step S03 shown in FIG.

まず、ディスプレイ150に表示されるMenuボタンの押圧の有無が、タッチパネル140を利用して検出される(ステップS11)。Menuボタンの押圧が検出されない場合(ステップS11:No)、実行シーケンスは、ステップS15に進む。   First, the presence or absence of pressing of the Menu button displayed on the display 150 is detected using the touch panel 140 (step S11). When pressing of the Menu button is not detected (step S11: No), the execution sequence proceeds to step S15.

Menuボタンの押圧が検出された場合(ステップS11:Yes)、表示状態情報を入力するための画面(図12参照)がディスプレイ150に表示される(ステップS12)。   When pressing of the Menu button is detected (step S11: Yes), a screen (see FIG. 12) for inputting display state information is displayed on the display 150 (step S12).

ディスプレイ150に表示されたモードの指定項目(図11参照)の押圧の有無(設定の変更)が、タッチパネル140を利用して検出される(ステップS13)。モードの指定項目の押圧が検出されない場合(ステップS13:No)、実行シーケンスは、ステップS15に進む。   Whether or not the mode designation item (see FIG. 11) displayed on the display 150 is pressed (setting change) is detected using the touch panel 140 (step S13). When the pressing of the mode designation item is not detected (step S13: No), the execution sequence proceeds to step S15.

モードの指定項目が押圧され、設定の変更が検出された場合(ステップS13:Yes)、設定の変更に応じて表示状態情報が更新され(ステップS14)、実行シーケンスは、ステップS15に進む。   When the mode designation item is pressed and a change in setting is detected (step S13: Yes), the display state information is updated according to the change in setting (step S14), and the execution sequence proceeds to step S15.

ステップS15においては、タッチパネル入力処理の終了の有無が判別される。タッチパネル入力処理は終了ではないと判別される場合(ステップS15:No)、実行シーケンスは、ステップS11にリターンする。タッチパネル入力処理は終了であると判別される場合(ステップS15:Yes)、処理を終了するための一連の処理が実行され(ステップS16)、タッチパネル入力処理は終了する。   In step S15, it is determined whether or not the touch panel input process has ended. When it is determined that the touch panel input process is not finished (step S15: No), the execution sequence returns to step S11. When it is determined that the touch panel input process is finished (step S15: Yes), a series of processes for ending the process is executed (step S16), and the touch panel input process is finished.

次に、マーカー検出処理を詳述する。   Next, the marker detection process will be described in detail.

図31は、図29に示されるステップS06のマーカー検出処理のアルゴリズムを説明するためのフローチャートである。   FIG. 31 is a flowchart for explaining the marker detection processing algorithm of step S06 shown in FIG.

まず、RAM部130の背景映像部に取り込まれた背景映像から、ROM部120のコンテンツデータに含まれるマーカー画像情報を抽出する処理が実行され(ステップS21)、マーカー画像情報が抽出(マーカーが検出)できたか否かが判別される(ステップS22)。   First, a process of extracting marker image information included in the content data of the ROM unit 120 from the background video captured in the background video unit of the RAM unit 130 is executed (step S21), and the marker image information is extracted (marker is detected). It is determined whether or not it has been completed (step S22).

マーカー画像情報が抽出できなかったと判別される場合(ステップS22:No)、マーカー検出処理は終了する。マーカー画像情報が抽出できた場合(ステップS22:Yes)、マーカー画像情報に含まれる装置識別情報により対象装置が特定され、また、マーカー画像情報に含まれるマーカーの角度と大きさからマーカーとセンサー(カメラ)との間の距離および方向が算出され、これに基づき、対象装置の表示位置と向きが得られ(ステップS23)、マーカー検出処理は終了する。   If it is determined that the marker image information could not be extracted (step S22: No), the marker detection process ends. When the marker image information can be extracted (step S22: Yes), the target device is specified by the device identification information included in the marker image information, and the marker and sensor (from the angle and size of the marker included in the marker image information) The distance and direction from the camera are calculated, and based on this, the display position and orientation of the target device are obtained (step S23), and the marker detection process ends.

次に、ARオブジェクト画像作成処理を詳述する。   Next, the AR object image creation process will be described in detail.

図32は、図29に示されるステップS08のARオブジェクト画像作成処理のアルゴリズムを説明するためのフローチャートである。   FIG. 32 is a flowchart for explaining the algorithm of the AR object image creation processing in step S08 shown in FIG.

まず、最新の表示状態情報が、RAM部から取得され(ステップS31)、装置本体部の外形に対応する3Dデータに加えて、表示状態情報に含まれるオプション装置選択モードおよび操作者指定モードの設定に対応する3Dデータが、ROM部から取得される(ステップS32)。   First, the latest display state information is acquired from the RAM unit (step S31), and in addition to the 3D data corresponding to the outer shape of the apparatus main body unit, setting of the optional device selection mode and the operator designation mode included in the display state information is performed. 3D data corresponding to is acquired from the ROM unit (step S32).

次に、障害物モードにおいて「無し」が指定されているか否かが判別される(ステップS33)。「無し」が指定されていると判別される場合(ステップS33:Yes)、実行シーケンスは、ステップS36に進む。   Next, it is determined whether or not “None” is designated in the obstacle mode (step S33). If it is determined that “none” is designated (step S33: Yes), the execution sequence proceeds to step S36.

「無し」が指定されていないと判別される場合(ステップS33:No)、センサーのスキャン結果に基づき、障害物の位置情報が取得され(ステップS34)、当該位置情報から障害物の3Dデータが生成され(ステップS35)、実行シーケンスは、ステップS36に進む。   When it is determined that “None” is not designated (step S33: No), the position information of the obstacle is acquired based on the scan result of the sensor (step S34), and the 3D data of the obstacle is obtained from the position information. After being generated (step S35), the execution sequence proceeds to step S36.

ステップS36においては、ROM部から取得された3Dデータおよび障害物の3Dデータは、マーカーMの基準点Pの位置データや基準点Pまでの距離等に基づき、外形画像データからなるARオブジェクト画像に適切に変換され、ARオブジェクト画像作成処理は終了する。 In step S36, the 3D data of the 3D data and obstacle obtained from the ROM unit, based on the distance or the like to the position data and the reference point P 1 of the reference point P 1 of the marker M, AR object consisting of contour image data The AR object image creation process is completed after being appropriately converted into an image.

例えば、オプション装置選択モードにおいて「オプション装置」が設定されていれば、図14あるいは図15に示されるARオブジェクト画像が作成され、重ね合わせモードにおいて「重ね合わせ」が設定されていれば、図17に示されるARオブジェクト画像が作成され、「透過」が設定されていれば、図18に示されるARオブジェクト画像が作成され、操作者指定モードにおいて「子供」が設定されていれば、図19に示されるARオブジェクト画像が作成され、「男性」が設定されていれば、図20に示されるARオブジェクト画像が作成され、障害物モードにおいて「表示のみ」あるいは「干渉警報」が設定されていれば、図24に示されるARオブジェクト画像が作成されることになる。   For example, if “option device” is set in the option device selection mode, the AR object image shown in FIG. 14 or FIG. 15 is created, and if “superposition” is set in the overlay mode, FIG. 18 is created, and if “transparent” is set, the AR object image shown in FIG. 18 is created. If “child” is set in the operator designation mode, FIG. If the AR object image shown is created and “male” is set, the AR object image shown in FIG. 20 is created, and “display only” or “interference alarm” is set in the obstacle mode. The AR object image shown in FIG. 24 is created.

次に、ARオブジェクト画像合成表示処理を詳述する。   Next, the AR object image composition display process will be described in detail.

図33は、図29に示されるステップS09のARオブジェクト画像合成表示処理のアルゴリズムを説明するためのフローチャートである。   FIG. 33 is a flowchart for explaining the algorithm of the AR object image composition display processing in step S09 shown in FIG.

まず、ARオブジェクト画像と、RAM部の背景映像部に記憶されている背景映像とが合成(オーバーレイ)される(ステップS41)。この際、表示状態情報に含まれる障害物モードが「無し」の場合、障害物の3Dデータから生成されたARオブジェクト画像は合成されない。   First, the AR object image and the background video stored in the background video portion of the RAM portion are combined (overlaid) (step S41). At this time, when the obstacle mode included in the display state information is “none”, the AR object image generated from the 3D data of the obstacle is not synthesized.

次に、付加情報の有無が判別される(ステップS42)。付加情報は、例えば、表示状態情報に含まれるサイズ表示モード、重量表示モード、コネクター位置表示モードおよび障害物モードの設定に応じた画像データである。   Next, the presence / absence of additional information is determined (step S42). The additional information is, for example, image data according to the settings of the size display mode, weight display mode, connector position display mode, and obstacle mode included in the display state information.

最新の表示状態情報に基づき、付加情報が無いと判別される場合(ステップS42:No)、実行シーケンスは、ステップS44に進む。付加情報が有ると判別される場合(ステップS42:Yes)、合成された画像に付加情報がさらに追加合成され、合成画像がディスプレイ150に表示され(ステップS43)、実行シーケンスは、ステップS44に進む。   If it is determined that there is no additional information based on the latest display state information (step S42: No), the execution sequence proceeds to step S44. When it is determined that there is additional information (step S42: Yes), additional information is further combined with the combined image, the combined image is displayed on the display 150 (step S43), and the execution sequence proceeds to step S44. .

例えば、サイズ表示モードにおいて「筐体サイズ」が設定されていれば、図21に示される付加情報が追加合成され、「設置サイズ」が設定されていれば、図21に示される付加情報が追加合成され、重量表示モードに「有り」が設定されていれば、図27に示される付加情報が追加合成され、コネクター位置表示モードに「有り」が設定されていれば、図28に示される付加情報が追加合成され、障害物モードにおいて「干渉警報」が設定されていれば、図25に示される付加情報(警告メッセージ)が追加合成されることになる。   For example, if “chassis size” is set in the size display mode, the additional information shown in FIG. 21 is additionally combined. If “installation size” is set, the additional information shown in FIG. 21 is added. If “Yes” is set in the weight display mode, the additional information shown in FIG. 27 is additionally combined. If “Yes” is set in the connector position display mode, the additional information shown in FIG. 28 is added. If information is additionally combined and “interference warning” is set in the obstacle mode, the additional information (warning message) shown in FIG. 25 is additionally combined.

ステップS44においては、再生データの有無が判別される(ステップS44)。最新の表示状態情報(音声モード、動画モードおよび回転モード)に基づき、再生データが無いと判別される場合(ステップS44:No)、ARオブジェクト画像合成表示処理は終了する。   In step S44, it is determined whether or not there is reproduction data (step S44). When it is determined that there is no reproduction data based on the latest display state information (audio mode, moving image mode, and rotation mode) (step S44: No), the AR object image composition display processing ends.

再生データが有ると判別される場合(ステップS44:Yes)、音声モード、動画モードおよび回転モードの設定に応じて、音声の再生、動画の開始、また、対象装置の自転が実行され(ステップS45)(図26参照)、ARオブジェクト画像合成表示処理は終了する。   When it is determined that there is reproduction data (step S44: Yes), the reproduction of the sound, the start of the moving image, and the rotation of the target device are executed according to the settings of the audio mode, the moving image mode, and the rotation mode (step S45) ) (See FIG. 26), the AR object image composition display processing ends.

なお、付加情報は、ARオブジェクト画像および背景映像と一緒(同時)に合成することも可能である。また、ディスプレイが3D表示に対応している場合、合成画像を、適当な3Dフォーマットで生成し、立体視可能に構成することも可能である。さらに、合成画像は、印刷して操作者に提示することも可能である。   Note that the additional information can be combined (simultaneously) with the AR object image and the background video. If the display supports 3D display, a composite image can be generated in an appropriate 3D format and configured to be stereoscopically viewable. Furthermore, the composite image can be printed and presented to the operator.

以上のように、本実施の形態においては、操作者に表示される合成画像には、指定した設置位置に配置されかつオプション装置の装着状況に応じた対象装置の画像(対象装置の設置状況が適正か否かを事前検討するための有効な情報)が含まれており、対象装置を実際に設置した時に近い状態を視覚的に把握することが可能であり、対象装置の設置状況が適正か否かを事前検討する際において、計算ミスや考慮漏れ等によるトラブルを防ぐことが容易である。したがって、対象装置の購入後のトラブルを削減することが可能である。   As described above, in the present embodiment, the composite image displayed to the operator includes the image of the target device (the installation status of the target device according to the installation status of the optional device) that is placed at the designated installation position. It is possible to visually grasp the state when the target device is actually installed, and whether the target device is installed properly. When examining whether or not in advance, it is easy to prevent troubles due to calculation mistakes or omissions. Therefore, it is possible to reduce trouble after purchase of the target device.

本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲で種々改変することができる。例えば、対象装置は、プリンター専用機やMFPに限定されない。また、シミュレーション装置は、カメラ付きタブレットや、拡張現実と実空間(外部)の景色を合成して表示するゴーグルタイプ(メガネ型)の表示装置(例えば、ヘッドマウントディスプレイ)によって構成することも可能である。なお、ゴーグルタイプの表示装置の場合、タッチパネルからの操作の代わりに、例えば、外部ボタン等の入力手段を有することが必要である。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. For example, the target device is not limited to a dedicated printer or MFP. In addition, the simulation device can be configured by a camera-equipped tablet or a goggle type (glasses type) display device (for example, a head-mounted display) that synthesizes and displays an augmented reality and real space (external) scenery. is there. In the case of a goggle type display device, it is necessary to have input means such as an external button, for example, instead of an operation from the touch panel.

10 対象装置(商品)、
90 設置場所、
92 壁、
94 本棚
100 シミュレーション装置、
110 CPU、
120 ROM部、
130 RAM部、
140 タッチパネル、
150 ディスプレイ、
160 カメラ、
170 センサー、
180 スピーカー、
190 バス、
M マーカー、
P1 基準点、
P2〜4 測定点。
10 Target device (product),
90 Installation location,
92 walls,
94 Bookshelf 100 Simulation device,
110 CPU,
120 ROM part,
130 RAM section,
140 touch panel,
150 display,
160 cameras,
170 sensors,
180 speakers,
190 bus,
M marker,
P1 reference point,
P2-4 Measurement points.

Claims (20)

シミュレーション装置の制御プログラムであって、
ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得手順と、
指定された前記対象装置の設置位置を検出する設置位置検出手順と、
前記対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、前記オプション装置が装着された前記対象装置のARオブジェクトを生成するARオブジェクト生成手順と、
前記映像および前記ARオブジェクトが含まれた合成画像を生成する画像合成手順と、
前記合成画像を表示する表示手順と、
を有する処理を、前記シミュレーション装置に実行させることを特徴とする制御プログラム。
A control program for a simulation device,
A background image acquisition procedure for acquiring an image of the installation location in the real space where the target device of the AR simulation is arranged;
An installation position detection procedure for detecting an installation position of the specified target device;
An AR object generation procedure for generating an AR object of the target device to which the option device is mounted at the detected installation position in accordance with the mounting status of the option device to be mounted on the target device;
An image composition procedure for generating a composite image including the video and the AR object;
A display procedure for displaying the composite image;
A control program causing the simulation apparatus to execute a process having
前記ARオブジェクト生成手順において、複数の前記オプション装置が重ね合わせた状態あるいは透過した状態で、前記ARオブジェクトが生成されることを特徴とする請求項1に記載の制御プログラム。   2. The control program according to claim 1, wherein the AR object is generated in a state where a plurality of the optional devices are overlapped or transmitted in the AR object generation procedure. 前記処理は、予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生手順を、さらに有することを特徴とする請求項1又は請求項2に記載の制御プログラム。   The control program according to claim 1, wherein the processing further includes a data reproduction procedure for reproducing audio data, moving image data, or device rotation data prepared in advance. 前記処理は、前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手順を、さらに有し、
前記画像合成手順において、前記付加情報が追加された合成画像が生成される
ことを特徴とする請求項1〜3のいずれか1項に記載の制御プログラム。
The processing further includes an additional information generation procedure for generating additional information for determining whether or not the installation status of the target device is appropriate,
The control program according to any one of claims 1 to 3, wherein in the image composition procedure, a composite image to which the additional information is added is generated.
前記設置状況は、前記対象装置の筐体サイズを考慮しており、
前記筐体サイズは、前記対象装置にオプション装置が装着される場合、前記オプション装置のサイズも含んでいることを特徴とする請求項4に記載の制御プログラム。
The installation situation considers the casing size of the target device,
The control program according to claim 4, wherein the case size includes a size of the option device when the option device is mounted on the target device.
前記設置状況は、前記対象装置の設置サイズを考慮しており、
前記設置サイズは、前記対象装置の筐体サイズに、実際の操作に必要となる作業領域を加えて算出され、
前記筐体サイズは、前記対象装置にオプション装置が装着される場合、前記オプション装置のサイズを含んでいる
ことを特徴とする請求項4に記載の制御プログラム。
The installation status takes into account the installation size of the target device,
The installation size is calculated by adding a work area required for actual operation to the housing size of the target device,
The control program according to claim 4, wherein the case size includes a size of the option device when the option device is mounted on the target device.
前記作業領域は、前記対象装置の操作者の体型を考慮して設定されることを特徴とする請求項6に記載の制御プログラム。   The control program according to claim 6, wherein the work area is set in consideration of a body shape of an operator of the target device. 前記作業領域は、外部の周辺装置に接続するためのコネクターを考慮して設定されることを特徴とする請求項6に記載の制御プログラム。   The control program according to claim 6, wherein the work area is set in consideration of a connector for connecting to an external peripheral device. 前記付加情報は、前記コネクターの挿入方向、前記コネクターの規格、前記コネクターに接続される周辺装置の名称、あるいは、これらの組み合わせを、さらに含んでいることを特徴とする請求項8に記載の制御プログラム。   The control according to claim 8, wherein the additional information further includes an insertion direction of the connector, a standard of the connector, a name of a peripheral device connected to the connector, or a combination thereof. program. 前記処理は、前記対象装置と前記実空間の設置場所に位置する障害物との干渉を検出する検出手順を、さらに有し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいることを特徴とする請求項1〜9のいずれか1項に記載の制御プログラム。
The processing further includes a detection procedure for detecting interference between the target device and an obstacle located at an installation location of the real space,
The control program according to claim 1, wherein the additional information includes warning information that alerts the interference.
前記警告情報は、前記干渉を指摘するメッセージを含んでいることを特徴とする請求項10に記載の制御プログラム。   The control program according to claim 10, wherein the warning information includes a message indicating the interference. 前記の設置位置検出手順において、前記対象装置の設置位置は、前記実空間における設置場所に配置されているマーカーに基づいて検出されることを特徴とする請求項1〜11のいずれか1項に記載の制御プログラム。   In the installation position detection procedure, the installation position of the target device is detected based on a marker arranged at an installation location in the real space. The described control program. ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得ステップと、
指定された前記対象装置の設置位置を検出する設置位置検出ステップと、
前記対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、前記オプション装置が装着された前記対象装置のARオブジェクトを生成するARオブジェクト生成ステップと、
前記映像および前記ARオブジェクトが含まれた合成画像を生成する画像合成ステップと、
前記合成画像を表示する表示ステップと、
を有することを特徴とするシミュレーション方法。
A background image acquisition step of acquiring an image of an installation location in a real space where the target device of the AR simulation is arranged;
An installation position detection step for detecting an installation position of the specified target device;
An AR object generation step of generating an AR object of the target device to which the option device is mounted at the detected installation position according to a mounting state of the option device to be mounted on the target device;
An image compositing step for generating a composite image including the video and the AR object;
A display step for displaying the composite image;
A simulation method characterized by comprising:
予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生ステップを、さらに有することを特徴とする請求項13に記載のシミュレーション方法。   The simulation method according to claim 13, further comprising a data reproduction step of reproducing audio data, moving image data, or device rotation data prepared in advance. 前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成ステップを、さらに有し、
前記画像合成ステップにおいては、前記付加情報が追加された合成画像が生成される
ことを特徴とする請求項13又は請求項14に記載のシミュレーション方法。
An additional information generation step of generating additional information for determining whether or not the installation status of the target device is appropriate,
The simulation method according to claim 13 or 14, wherein, in the image composition step, a composite image to which the additional information is added is generated.
前記対象装置と前記実空間の設置場所に位置する障害物との干渉を検出する干渉検出ステップを、さらに有し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいることを特徴とする請求項13〜15のいずれか1項に記載のシミュレーション方法。
An interference detection step of detecting interference between the target device and an obstacle located at the installation location in the real space,
The simulation method according to claim 13, wherein the additional information includes warning information that alerts the interference.
ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得するための背景映像取得部と、
指定された前記対象装置の設置位置を検出するための設置位置検出手段と、
前記対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、前記オプション装置が装着された前記対象装置のARオブジェクトを生成するためのARオブジェクト生成手段と、
前記映像および前記ARオブジェクトが含まれた合成画像を生成するための画像合成手段と、
前記合成画像を表示するための表示部と、
を有することを特徴とするシミュレーション装置。
A background image acquisition unit for acquiring an image of an installation location in a real space where the target device of the AR simulation is arranged;
Installation position detection means for detecting the installation position of the specified target device;
An AR object generating means for generating an AR object of the target device to which the optional device is mounted at a detected installation position according to a mounting state of the optional device mounted on the target device;
Image synthesizing means for generating a synthesized image including the video and the AR object;
A display unit for displaying the composite image;
A simulation apparatus comprising:
予め用意されている音声データ、動画データあるいは装置自転データを再生するためのデータ再生手段を、さらに有することを特徴とする請求項17に記載のシミュレーション装置。   18. The simulation apparatus according to claim 17, further comprising data reproduction means for reproducing audio data, moving image data, or apparatus rotation data prepared in advance. 前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手段を、さらに有し、
前記画像合成手段は、前記付加情報が追加された合成画像を生成する
ことを特徴とする請求項17又は請求項18に記載のシミュレーション装置。
Additional information generating means for generating additional information for determining whether or not the installation status of the target device is appropriate,
The simulation apparatus according to claim 17 or 18, wherein the image composition unit generates a composite image to which the additional information is added.
前記対象装置と前記実空間の設置場所に位置する障害物との干渉を検出するための干渉検出手段を、さらに有し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいることを特徴とする請求項17〜19のいずれか1項に記載のシミュレーション装置。
Interference detection means for detecting interference between the target device and an obstacle located at the installation location of the real space,
The simulation apparatus according to claim 17, wherein the additional information includes warning information that alerts the interference.
JP2011248896A 2011-11-14 2011-11-14 Simulation method, simulation apparatus, and control program for simulation apparatus Active JP5831150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011248896A JP5831150B2 (en) 2011-11-14 2011-11-14 Simulation method, simulation apparatus, and control program for simulation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011248896A JP5831150B2 (en) 2011-11-14 2011-11-14 Simulation method, simulation apparatus, and control program for simulation apparatus

Publications (2)

Publication Number Publication Date
JP2013105329A true JP2013105329A (en) 2013-05-30
JP5831150B2 JP5831150B2 (en) 2015-12-09

Family

ID=48624816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011248896A Active JP5831150B2 (en) 2011-11-14 2011-11-14 Simulation method, simulation apparatus, and control program for simulation apparatus

Country Status (1)

Country Link
JP (1) JP5831150B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256876A (en) * 2002-03-04 2003-09-12 Sony Corp Device and method for displaying composite sense of reality, recording medium and computer program
JP2006244329A (en) * 2005-03-07 2006-09-14 Hitachi Ltd Portable terminal, information processor, and system
JP2007034906A (en) * 2005-07-29 2007-02-08 Ricoh Co Ltd Composite animation video creation system and method thereof
WO2008012867A1 (en) * 2006-07-25 2008-01-31 Fujitsu Limited Operability verification device, operability verification method, and operability verification program
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP2010146285A (en) * 2008-12-18 2010-07-01 Canon Inc Image processing system and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256876A (en) * 2002-03-04 2003-09-12 Sony Corp Device and method for displaying composite sense of reality, recording medium and computer program
JP2006244329A (en) * 2005-03-07 2006-09-14 Hitachi Ltd Portable terminal, information processor, and system
JP2007034906A (en) * 2005-07-29 2007-02-08 Ricoh Co Ltd Composite animation video creation system and method thereof
WO2008012867A1 (en) * 2006-07-25 2008-01-31 Fujitsu Limited Operability verification device, operability verification method, and operability verification program
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP2010146285A (en) * 2008-12-18 2010-07-01 Canon Inc Image processing system and image processing method

Also Published As

Publication number Publication date
JP5831150B2 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
JP6627861B2 (en) Image processing system, image processing method, and program
CN106980361B (en) Information processing apparatus and information processing method
JP5777786B1 (en) Information processing apparatus, information processing method, and program
JP6674192B2 (en) Image processing apparatus and image processing method
JP6354653B2 (en) Augmented reality operation system and augmented reality operation program
JP5598232B2 (en) Information processing apparatus, information processing system, and information processing method
KR20120033246A (en) Image processing apparatus, image processing method, and computer program
JP2005107971A (en) Augmented reality space image generation method and augmented reality system
JP2012510102A5 (en)
JP2010102508A (en) Input device
JP5831151B2 (en) Control processing program, image display apparatus, and image display method
JP5349224B2 (en) Image processing apparatus and image processing method
JP2021052289A (en) Image processing method, program, image processing apparatus, and image processing system
JP6662264B2 (en) Display system
JP5831149B2 (en) Simulation method, simulation apparatus, and control program for simulation apparatus
JP2023024471A (en) Information processor and method for processing information
JP5831150B2 (en) Simulation method, simulation apparatus, and control program for simulation apparatus
JP6252735B2 (en) Image processing program
JP2007264006A (en) Image admiration system, image display device, electronic photograph stand, data handling device, image display method, data handling method, image display program, and data handling program
JP2010272078A (en) System, and control unit of electronic information board, and cursor control method
JP6010744B2 (en) Document creation system, document creation apparatus, document creation method, and program
JP6364721B2 (en) Image processing program
JP2006033605A (en) Image processor, image processing method, and image processing program
JP6772505B2 (en) Programs and terminals
JP6484914B2 (en) Information processing equipment and operation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151012

R150 Certificate of patent or registration of utility model

Ref document number: 5831150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150