JP5831150B2 - シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム - Google Patents

シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム Download PDF

Info

Publication number
JP5831150B2
JP5831150B2 JP2011248896A JP2011248896A JP5831150B2 JP 5831150 B2 JP5831150 B2 JP 5831150B2 JP 2011248896 A JP2011248896 A JP 2011248896A JP 2011248896 A JP2011248896 A JP 2011248896A JP 5831150 B2 JP5831150 B2 JP 5831150B2
Authority
JP
Japan
Prior art keywords
target device
data
size
installation
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011248896A
Other languages
English (en)
Other versions
JP2013105329A (ja
Inventor
小笠原 賢二
賢二 小笠原
立 東
立 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2011248896A priority Critical patent/JP5831150B2/ja
Publication of JP2013105329A publication Critical patent/JP2013105329A/ja
Application granted granted Critical
Publication of JP5831150B2 publication Critical patent/JP5831150B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムに関する。
商品である対象装置の購入にあたって、設置場所に十分なスペースが存在するか否かなどを事前に検討する場合、装置カタログに記載された寸法や、対象装置のモックアップを利用するしかなく、計算ミス、考慮漏れ等によるトラブルを防ぐことが困難であった。
一方、拡張現実(AR:Augmented Reality)を利用し、現実環境に家具のARオブジェクトを合成して提示する技術が提案されている(例えば、特許文献1参照。)。
特表2010−541054号公報
しかし、特許文献1の技術を適用し、拡張現実において対象装置のARオブジェクトを合成して提示したとしても、対象装置の設置状況が適正か否かを事前検討するための有効な情報を有しないため、購入後のトラブルを削減することが困難であった。
本発明は、上記従来技術に伴う課題を解決するためになされたものであり、対象装置の購入後のトラブルを削減し得るシミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムを提供することを目的とする。
本発明の上記目的は、下記の手段によって達成される。
(1)シミュレーション装置の制御プログラムであって、
ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得手順と、
指定された前記対象装置の設置位置を検出する設置位置検出手順と、
前記実空間の設置場所をスキャンすることによって、前記実空間の設置場所に位置する障害物の3Dデータを取得する障害物3Dデータ取得手順と、
前記対象装置と前記障害物との干渉を検出する干渉検出手順と、
前記障害物の3Dデータ、および、前記対象装置に装着されるオプション装置の装着状況に応じ、検出された前記設置位置において、前記オプション装置が装着された前記対象装置の3Dデータから各々のARオブジェクトを生成するARオブジェクト生成手順と、
前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手順と、
前記映像、前記オプション装置が装着された前記対象装置の前記ARオブジェクト、および前記付加情報が含まれた合成画像を生成する画像合成手順と、
前記合成画像を表示する表示手順と、
を有する処理を、前記シミュレーション装置に実行させ、
前記設置状況は、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズであり、
前記障害物の3Dデータは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータと立体的に比較可能に構成され、
前記干渉検出手順においては、前記障害物の前記ARオブジェクトと、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、前記対象装置と前記障害物との干渉が検出され、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいる
ことを特徴とする制御プログラム。
(2)前記ARオブジェクト生成手順において、複数の前記オプション装置が重ね合わせた状態あるいは透過した状態で、前記ARオブジェクトが生成されることを特徴とする上記(1に記載の制御プログラム。
(3)前記処理は、予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生手順を、さらに有することを特徴とする上記(1)又は上記(2)に記載の制御プログラム。
4)前記設置サイズは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズに、実際の操作に必要となる作業領域を加えて算出されることを特徴とする上記(〜(3)のいずれか1項に記載の制御プログラム。
)前記作業領域は、前記対象装置の操作者の体型を考慮して設定されることを特徴とする上記()に記載の制御プログラム。
)前記作業領域は、外部の周辺装置に接続するためのコネクターを考慮して設定されることを特徴とする上記()に記載の制御プログラム。
)前記付加情報は、前記コネクターの挿入方向、前記コネクターの規格、前記コネクターに接続される周辺装置の名称、あるいは、これらの組み合わせを、さらに含んでいることを特徴とする上記()に記載の制御プログラム。
)前記警告情報は、前記干渉を指摘するメッセージを含んでいることを特徴とする上記(〜(7)のいずれか1項に記載の制御プログラム。
)前記の設置位置検出手順において、前記対象装置の設置位置は、前記実空間における設置場所に配置されているマーカーに基づいて検出されることを特徴とする上記(1)〜()のいずれか1項に記載の制御プログラム。
10)ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得ステップと、
指定された前記対象装置の設置位置を検出する設置位置検出ステップと、
前記実空間の設置場所をスキャンすることによって、前記実空間の設置場所に位置する障害物の3Dデータを取得する障害物3Dデータ取得ステップと、
前記対象装置と前記障害物との干渉を検出する干渉検出ステップと、
前記障害物の3Dデータ、および、前記対象装置に装着されるオプション装置の装着状況に応じ、検出された前記設置位置において、前記オプション装置が装着された前記対象装置の3Dデータから各々のARオブジェクトを生成するARオブジェクト生成ステップと、
前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成ステップと、
前記映像、前記オプション装置が装着された前記対象装置の前記ARオブジェクト、および前記付加情報が含まれた合成画像を生成する画像合成ステップと、
前記合成画像を表示する表示ステップと、を有し、
前記設置状況は、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズであり、
前記障害物の3Dデータは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータと立体的に比較可能に構成され、
前記干渉検出ステップにおいては、前記障害物の前記ARオブジェクトと、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、前記対象装置と前記障害物との干渉が検出され、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいる
ことを特徴とするシミュレーション方法。
11)予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生ステップを、さらに有することを特徴とする上記(10)に記載のシミュレーション方法。
(12)ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得するための背景映像取得部と、
指定された前記対象装置の設置位置を検出するための設置位置検出手段と、
前記実空間の設置場所をスキャンすることによって、前記実空間の設置場所に位置する障害物の3Dデータを取得する障害物3Dデータ取得手段と、
前記対象装置と前記障害物との干渉を検出する干渉検出手段と、
前記障害物の3Dデータ、および、前記対象装置に装着されるオプション装置の装着状況に応じ、検出された前記設置位置において、前記オプション装置が装着された前記対象装置の3Dデータから各々のARオブジェクトを生成するためのARオブジェクト生成手段と、
前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手段と、
前記映像、前記オプション装置が装着された前記対象装置の前記ARオブジェクト、および前記付加情報が含まれた合成画像を生成するための画像合成手段と、
前記合成画像を表示するための表示部と、を有し、
前記設置状況は、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズであり、
前記障害物の3Dデータは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータと立体的に比較可能に構成され、
前記干渉検出手段は、前記障害物の前記ARオブジェクトと、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、前記対象装置と前記障害物との干渉を検出し、
前記付加情報は、前記干渉を注意喚起する警告情報を含んでいる
ことを特徴とするシミュレーション装置。
13)予め用意されている音声データ、動画データあるいは装置自転データを再生するためのデータ再生手段を、さらに有することを特徴とする上記(12)に記載のシミュレーション装置。
本発明に係るシミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムによれば、操作者に表示される合成画像には、対象装置の設置状況(オプション装置のサイズを含んでいる対象装置の筐体サイズ又は設置サイズ)が適正か否かを事前検討するための有効な情報(指定した設置位置に配置されかつオプション装置の装着状況に応じた対象装置の画像、および、対象装置の設置状況(オプション装置のサイズを含んでいる対象装置の筐体サイズ又は設置サイズ)が適正か否かを判断するための、対象装置と障害物との干渉を注意喚起する警告情報を含んでいる付加情報)が含まれており、対象装置を実際に設置した時に近い状態を視覚的に把握することが可能であり、かつ、干渉は、実空間の設置場所をスキャンすることによって取得された障害物の3Dデータから変換されたARオブジェクトと、オプション装置のサイズを含んでいる対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、検出されるため、対象装置の設置状況(オプション装置のサイズを含んでいる対象装置の筐体サイズ又は設置サイズ)が適正か否かを事前検討する際において、計算ミスや考慮漏れ等によるトラブルを防ぐことが容易である。したがって、対象装置の購入後のトラブルを削減し得るシミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラムを提供することが可能である。
本発明の実施の形態に係るシミュレーション装置を説明するための概略図である。 図1に示されるシミュレーション装置の機能を説明するための概略図である。 図1に示されるシミュレーション装置の構成を説明するためのブロック図である。 図3に示される3Dデータに係る対象製品の一例を説明するための側面図である。 図3に示される3Dデータに係る対象製品の別の一例を説明するための側面図である。 図3に示される3Dデータに係るオプション装置の一例を説明するための側面図である。 図3に示される3Dデータに係るオプション装置の別の一例を説明するための側面図である。 図3に示される3Dデータに係る操作者体型パターンの一例を説明するための概念図である。 図3に示される3Dデータに係る操作者体型パターンの別の一例を説明するための概念図である。 図3に示されるROM部の制御処理プログラムを説明するための図表である。 図3に示されるRAM部の表示状態情報を説明するための図表である。 図3に示されるディスプレイのメニュー画面を説明するための概念図である。 図3に示されるセンサーを説明するための概念図である。 図11に示されるオプション装置選択モードのオプション装置の指定の一例を説明するための概念図である。 図11に示されるオプション装置選択モードのオプション装置の指定の別の一例を説明するための概念図である。 図11に示されるオプション装置選択モードの本体カラーを説明するための概念図である。 図11に示される重ね合わせモードの重ね合わせを説明するための概念図である。 図11に示される重ね合わせモードの透過を説明するための概念図である。 図11に示される操作者指定モードの子供を説明するための概念図である。 図11に示される操作者指定モードの男性を説明するための概念図である。 図11に示されるサイズ表示モードの筐体サイズを説明するための概念図である。 図11に示されるサイズ表示モードの設置サイズを説明するための概念図である。 図11に示される障害物モードに係る障害物の一例を説明するための概念図である。 図11に示される障害物モードに係る障害物の検出を説明するための概念図である。 図11に示される障害物モード(干渉警報)を説明するための概念図である。 図11に示される音声モード、動画モードおよび回転モードを説明するための概念図である。 図11に示される重量表示モードを説明するための概念図である。 図11に示されるコネクター位置表示モードを説明するための概念図である。 図3に示される制御処理プログラムのアルゴリズムを説明するためのフローチャートである。 図29に示されるステップS03のタッチパネル入力処理のアルゴリズムを説明するためのフローチャートである。 図29に示されるステップS06のマーカー検出処理のアルゴリズムを説明するためのフローチャートである。 図29に示されるステップS08のARオブジェクト画像作成処理のアルゴリズムを説明するためのフローチャートである。 図29に示されるステップS09のARオブジェクト画像合成表示処理のアルゴリズムを説明するためのフローチャートである。
以下、本発明の実施の形態を、図面を参照しつつ説明する。
図1は、本発明の実施の形態に係るシミュレーション装置を説明するための概略図、図2は、図1に示されるシミュレーション装置の機能を説明するための概略図である。
本発明の実施の形態に係るシミュレーション装置100は、拡張現実(AR)技術を利用し、実空間の設置場所90の背景映像と、商品である対象装置10のARオブジェクト画像等を合成(オーバーレイ)して表示することが可能であり、例えば、対象装置10を購入する操作者によって、対象装置10の動作状態を事前に確認し(対象装置10の設置状況が適正か否かを判別し)、購入後のトラブルを削減するために使用される。例えば、設置場所90は、操作者が勤務するオフィスであり、対象装置10は、プリンター専用機や、コピー機能、プリンター機能およびスキャン機能を有するMFP(Multi−Function Peripheral)であり、操作者は、対象装置10のユーザーである。
符号Mは、図形、記号、文字等が記載されたシートからなるマーカーであり、設置位置、シミュレーション装置100までの距離、設置される対象装置10と一意に対応付けられた装置識別情報を、シミュレーション装置100に教授するために使用される。マーカーMが保持する情報は、例えば、2次元マトリックスコードにより記載される。なお、マーカーMは、シート状に限定されない。また、RFIDタグのように、マーカーMにメモリーおよび送信機を取り付け、設置位置情報およびメモリーに記憶された情報(対象装置10を一意に対応付ける情報)を、シミュレーション装置100に送信することも可能である。
次に、シミュレーション装置100の構成を詳述する。
図3は、図1に示されるシミュレーション装置の構成を説明するためのブロック図、図4および図5は、図3に示される3Dデータに係る対象製品の一例および別の一例を説明するための側面図、図6および図7は、図3に示される3Dデータに係るオプション装置の一例および別の一例を説明するための側面図、図8および図9は、図3に示される3Dデータに係る操作者体型パターンの一例およびの別の一例を説明するための概念図、図10は、図3に示されるROM部の制御処理プログラムを説明するための図表、図11は、図3に示されるRAM部の表示状態情報を説明するための図表、図12は、図3に示されるディスプレイのメニュー画面を説明するための概念図、図13は、図3に示されるセンサーを説明するための概念図である。
シミュレーション装置100は、カメラ付き携帯電話やスマートフォンからなり、CPU110、ROM部120、RAM部130、タッチパネル140、ディスプレイ150、カメラ160、センサー170およびスピーカー180を有し、これらは、バス190を経由して相互に接続されている。
CPU110は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するマイクロプロセッサ等から構成される制御回路であり、シミュレーション装置100の各機能は、それに対応するプログラムをCPU110が実行することにより発揮される。
ROM部120は、例えば、不揮発性の半導体メモリーや、大容量の磁気ディスク装置を有しており、3D(dimensional)データ、コンテンツデータおよび制御処理プログラムが記憶されている。
3Dデータは、対象装置10の装置本体部(図4および図5参照)やオプション装置(図6および図7参照)の外形データ、操作者を模式的に表示するための外形データ(図8および図9参照)および実空間の設置場所90に位置する障害物を模式的に表示するための外形データを含んでいる。
コンテンツデータは、装置本体部およびオプション装置に係る仕様情報、再生データおよびマーカー画像情報を含んでいる。
仕様情報は、装置本体部およびオプション装置の筐体サイズ、色および重量、装置本体部とオプション装置との組み合わせの適否、外部の周辺装置に接続するためのコネクター情報、操作者の分類データ(操作者の体型パターンを表現する人体情報)を含んでいる。コネクター情報は、コネクターの設置位置と挿入方向、コネクターの規格、コネクターに接続される周辺装置の名称を含んでいる。
再生データは、装置動作に関わる音声データ、動画データおよび回転データを含んでいる。回転データは、対象装置を回転させて装置全体の外観を把握するための装置自転データである。マーカー画像情報は、実空間の設置場所90の背景映像からマーカーMの画像を分離する(切り出す)ための識別情報である。なお、筐体サイズは、3Dデータから算出することも可能である。
制御処理プログラムは、ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得し、指定された対象装置の設置位置を検出し、対象装置に装着されるオプション装置の装着状況に応じ、検出された設置位置において、オプション装置が装着された対象装置のARオブジェクトを生成し、映像およびARオブジェクトが含まれた合成画像を生成し、合成画像を表示するために使用され、図10に示されるように、タッチパネル入力処理、マーカー検出処理、ARオブジェクト画像作成処理およびARオブジェクト画像合成表示処理などを実行するプログラムからなり、CPU110により必要に応じて読み出され、RAM部130上で実行処理される。
したがって、操作者に表示される合成画像には、指定した設置位置に配置されかつオプション装置の装着状況に応じた対象装置の画像(対象装置の設置状況が適正か否かを事前検討するための有効な情報)が含まれており、対象装置を実際に設置した時に近い状態を視覚的に把握することが可能であり、対象装置の設置状況が適正か否かを事前検討する際において、計算ミスや考慮漏れ等によるトラブルを防ぐことが容易である。つまり、対象装置の購入後のトラブルを削減することが可能である。
なお、タッチパネル入力処理は、表示状態情報を更新するために実行される。マーカー検出処理は、対象装置10の設置位置(表示位置)と向き(方向)を算出するために実行される。ARオブジェクト画像作成処理は、3DデータをARオブジェクト画像に変換するために実行される。ARオブジェクト画像合成表示処理は、操作者に対してARシミュレーション結果を提示するために実行される。
RAM部130は、例えば、揮発性の半導体メモリーや、大容量の磁気ディスク装置を有しており、作業領域として一時的にプログラムおよびデータを記憶したり、背景映像、ARオブジェクト画像、表示状態情報を記憶するために使用される。
背景映像は、実空間の設置場所90をカメラ160によって撮影して得られた画像データである。ARオブジェクト画像は、装置本体部、オプション装置および障害物の3Dデータから変換された画像データである。表示状態情報は、操作者に対してARシミュレーション結果を提示する際に、障害物や付加情報を追加表示したり、指定されたデータを再生したりするために使用され、図11に示されるように、オプション装置選択モード、重ね合わせモード、操作者指定モード、サイズ表示モード、障害物モード、音声モード、動画モード、回転モード、重量表示モードおよびコネクター位置表示モードを含んでいる。
タッチパネル140は、文字入力、各種設定、スタート指示等の各種指示を操作者が行うために利用される入力手段であり、例えば、表示状態情報を入力(更新)するために使用される。なお、タッチパネル140を利用し、設置される対象装置10の位置を指定したり、設置される対象装置10を特定したりするための識別データを入力することも可能である。
ディスプレイ150は、本実施の形態においてはタッチパネル140と一体化されており、カメラ160の映像、ARシミュレーション結果、エラーの発生状況、現在変更可能な設定、合成画像(アノテーション))などを、操作者に提示するために使用される出力手段である。
ディスプレイ150は、表示状態情報を入力するための階層構造を有する画面を有する。例えば、図12に示される構成においては、操作者が、Menuボタンを押下すると、画面が更新され、表示状態情報の変更に関わる選択メニューが表示され、操作者によって表示状態を変更することが可能となる。表示状態情報の変更は、例えば、トグルやラジオボタンを利用することが可能である。
表示状態情報の変更において、メニュー表示を利用せず、画面をタッチすることで主要なモードに切り替わるように構成することも可能である。例えば、Menuボタン以外の場所をクリックする度に、サイズ表示モードを、「無し」→「筺体サイズ」→「設置サイズ」→「無し」の順に切り替わるように構成することもできる。
なお、設置サイズは、装置本体部の筺体サイズと、実際の操作に必要となる作業領域とを含んでいる。対象装置の筺体サイズは、装置本体部にオプション装置が装着される場合、オプション装置のサイズを含んでいる。
カメラ160は、例えば、RGBカメラからなり、実空間の設置場所90の背景映像を撮影するために使用される。背景映像は、マーカーMの画像抽出やARオブジェクト画像との合成のために使用される。マーカーMの画像は、そのサイズと傾きから、実空間の設置場所90におけるマーカーMとシミュレーション装置100(カメラ160)との間の距離とマーカーMの向き(方向)を算出するために使用される。なお、実空間上におけるマーカーMとシミュレーション装置100との距離を算出することなく、背景映像から得られるマーカーMの画像のサイズと傾きから直接的にAR上における対象装置10のサイズ、向きを算出することも可能である。
センサー170は、物体からの反射光が戻ってくるまでの時間に基づいて物体までの距離を算出する深度センサーからなり、図13に示されるように、障害物までの距離を測定するために使用される。測定光は、例えば、赤外線である。障害物は、例えば、壁92である。なお、本実施の形態において、カメラ160およびセンサー170は一体化されており、キネクト(Kinect)センサーから構成される。センサー170は、必要に応じて磁気センサーや超音波センサー等の3次元センサーを適用することも可能である。
なお、マーカーMの画像のサイズと傾きから算出さるマーカーMの位置を表す基準点Pは、障害物の測定点P〜Pや、実空間の設置場所90の背景映像と合成するために対象装置10等の3Dデータを座標変換する際に利用される。障害物の測定点P〜Pは、マーカーMの測定点Pに配置される対象装置10と障害物との干渉の有無を検出するために使用される。
障害物の干渉において、障害物は、背景映像の一部分を占める画像であり、対象装置100と干渉する(立体的なぶつかりがある)か否かを直接判定することはできない。そのため、距離が算出されている(位置が特定されている)マーカーMの基準点P上に対象装置10を配置した際に、センサー170から最も遠い距離に配置されることとなる対象装置10のパーツの位置を、背景基準距離とする。次に、センサー170が実空間の設置場所90をスキャンすることによって、背景映像中の複数の測定点P〜Pとセンサー170(カメラ160)との間の距離が検出され、これらの距離データを統合することにより障害物の3Dデータが取得される。
障害物の3Dデータは、マーカーMに配置された対象装置10の3Dデータと、立体的に比較可能である。つまり、障害物のARオブジェクトが、設置サイズ領域の内部に位置しており、対象装置10の設置サイズと重なっている場合(測定点Pの場合)、障害物と干渉すると判別し、設置サイズ領域の外部に位置しており、対象装置10の設置サイズと重なっていない場合(測定点Pおよび測定点Pの場合)、障害物と干渉しないと判別することが可能である。
なお、測定点の数は、特に限定されず、例えば、センサー170の性能によって適宜設定される。また、干渉の有無は、筺体サイズに基づくことも可能である。また、実空間の設置場所90の3Dデータは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるステレオカメラを利用して取得することも可能である。
スピーカー180は、表示状態情報の音声モードで指定された音声や、動画モードで指定された動画に含まれる音声を再生するために使用される。
次に、表示状態情報の各モードを順次詳述する。
図14および図15は、図11に示されるオプション装置選択モードのオプション装置の指定の一例および別の一例を説明するための概念図、図16は、図11に示されるオプション装置選択モードの本体カラーを説明するための概念図である。
オプション装置選択モードは、装着可能なオプション装置の一覧および切り替え可能な装置本体部の色(本体カラー)の一覧を有し、オプション装置を指定(装着の有無)したり、装置本体部の色(本体カラー)を切り替えるために使用される。例えば、オプション装置は、フィニッシャーやADF(Auto Document Feeder)であり、本体カラーは、白、黒、グレイである。
例えば、オプション装置を指定すると、図14および図15に示されるように、装置本体部にオプション装置が取り付けられた対象装置の3Dデータが生成される。また、本体カラーを切り替える場合、例えば、黒を選択すると、図4に示される白色のプリンターは、図16に示される黒色のプリンターに変更される。
オプション装置を選択した場合、対象装置の外形の位置データ(マーカーMからの相対距離データ)は、マーカーMの位置データを基準に自動的に再計算される。つまり、オプション装置の選択(装着)状態にしたがって、対象装置の位置を代表する基準点とマーカーMとの間の相対距離が変更される。なお、対象装置の位置を代表する基準点の選定は、特に限定されず、例えば、対象装置の内部中心点や重心点、対象装置の底面のコーナー部等を利用することが可能である。また、装置本体部の位置データを変更せず、オプション装置の位置データを、装置本体部の位置データを基準とした差分データによって特定することもできる。
図17および図18は、図11に示される重ね合わせモードの「重ね合わせ」および「透過」を説明するための概念図である。
重ね合わせモードにおいては、「単一」、「重ね合わせ」および「透過」を選択可能である。「単一」は、同時に設置できない(すなわち、択一的な、或いは排他的な)オプション装置はひとつのみ表示させたい場合に指定される。「重ね合わせ」および「透過」は、排他設置される複数のオプション装置を同時に表示させたい場合に使用される。なお、「重ね合わせ」においては、図17に示されるように、表示サイズが大きなオプション装置が背景のレイヤから順に表示され、「透過」においては、図18に示されるように、重ね合わさったオプション装置が任意の透過率で表示される。なお、重ね合わさったオプション装置は、それぞれ識別しやすいように、色調を変えて表示することも可能である。
図19は、図11に示される操作者指定モードの「子供」および「男性」を説明するための概念図である。
操作者指定モードは、操作者のARオブジェクト画像における操作者タイプおよび付加的な特徴を指定するために使用される。操作者タイプは、「無し」、「子供」、「女性」および「男性」であり、付加的な特徴は、「体型」である。「無し」は、操作者のARオブジェクト画像を表示させたくない場合に指定される。「子供」、「女性」および「男性」のオブジェクトサイズは、それぞれ、身長130cm、身長160cmおよび身長170cmである。「体型」は、3つの種類(細、中、太)に分類され、ARオブジェクトのサイズを微調整したい場合に指定される。
例えば、「子供」が指定される場合、図19に示されるARオブジェクト画像が合成され、「男性」が指定される場合、図20に示されるARオブジェクト画像が合成される。「体型」に係るARオブジェクトは、独立して用意したり、指定されたARオブジェクトを変形したりすることで生成することが可能である。
図21および図22は、図11に示されるサイズ表示モードの筐体サイズおよび設置サイズを説明するための概念図である。
サイズ表示モードは、「無し」、「筐体サイズ」および「設置サイズ」が選択可能である。「無し」は、枠とサイズデータを表示させたくない場合に指定される。「筐体サイズ」は、図21に示されるように、現在表示するオプション構成の各サイズに合わせた枠とサイズデータを表示させたい場合に指定される。「設置サイズ」は、図22に示されるように、現在表示するオプション構成の設置サイズに合わせた枠とサイズデータを表示させたい場合に指定される。
設置サイズに含まれる実際の操作に必要となる作業領域は、操作者タイプおよび付加的な特徴、外部の周辺装置に接続するためのコネクターの配置位置および電源に接続するためのコネクターの配置位置を考慮して算出されが、周囲の障害物の有無や、動作シミュレーション中の紙の排紙状態等に基づいて動的に算出したり、固定的なサイズの加算によって算出したりすることも可能である。
図23は、図11に示される障害物モードに係る障害物の一例を説明するための概念図、図24は、図11に示される障害物モードに係る障害物の検出を説明するための概念図、図25は、図11に示される障害物モード(干渉警報)を説明するための概念図である。
障害物モードは、実空間の設置場所90に存在する障害物を考慮するために使用され、「無し」、「表示のみ」および「干渉警報」が選択可能である。障害物は、例えば、図23に示される壁92や本棚94である。「無し」は、周辺の障害物の検出および表示を実行させたくない場合に指定される。「表示のみ」は、周辺の障害物の検出のみを実行させたい場合に指定され、例えば、図24に示されるように障害物のオブジェクトが表示される。「干渉警報」は、周辺の障害物の検出および干渉の検出を実行させたい場合に指定され、図25に示されるように、障害物とのぶつかり状態を示している映像および警告メッセージが表示される。警告メッセージは、障害物とのぶつかりを注意喚起する干渉情報である。
干渉の発生は、対象装置と障害物との接触(設置サイズが占める領域と周辺の障害物が占める領域とに重なりが生じること)を検出することにより、判別される。また、警告は、文字によって構成する形態に限定されず、音声、光(色)、対象装置と障害物とが接触する部分の強調表示によって構成したり、これらを適宜組み合わせたりすることも可能である。
図26は、図11に示される音声モード、動画モードおよび回転モードを説明するための概念図である。
音声モード、動画モードおよび回転モードは、例えば、図26に示されるように、コンテンツデータが含まれる再生データを利用した動作表示のために使用される。
音声モードは、予め用意されている音声データ(音声No.1〜3)を指定するために使用される。音声データは、例えば、動作音であり、指定された音声が再生される。動画モードは、予め用意されている動画データ(動画No.1〜3)を指定するために使用される。動画データは、例えば、印刷開始に伴って紙が排出される様子の動画であり、指定された動画が再生される。回転モードは、対象装置を回転させて、装置全体の外観を把握するために使用され、装置自転データが再生される。
図27は、図11に示される重量表示モードを説明するための概念図である。
重量表示モードは、「有り」および「無し」が選択可能である。「無し」は、図21に示されるように、重量を表示させたくない場合に指定される。「有り」は、図27に示されるように、現在表示されている装置本体部とオプション装置の総重量を表示させたい場合に指定される。なお、装置本体部の重量とオプション装置の重量とを独立して表示することも可能である。
図28は、図11に示されるコネクター位置表示モードを説明するための概念図である。
コネクター位置表示モードは、「有り」および「無し」が選択可能である。「有り」は、図25に示されるように、外部の周辺装置に接続するためのコネクターの設置位置データと挿入方向、コネクターの規格、周辺装置の名称を表示させたい場合に指定される。例えば、コネクターの規格は、USB(Universal Serial Bus)であり、周辺装置の名称は、電源である。なお、コネクターの挿入方向、コネクターの規格および周辺装置の名称は、例えば、バルーン表示することも可能である。
次に、制御処理プログラムを詳述する。
図29は、図3に示される制御処理プログラムのアルゴリズムを説明するためのフローチャートである。
まず、タッチパネル操作(タッチパネルを利用した操作指示)の有無を検出するため、入力スキャンが実行され(ステップS01)、タッチパネル操作の有無が判別される(ステップS02)。タッチパネル操作が検出されない場合(ステップS02:No)、実行シーケンスは、ステップS05に進む。タッチパネル操作が検出された場合(ステップS02:Yes)、タッチパネル入力処理が実行される(ステップS03)。そして、制御処理の終了の有無が判別される(ステップS04)。
制御処理は終了したと判別される場合(ステップS04:Yes)、制御処理プログラムの実行は終了する。制御処理が終了しないと判別される場合(ステップS04:No)、実行シーケンスは、ステップS05に進む。
ステップS05においては、カメラからの背景映像がRAM部の背景映像部に取り込まれ(記憶され)、その後、マーカー検出処理が実行される(ステップS06)。次に、マーカー検出処理においてマーカーが検出されたか否かが判別される(ステップS07)。
マーカーが検出されなかったと判別される場合(ステップS07:No)、実行シーケンスは、ステップS01にリターンする。マーカーが検出されたと判別される場合(ステップS07:YeS)、ARオブジェクト画像作成処理およびARオブジェクト画像合成表示処理が実行され(ステップS08およびS09)、実行シーケンスは、ステップS01にリターンする。
次に、タッチパネル入力処理を詳述する。
図30は、図29に示されるステップS03のタッチパネル入力処理のアルゴリズムを説明するためのフローチャートである。
まず、ディスプレイ150に表示されるMenuボタンの押圧の有無が、タッチパネル140を利用して検出される(ステップS11)。Menuボタンの押圧が検出されない場合(ステップS11:No)、実行シーケンスは、ステップS15に進む。
Menuボタンの押圧が検出された場合(ステップS11:Yes)、表示状態情報を入力するための画面(図12参照)がディスプレイ150に表示される(ステップS12)。
ディスプレイ150に表示されたモードの指定項目(図11参照)の押圧の有無(設定の変更)が、タッチパネル140を利用して検出される(ステップS13)。モードの指定項目の押圧が検出されない場合(ステップS13:No)、実行シーケンスは、ステップS15に進む。
モードの指定項目が押圧され、設定の変更が検出された場合(ステップS13:Yes)、設定の変更に応じて表示状態情報が更新され(ステップS14)、実行シーケンスは、ステップS15に進む。
ステップS15においては、タッチパネル入力処理の終了の有無が判別される。タッチパネル入力処理は終了ではないと判別される場合(ステップS15:No)、実行シーケンスは、ステップS11にリターンする。タッチパネル入力処理は終了であると判別される場合(ステップS15:Yes)、処理を終了するための一連の処理が実行され(ステップS16)、タッチパネル入力処理は終了する。
次に、マーカー検出処理を詳述する。
図31は、図29に示されるステップS06のマーカー検出処理のアルゴリズムを説明するためのフローチャートである。
まず、RAM部130の背景映像部に取り込まれた背景映像から、ROM部120のコンテンツデータに含まれるマーカー画像情報を抽出する処理が実行され(ステップS21)、マーカー画像情報が抽出(マーカーが検出)できたか否かが判別される(ステップS22)。
マーカー画像情報が抽出できなかったと判別される場合(ステップS22:No)、マーカー検出処理は終了する。マーカー画像情報が抽出できた場合(ステップS22:Yes)、マーカー画像情報に含まれる装置識別情報により対象装置が特定され、また、マーカー画像情報に含まれるマーカーの角度と大きさからマーカーとセンサー(カメラ)との間の距離および方向が算出され、これに基づき、対象装置の表示位置と向きが得られ(ステップS23)、マーカー検出処理は終了する。
次に、ARオブジェクト画像作成処理を詳述する。
図32は、図29に示されるステップS08のARオブジェクト画像作成処理のアルゴリズムを説明するためのフローチャートである。
まず、最新の表示状態情報が、RAM部から取得され(ステップS31)、装置本体部の外形に対応する3Dデータに加えて、表示状態情報に含まれるオプション装置選択モードおよび操作者指定モードの設定に対応する3Dデータが、ROM部から取得される(ステップS32)。
次に、障害物モードにおいて「無し」が指定されているか否かが判別される(ステップS33)。「無し」が指定されていると判別される場合(ステップS33:Yes)、実行シーケンスは、ステップS36に進む。
「無し」が指定されていないと判別される場合(ステップS33:No)、センサーのスキャン結果に基づき、障害物の位置情報が取得され(ステップS34)、当該位置情報から障害物の3Dデータが生成され(ステップS35)、実行シーケンスは、ステップS36に進む。
ステップS36においては、ROM部から取得された3Dデータおよび障害物の3Dデータは、マーカーMの基準点Pの位置データや基準点Pまでの距離等に基づき、外形画像データからなるARオブジェクト画像に適切に変換され、ARオブジェクト画像作成処理は終了する。
例えば、オプション装置選択モードにおいて「オプション装置」が設定されていれば、図14あるいは図15に示されるARオブジェクト画像が作成され、重ね合わせモードにおいて「重ね合わせ」が設定されていれば、図17に示されるARオブジェクト画像が作成され、「透過」が設定されていれば、図18に示されるARオブジェクト画像が作成され、操作者指定モードにおいて「子供」が設定されていれば、図19に示されるARオブジェクト画像が作成され、「男性」が設定されていれば、図20に示されるARオブジェクト画像が作成され、障害物モードにおいて「表示のみ」あるいは「干渉警報」が設定されていれば、図24に示されるARオブジェクト画像が作成されることになる。
次に、ARオブジェクト画像合成表示処理を詳述する。
図33は、図29に示されるステップS09のARオブジェクト画像合成表示処理のアルゴリズムを説明するためのフローチャートである。
まず、ARオブジェクト画像と、RAM部の背景映像部に記憶されている背景映像とが合成(オーバーレイ)される(ステップS41)。この際、表示状態情報に含まれる障害物モードが「無し」の場合、障害物の3Dデータから生成されたARオブジェクト画像は合成されない。
次に、付加情報の有無が判別される(ステップS42)。付加情報は、例えば、表示状態情報に含まれるサイズ表示モード、重量表示モード、コネクター位置表示モードおよび障害物モードの設定に応じた画像データである。
最新の表示状態情報に基づき、付加情報が無いと判別される場合(ステップS42:No)、実行シーケンスは、ステップS44に進む。付加情報が有ると判別される場合(ステップS42:Yes)、合成された画像に付加情報がさらに追加合成され、合成画像がディスプレイ150に表示され(ステップS43)、実行シーケンスは、ステップS44に進む。
例えば、サイズ表示モードにおいて「筐体サイズ」が設定されていれば、図21に示される付加情報が追加合成され、「設置サイズ」が設定されていれば、図21に示される付加情報が追加合成され、重量表示モードに「有り」が設定されていれば、図27に示される付加情報が追加合成され、コネクター位置表示モードに「有り」が設定されていれば、図28に示される付加情報が追加合成され、障害物モードにおいて「干渉警報」が設定されていれば、図25に示される付加情報(警告メッセージ)が追加合成されることになる。
ステップS44においては、再生データの有無が判別される(ステップS44)。最新の表示状態情報(音声モード、動画モードおよび回転モード)に基づき、再生データが無いと判別される場合(ステップS44:No)、ARオブジェクト画像合成表示処理は終了する。
再生データが有ると判別される場合(ステップS44:Yes)、音声モード、動画モードおよび回転モードの設定に応じて、音声の再生、動画の開始、また、対象装置の自転が実行され(ステップS45)(図26参照)、ARオブジェクト画像合成表示処理は終了する。
なお、付加情報は、ARオブジェクト画像および背景映像と一緒(同時)に合成することも可能である。また、ディスプレイが3D表示に対応している場合、合成画像を、適当な3Dフォーマットで生成し、立体視可能に構成することも可能である。さらに、合成画像は、印刷して操作者に提示することも可能である。
以上のように、本実施の形態においては、操作者に表示される合成画像には、指定した設置位置に配置されかつオプション装置の装着状況に応じた対象装置の画像(対象装置の設置状況が適正か否かを事前検討するための有効な情報)が含まれており、対象装置を実際に設置した時に近い状態を視覚的に把握することが可能であり、対象装置の設置状況が適正か否かを事前検討する際において、計算ミスや考慮漏れ等によるトラブルを防ぐことが容易である。したがって、対象装置の購入後のトラブルを削減することが可能である。
本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲で種々改変することができる。例えば、対象装置は、プリンター専用機やMFPに限定されない。また、シミュレーション装置は、カメラ付きタブレットや、拡張現実と実空間(外部)の景色を合成して表示するゴーグルタイプ(メガネ型)の表示装置(例えば、ヘッドマウントディスプレイ)によって構成することも可能である。なお、ゴーグルタイプの表示装置の場合、タッチパネルからの操作の代わりに、例えば、外部ボタン等の入力手段を有することが必要である。
10 対象装置(商品)、
90 設置場所、
92 壁、
94 本棚
100 シミュレーション装置、
110 CPU、
120 ROM部、
130 RAM部、
140 タッチパネル、
150 ディスプレイ、
160 カメラ、
170 センサー、
180 スピーカー、
190 バス、
M マーカー、
P1 基準点、
P2〜4 測定点。

Claims (13)

  1. シミュレーション装置の制御プログラムであって、
    ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得手順と、
    指定された前記対象装置の設置位置を検出する設置位置検出手順と、
    前記実空間の設置場所をスキャンすることによって、前記実空間の設置場所に位置する障害物の3Dデータを取得する障害物3Dデータ取得手順と、
    前記対象装置と前記障害物との干渉を検出する干渉検出手順と、
    前記障害物の3Dデータ、および、前記対象装置に装着されるオプション装置の装着状況に応じ、検出された前記設置位置において、前記オプション装置が装着された前記対象装置の3Dデータから各々のARオブジェクトを生成するARオブジェクト生成手順と、
    前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手順と、
    前記映像、前記オプション装置が装着された前記対象装置の前記ARオブジェクト、および前記付加情報が含まれた合成画像を生成する画像合成手順と、
    前記合成画像を表示する表示手順と、
    を有する処理を、前記シミュレーション装置に実行させ、
    前記設置状況は、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズであり、
    前記障害物の3Dデータは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータと立体的に比較可能に構成され、
    前記干渉検出手順においては、前記障害物の前記ARオブジェクトと、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、前記対象装置と前記障害物との干渉が検出され、
    前記付加情報は、前記干渉を注意喚起する警告情報を含んでいる
    ことを特徴とする制御プログラム。
  2. 前記ARオブジェクト生成手順において、複数の前記オプション装置が重ね合わせた状態あるいは透過した状態で、前記ARオブジェクトが生成されることを特徴とする請求項1に記載の制御プログラム。
  3. 前記処理は、予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生手順を、さらに有することを特徴とする請求項1又は請求項2に記載の制御プログラム。
  4. 前記設置サイズは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズに、実際の操作に必要となる作業領域を加えて算出されることを特徴とする請求項3のいずれか1項に記載の制御プログラム。
  5. 前記作業領域は、前記対象装置の操作者の体型を考慮して設定されることを特徴とする請求項に記載の制御プログラム。
  6. 前記作業領域は、外部の周辺装置に接続するためのコネクターを考慮して設定されることを特徴とする請求項に記載の制御プログラム。
  7. 前記付加情報は、前記コネクターの挿入方向、前記コネクターの規格、前記コネクターに接続される周辺装置の名称、あるいは、これらの組み合わせを、さらに含んでいることを特徴とする請求項に記載の制御プログラム。
  8. 前記警告情報は、前記干渉を指摘するメッセージを含んでいることを特徴とする請求項1〜7のいずれか1項に記載の制御プログラム。
  9. 前記の設置位置検出手順において、前記対象装置の設置位置は、前記実空間における設置場所に配置されているマーカーに基づいて検出されることを特徴とする請求項1〜のいずれか1項に記載の制御プログラム。
  10. ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得する背景映像取得ステップと、
    指定された前記対象装置の設置位置を検出する設置位置検出ステップと、
    前記実空間の設置場所をスキャンすることによって、前記実空間の設置場所に位置する障害物の3Dデータを取得する障害物3Dデータ取得ステップと、
    前記対象装置と前記障害物との干渉を検出する干渉検出ステップと、
    前記障害物の3Dデータ、および、前記対象装置に装着されるオプション装置の装着状況に応じ、検出された前記設置位置において、前記オプション装置が装着された前記対象装置の3Dデータから各々のARオブジェクトを生成するARオブジェクト生成ステップと、
    前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成ステップと、
    前記映像、前記オプション装置が装着された前記対象装置の前記ARオブジェクト、および前記付加情報が含まれた合成画像を生成する画像合成ステップと、
    前記合成画像を表示する表示ステップと、を有し、
    前記設置状況は、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズであり、
    前記障害物の3Dデータは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータと立体的に比較可能に構成され、
    前記干渉検出ステップにおいては、前記障害物の前記ARオブジェクトと、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、前記対象装置と前記障害物との干渉が検出され、
    前記付加情報は、前記干渉を注意喚起する警告情報を含んでいる
    ことを特徴とするシミュレーション方法。
  11. 予め用意されている音声データ、動画データあるいは装置自転データを再生するデータ再生ステップを、さらに有することを特徴とする請求項10に記載のシミュレーション方法。
  12. ARシミュレーションの対象装置が配置される実空間の設置場所の映像を取得するための背景映像取得部と、
    指定された前記対象装置の設置位置を検出するための設置位置検出手段と、
    前記実空間の設置場所をスキャンすることによって、前記実空間の設置場所に位置する障害物の3Dデータを取得する障害物3Dデータ取得手段と、
    前記対象装置と前記障害物との干渉を検出する干渉検出手段と、
    前記障害物の3Dデータ、および、前記対象装置に装着されるオプション装置の装着状況に応じ、検出された前記設置位置において、前記オプション装置が装着された前記対象装置の3Dデータから各々のARオブジェクトを生成するためのARオブジェクト生成手段と、
    前記対象装置の設置状況が適正か否かを判断するための付加情報を生成する付加情報生成手段と、
    前記映像、前記オプション装置が装着された前記対象装置の前記ARオブジェクト、および前記付加情報が含まれた合成画像を生成するための画像合成手段と、
    前記合成画像を表示するための表示部と、を有し、
    前記設置状況は、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズであり、
    前記障害物の3Dデータは、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータと立体的に比較可能に構成され、
    前記干渉検出手段は、前記障害物の前記ARオブジェクトと、前記オプション装置のサイズを含んでいる前記対象装置の筐体サイズ又は設置サイズの3Dデータから変換されたARオブジェクトと、の重なりに基づいて、前記対象装置と前記障害物との干渉を検出し、
    前記付加情報は、前記干渉を注意喚起する警告情報を含んでいる
    ことを特徴とするシミュレーション装置。
  13. 予め用意されている音声データ、動画データあるいは装置自転データを再生するためのデータ再生手段を、さらに有することを特徴とする請求項12に記載のシミュレーション装置。
JP2011248896A 2011-11-14 2011-11-14 シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム Active JP5831150B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011248896A JP5831150B2 (ja) 2011-11-14 2011-11-14 シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011248896A JP5831150B2 (ja) 2011-11-14 2011-11-14 シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム

Publications (2)

Publication Number Publication Date
JP2013105329A JP2013105329A (ja) 2013-05-30
JP5831150B2 true JP5831150B2 (ja) 2015-12-09

Family

ID=48624816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011248896A Active JP5831150B2 (ja) 2011-11-14 2011-11-14 シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム

Country Status (1)

Country Link
JP (1) JP5831150B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4032776B2 (ja) * 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2006244329A (ja) * 2005-03-07 2006-09-14 Hitachi Ltd 携帯端末および情報処理装置、システム
JP2007034906A (ja) * 2005-07-29 2007-02-08 Ricoh Co Ltd 合成動画映像作成システム及び合成動画映像作成方法
JP4856183B2 (ja) * 2006-07-25 2012-01-18 富士通株式会社 操作性検証装置、操作性検証方法、および操作性検証プログラム
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP2010146285A (ja) * 2008-12-18 2010-07-01 Canon Inc 画像処理システム及び画像処理方法

Also Published As

Publication number Publication date
JP2013105329A (ja) 2013-05-30

Similar Documents

Publication Publication Date Title
EP3570149B1 (en) Augmented reality system and method for displaying an item image in a contextual environment
JP5777786B1 (ja) 情報処理装置、情報処理方法、プログラム
JP6674192B2 (ja) 画像処理装置と画像処理方法
JPWO2014128760A1 (ja) 表示装置、表示方法、表示プログラムおよび位置設定システム
JP6354653B2 (ja) 拡張現実操作システムおよび拡張現実操作プログラム
JP5598232B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
KR20120033246A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2012510102A5 (ja)
JP4783456B2 (ja) 映像再生装置及び映像再生方法
JP5922067B2 (ja) 画像形成システム
JP5831151B2 (ja) 制御処理プログラム、画像表示装置、および画像表示方法
JP2010102508A (ja) 入力装置
JP5349224B2 (ja) 画像処理装置及び画像処理方法
JP2021052289A (ja) 画像処理方法、プログラム、画像処理装置および画像処理システム
JP6662264B2 (ja) 表示システム
US10964045B2 (en) Information processing device, information processing method, and individual imaging device for measurement of a size of a subject
JP2012124839A (ja) 画像監視装置
JP5831149B2 (ja) シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム
JP5831150B2 (ja) シミュレーション方法、シミュレーション装置およびシミュレーション装置の制御プログラム
JP2022131777A5 (ja)
JP2007264006A (ja) 画像観賞システム、画像表示装置、電子式写真立て、データハンドリング装置、画像表示方法、データハンドリング方法、画像表示プログラムおよびデータハンドリングプログラム
JP2012003598A (ja) 拡張現実感表示システム
JP2010272078A (ja) 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法
JP6772505B2 (ja) プログラム及び端末装置
CN107580157A (zh) 图像处理装置、图像处理方法以及程序

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151012

R150 Certificate of patent or registration of utility model

Ref document number: 5831150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150