JP2017033154A - 拡張現実システム、および拡張現実方法 - Google Patents

拡張現実システム、および拡張現実方法 Download PDF

Info

Publication number
JP2017033154A
JP2017033154A JP2015150651A JP2015150651A JP2017033154A JP 2017033154 A JP2017033154 A JP 2017033154A JP 2015150651 A JP2015150651 A JP 2015150651A JP 2015150651 A JP2015150651 A JP 2015150651A JP 2017033154 A JP2017033154 A JP 2017033154A
Authority
JP
Japan
Prior art keywords
data
augmented reality
photographer terminal
instruction
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015150651A
Other languages
English (en)
Other versions
JP6077068B1 (ja
Inventor
俊二 菅谷
Shunji Sugaya
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2015150651A priority Critical patent/JP6077068B1/ja
Priority to US15/157,541 priority patent/US9805515B2/en
Application granted granted Critical
Publication of JP6077068B1 publication Critical patent/JP6077068B1/ja
Publication of JP2017033154A publication Critical patent/JP2017033154A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Abstract

【課題】撮影した位置からの拡張現実表示を行うだけではなく、表示した3次元データに対して次に確認したい位置を指定し、どの位置から撮影を行えばよいかを提示する。
【解決手段】撮影を行うと拡張現実を表示する撮影者端末1000と位置対応データベース2410を備える拡張現実サーバ2000とからなる拡張現実システムであって、撮影者端末1000で、撮影時の位置情報と方向を検出して拡張現実サーバ2000に送信し、拡張現実サーバ2000から該当の建物の3次元データを受信してそれを表示した後、更にその表示したデータに対して拡張現実を行いたい所定の位置の指示を受け付け、それに基づいて拡張現実サーバ2000が算出したカメラ位置と方向に関するディレクションデータを撮影者端末1000に出力する。
【選択図】図1

Description

本発明は、建設予定地の撮影を行うと建物が完成した状態を3次元データで表示する拡張現実で、その3次元データに対してユーザが確認したい位置を入力することで、現実世界でどのような位置と向きで撮影を行えばよいかを示すディレクションデータをユーザに提示する拡張現実システムに関する。
近年、人が知覚する現実環境をコンピュータにより拡張する技術である、拡張現実(AR:Augmented Reality)の普及がみられる。コンピュータが現実を拡張する手段としては、視覚・聴覚・触覚などさまざまなものがあるが、ナビゲーションシステムや場所や物の説明を文字や音声で行うサービス等が実現されている。
また、この拡張現実の手法を建築分野に活かして、未だ建物が建築されていない建築予定場所に建物が完成した後の状態を表示する拡張現実型建物シミュレーション装置が提案されている(特許文献1)。
特開2014−115957号
しかしながら、特許文献1の手法では、カメラを向けて撮影した方向からのみ、周辺風景と3次元の建物データを重ねあわせて表示する拡張現実が実現され、他の位置や角度からの建物の状態を見ることはできない。そのため、ユーザが具体的に、勝手口が見たい、トイレが見たい、この角度から建物を見たい、等の要望がある場合には、要望にあわせた場所で撮影を行う必要があるが、どの位置に立ってどのような向きで撮影を行えばよいのか、実際の場所を知ることは難しい。
また、特許文献1の手法では、建物の外観については拡張現実を表示することができるが、リビングの窓からみた風景がどのようになるのか知りたいというような、建物内部から外を見た場合の拡張現実には、対応することはできない。
本発明では、これらの課題に鑑み、撮影を行うと拡張現実を表示する撮影者端末と位置対応データベースを備える拡張現実サーバとからなる拡張現実システムであって、撮影者端末で、撮影時の位置情報と方向を検出して拡張現実サーバに送信し、拡張現実サーバから該当の建物の3次元データを受信してそれを表示した後、更にその表示したデータに対して拡張現実を行いたい所定の位置の指示を受け付け、指示に基づいて拡張現実サーバが算出したカメラ位置と方向に関するディレクションデータを撮影者端末に出力する拡張現実システム、及び拡張現実方法を提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、撮影を行うと拡張現実を表示する撮影者端末と、当該撮影者端末と通信可能に接続された拡張現実サーバと、からなる拡張現実システムであって、
前記撮影者端末は、
現在の位置情報と方向を検出し、位置データ及び方向データを生成する位置方向データ生成手段と、
前記生成した位置データ及び方向データを、前記拡張現実サーバに送信する位置方向データ送信手段と、
前記拡張現実サーバから3次元データを受信する3次元データ受信手段と、
前記3次元データを表示する3次元データ表示手段と、
表示した前記3次元データに対して、ユーザから、3次元データ内の位置と方向に関する指示データの入力を受付ける指示データ入力手段と、
入力を受け付けた前記指示データを、前記拡張現実サーバに送信する指示データ送信手段と、を備え、
前記拡張現実サーバは、
前記撮影者端末からの要求に応じて、前記3次元データを送信する3次元データ送信手段と、
前記撮影者端末から前記位置データ及び前記方向データを受信する位置方向データ受信手段と、
前記3次元データと、現実の位置を対応付けて記憶した位置対応データベースと、
前記撮影者端末から前記指示データを受信する指示データ受信手段と、
前記指示データと、前記位置対応データベースと、前記撮影者端末の位置データと、前記撮影者端末の方向データと、に基づいて、前記撮影者端末が指示する指示データの位置及び方向から、表示されるべき拡張現実のカメラ位置と方向に関するディレクションデータを送信するディレクションデータ送信手段と、
を備えることを特徴とする拡張現実システムを提供する。
第1の特徴に係る発明によれば、拡張現実システムは、撮影を行うと拡張現実を表示する撮影者端末と、当該撮影者端末と通信可能に接続された拡張現実サーバと、からなり、前記撮影者端末は、現在の位置情報と方向を検出し、位置データ及び方向データを生成する位置方向データ生成手段と、前記生成した位置データ及び方向データを、前記拡張現実サーバに送信する位置方向データ送信手段と、前記拡張現実サーバから3次元データを受信する3次元データ受信手段と、前記3次元データを表示する3次元データ表示手段と、 表示した前記3次元データに対して、ユーザから、3次元データ内の位置と方向に関する指示データの入力を受付ける指示データ入力手段と、入力を受け付けた前記指示データを、前記拡張現実サーバに送信する指示データ送信手段と、を備え、前記拡張現実サーバは、前記撮影者端末からの要求に応じて、前記3次元データを送信する3次元データ送信手段と、前記撮影者端末から前記位置データ及び前記方向データを受信する位置方向データ受信手段と、前記3次元データと、現実の位置を対応付けて記憶した位置対応データベースと、前記撮影者端末から前記指示データを受信する指示データ受信手段と、前記指示データと、前記位置対応データベースと、前記撮影者端末の位置データと、前記撮影者端末の方向データと、に基づいて、前記撮影者端末が指示する指示データの位置及び方向から、表示されるべき拡張現実のカメラ位置と方向に関するディレクションデータを送信するディレクションデータ送信手段と、を備える。
第2の特徴に係る発明は、前記撮影者端末は、前記ディレクションデータ送信手段が送信したディレクションデータを受信し、表示するディレクションデータ表示手段を備えることを特徴とする第1の特徴に係る発明である拡張現実システムを提供する。
第2の特徴に係る発明によれば、第1の特徴に係る発明である拡張現実システムは、前記ディレクションデータ送信手段が送信したディレクションデータを受信し、表示するディレクションデータ表示手段を備える。
第3の特徴に係る発明は、撮影を行うと拡張現実を表示する撮影者端末と、当該撮影者端末と通信可能に接続された拡張現実サーバと、からなるシステムが実行する方法であって、
前記撮影者端末は、
現在の位置情報と方向を検出し、位置データ及び方向データを生成するステップと、
前記生成した位置データ及び方向データを、前記拡張現実サーバに送信するステップと、
前記拡張現実サーバから3次元データを受信するステップと、
前記3次元データを表示するステップと、
表示した前記3次元データに対して、ユーザから、3次元データ内の位置と方向に関する指示データの入力を受付けるステップと、
入力を受け付けた前記指示データを、前記拡張現実サーバに送信するステップと、を備え、
前記3次元データと、現実の位置を対応付けて記憶した位置対応データベースを備える前記拡張現実サーバは、
前記撮影者端末からの要求に応じて、前記3次元データを送信するステップと、
前記撮影者端末から前記位置データ及び前記方向データを受信するステップと、
前記撮影者端末から前記指示データを受信するステップと、
前記指示データと、前記位置対応データベースと、前記撮影者端末の位置データと、前記撮影者端末の方向データと、に基づいて、前記撮影者端末が指示する指示データの位置及び方向から、表示されるべき拡張現実のカメラ位置と方向に関するディレクションデータを送信するステップと、を備えることを特徴とする拡張現実システムを提供する。
本発明によれば、撮影を行うと拡張現実を表示する撮影者端末と位置対応データベースを備える拡張現実サーバとからなる拡張現実システムであって、撮影者端末で、撮影時の位置情報と方向を検出して拡張現実サーバに送信し、拡張現実サーバから該当の建物の3次元データを受信してそれを表示した後、更にその表示したデータに対して拡張現実を行いたい所定の位置の指示を受け付け、指示に基づいて拡張現実サーバが算出しカメラ位置と方向に関するディレクションデータを撮影者端末に出力する拡張現実システム、及び拡張現実方法を提供することが可能となる。
図1は、本発明の好適な実施形態である拡張現実システムの概要図である。 図2は、撮影者端末1000と拡張現実サーバ2000の機能ブロックと各機能の関係を示す図である。 図3は、撮影者端末1000と拡張現実サーバ2000からなるシステムでディレクションデータ出力を行う場合のフローチャート図である。 図4は、位置方向データの一例である。 図5は、位置対応データベース2410に保持するデータの一例である。 図6は、表示された3次元データに対して、位置と方向に関する指示を矢印で入力する画面の一例である。 図7は、表示された3次元データを回転、拡大、縮小して、位置と方向に関する指示を入力する画面の一例である。 図8は、表示された3次元データに対応する2次元データを使用して、位置と方向に関する指示データを入力する画面の一例である。 図9は、ディレクションデータの一例である。 図10は、ディレクションデータの別の一例である。 図11は、図6の指示に対するディレクションデータ表示画面の一例である。 図12は、図7の指示に対するディレクションデータ表示画面の一例である。 図13は、図8の指示に対するディレクションデータ表示画面の一例である。 図14は、指示に対する撮影が困難と思われる場合のディレクションデータ表示画面の一例である 図15は、ディレクションデータの出力後、撮影場所までのナビゲーションを行う場合のフローチャート図である。 図16は、ナビゲーションに従って撮影場所まで移動した場合の撮影者端末1000上の表示の一例である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
[拡張現実システムの概要]
図1は、本発明の好適な実施形態である拡張現実システムの概要図である。この図1に基づいて、拡張現実システムの概要を説明する。
撮影者端末1000は、図2に示すように入力部1100、出力部1200、撮影部1300、記憶部1400、通信部1500、制御部1600から構成される端末である。拡張現実サーバ2000は、記憶部2400、通信部2500、制御部2600から構成され、記憶部2400に位置対応データベース2410を備える。撮影者端末1000は、公衆通信網3000を介して拡張現実サーバ2000と接続されているものとする。
撮影者端末1000は、スマートフォンやタブレットPC、デジタルカメラ、ウェアラブルデバイス、防犯カメラ、またはカメラ機能を備えたPC等の一般的な情報家電であってよく、撮影者端末1000として図示しているスマートフォンはその一例にすぎない。
撮影部1300はカメラであり、この撮影部1300で撮影した画像をデジタルデータに変換して記憶部1400に保存し、出力部1200に表示することが可能であるとする。また、撮影画像は静止画像であっても動画像であってもよく、動画像の場合には、制御部1600の働きにより、動画像の一部を切り出して、静止画像として記憶部1400に保存することが可能であるとする。また、撮影して得られる画像は、拡張現実を行うために必要なだけの情報量を持った精密な画像であるものとする。
また、サーバ2000は、後述のディレクションデータ生成機能を備える、一般的なサーバであってよい。
はじめに、ユーザは、撮影者端末1000の撮影部1300を用いて、建物の建築予定場所を含む風景を撮影する(ステップS101)。この時、撮影者端末1000では、未だ建物が建築されていない建築予定場所に建物が完成した後の3次元データを表示するための拡張現実プログラムが実行されているものとする。プログラムの実行時、撮影者端末1000は、拡張現実サーバ2000と通信可能であるものとする。
制御部1600は、撮影時の撮影者端末1000の位置と方向を検出し、位置方向データを生成する。位置と方向の検出に関しては、撮影者端末1000のGPS(Global Positioning System)機能や、電子コンパス、加速度センサ等を使用して行う。
図4に、位置方向データの一例を示す。緯度、経度、向き、高度、等の、位置と方向に関するデータを、撮影日時と関連付けて生成する。ここでの緯度、経度、向き、高度、等のデータ形式は、GPSのログデータ規格に合わせてもよいし、デジタルスチルカメラ用画像ファイルフォーマット規格Exifにあわせてもよく、そのシステムに応じた形式とすればよい。図4では、仮に向きを真方位基準、高度を海抜基準としているが、本発明は特にこれにより限定されるものではなく、システムに適した基準を用いればよい。
図4には記載していないが、撮影者端末1000が、6軸センサ等を持ち、東西南北の向きだけではなく、水平方向に対する傾きも検出可能である場合には、そのデータも位置方向データに含めてもよい。傾きを含めることにより、建物を見上げる向きに撮影したい場合等に、より適したディレクションデータの生成を行うことが可能となる。
次に、撮影者端末1000は、制御部1600で生成した位置方向データを、通信部1500を介して拡張現実サーバ2000に送信する(ステップS103)。
また、撮影者端末1000は、拡張現実サーバ2000に対して3次元データを要求する(ステップS104)。
拡張現実サーバ2000は、3次元データの要求を受けると、受信した位置方向データを基に、記憶部2400の位置対応データベース2410を参照し、該当の建物の3次元データを撮影者端末1000に送信する(ステップS202)。
位置対応データベース2410には、建物の3次元データと現実の位置を対応して記憶する。図5は、位置対応データベース2410に保持するデータの一例である。建物の名称と、CADファイル等の図面データ、CADの種類、拡張現実を行うために必要な3次元データ、建物の建築予定地の緯度、経度、建物の正面の向き等をデータとして持つ。図5には記載していないが、高度を含めてもよい。
ここで、CADファイル等の図面データやCADの種類は、必ずしも必要なデータではなく、拡張現実を行うために必要な建物の3次元データがあればよい。
拡張現実サーバ2000が、受信した位置方向データを使用して、建物の3次元データを探索する場合に、該当の建物が見つからなかった場合には、その旨を撮影者端末1000に通知して、撮影者端末1000の出力部1200に、該当の建物がみつからないというエラー表示を行ってもよい。
または、拡張現実サーバ2000から、建物名称等のデータを撮影者端末1000に送信し、それを出力部1200に出力することで、ユーザに表示したい建物を選択させてもよい。
または、拡張現実サーバ2000から、モデルハウス等の、現実の位置データが登録されていない建物の3次元データや、その縮小版の3次元データ等を撮影者端末1000に送信し、それを出力部1200に出力することで、ユーザに表示したい建物を選択させてもよい。
ステップS202で、拡張サーバ2000から、該当の建物の3次元データを撮影者端末1000に送信する際に、3次元データだけではなく、拡張現実の表示を行うために、緯度、経度、建物の正面の向き等のデータが必要である場合には、あわせて送信することとする。
撮影者端末1000は、拡張現実サーバ2000から受け取った3次元データを、はじめに撮影した風景に拡張現実として重ね合わせて、出力部1200に表示する(ステップS106)。
3次元データを表示する際には、必要に応じて、3次元データと一緒に受け取った建物の緯度、経度、建物の正面の向き等のデータを使用する。また、一般的にマーカレスの拡張現実で実施する、背景の画像に対してコーナー点や局所特徴量をもとに特徴点の座標を計算する処理等を行い、適切な位置に建物の3次元データを拡張現実表示するよう調整を行ってもよい。また、撮影者端末1000の出力部1200に表示した後、ユーザが入力部1100を介して、表示位置の微調整を行えるようにしてもよく、本特許は、背景である風景と3次元データを重ね合わせて表示する拡張現実の手法により、限定されるものではない。
3次元データの表示後、ユーザが更に他の位置や角度から確認を行いたいと思った場合には、撮影者端末1000の出力部1200に表示した3次元データに対して、入力部1100を介して、見たい位置と方向の指示データ入力を行う(ステップS107)。
図1に示したステップS107の指示データ入力の図を拡大したものが図6である。図6では、ユーザが矢印を移動させたり向きを変えたりして、確認したい位置や角度を入力する例を示している。ここでは、3次元データの建物のみを表示しているが、背景と合成した拡張現実の表示のまま、指示を行えるようにしてもよい。
また、図7には、矢印で確認したい位置や角度を指定するのではなく、3次元データの建物自体を360度回転や拡大縮小させる例を示している。この場合、実際に建物がそのように見えるような位置や角度を指示データとする。
さらに、近年では、建物の内部のウォークスルーを行えるような、3次元データも存在する。建物の内部から外を見た場合に、リビングの窓からの風景がどのようになるか知りたいというユーザの要望も存在すると考えられる。その場合は、建物の窓部分に、風景を仮想現実として表示させればよい。3次元データの表示を、建物内部を見られるように切り替えて、そこで、確認したい位置や角度を指示できるようにしてもよい。
建物の内部のウォークスルー画面を操作して、次に確認したい位置や角度をユーザに指定させるのが難しい場合には、図8の例のように、3次元データに対応した間取り図等の2次元データの図面表示に切り替えて、ユーザに指定を行わせてもよい。このようにすることで、大きな窓を含めた視点等を、わかりやすく簡単に指示することが可能となる。
次に、撮影者端末1000は、入力された位置や角度の指示を、指示データとして拡張現実サーバ2000に送信する(ステップS108)。
指示データには、3次元データ上の位置や角度、または間取り図等の2次元図面上の位置や角度と、指示を行った日時を含むものとする。ただし、データ形式は問わず、サーバ2000で、ディレクションデータを生成するのに十分な情報を含むものとする。
指示データを受信した拡張現実サーバ2000では、ディレクションデータを生成し、生成したディレクションデータを撮影者端末1000に送信する(ステップS205)。
ここで、ディレクションデータとは、撮影者端末1000で撮影を行った現在位置から、指示データとして指定した次に撮影を行いたい位置までの距離を示すためのものとする。また、ディレクションデータに、撮影を行いたい方向を含めてもよい。
拡張現実サーバ2000でのディレクションデータの生成は、受信した指示データと、記憶部2400に保持する位置対応データベース2410のデータと、先に受信した撮影者端末1000の現在の位置方向データと、を使用して行う。指示データと、建物の3次元データや緯度、経度、建物の向き、高度等のデータを基に、ユーザが次に撮影を行いたい位置の緯度、経度、向き、高度等が算出可能である。
図9に、拡張現実サーバ2000から撮影者端末1000に送信するディレクションデータの一例を示す。この例では、ディレクションデータを生成した日時とあわせて、次に撮影を行いたい位置の緯度、経度、向き、高度を情報として含む。この場合には、撮影者端末1000側で、現在位置の位置方向データとディレクションデータとを比較して、現在位置から次に撮影を行いたい位置までの距離を示すことができる。
図10に、拡張現実サーバ2000から撮影者端末1000に送信するディレクションデータの別の一例を示す。この例では、ディレクションデータを生成した日時とあわせて、現在位置から次に撮影を行いたい位置までの、各方角に対する距離と、撮影を行いたい向き、高さ方向の差を情報として含む。この場合には、拡張現実サーバ2000側で、撮影者端末1000の現在位置の位置方向データと次に撮影を行いたい位置のデータを比較して距離や高さ方向の差を算出する。
最後に、撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離や、撮影を行う際のカメラの向きを示すディレクションデータの出力を行う(ステップS110)。
図11は、図6の指示データ入力に対するディレクションデータの出力例である。撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離とカメラの向きを示している。また、撮影方向の案内のため、あわせて方位磁針を表示している。
図12は、図7の指示データ入力に対するディレクションデータの出力例である。撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離とカメラの向きを示している。また、撮影方向の案内のため、あわせて方位磁針を表示している。
図13は、図8の指示データ入力に対するディレクションデータの出力例である。撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離とカメラの向きを示している。また、撮影方向の案内のため、あわせて方位磁針を表示している。
これらのディレクションデータの表示は、OKボタンの選択で、非表示とすることが可能である。また、撮影者端末1000が、撮影場所から移動した場合には、次に撮影を行いたい位置までの距離が変わるので、非表示としてもよい。これらの場合にも、方位磁針は表示し続けてもよい。
また、撮影場所から移動した場合や、ユーザが指定した場合に、次に撮影を行いたい位置までの案内を行うことで、ユーザビリティを向上させることができるので、案内のためのナビゲーションモードを設けてもよい。ナビゲーションモードについては、後述する。
[各機能の説明]
図2は、撮影者端末1000と拡張現実サーバ2000の機能ブロックと各機能の関係を示す図である。撮影者端末1000は、公衆通信網3000を介して拡張現実サーバ2000と接続されているものとする。
撮影者端末1000は、入力部1100、出力部1200、撮影部1300、記憶部1400、通信部1500、制御部1600から構成される端末である。また、撮影者端末1000は、スマートフォンやタブレットPC、デジタルカメラ、ウェアラブルデバイス、防犯カメラ、またはカメラ機能を備えたPC等の一般的な情報家電であってよく、撮影者端末1000として図示しているスマートフォンはその一例にすぎない。
撮影者端末1000は、位置方向データ生成のために必要な、GPS(Global Positioning System)機能や、電子コンパス、加速度センサ等を備えるものとする。また、GPS機能と併せて現在地や周辺地形の確認を行うための、地図機能も備えるものとする。
入力部1100は、前述した指示データを入力するための指示データ入力モジュール1110を実現するのに必要な機能を備えるものとする。例として、タッチパネル機能を実現する液晶ディスプレイ、キーボード、マウス、ペンタブレット、装置上のハードウェアボタン、音声認識を行うためのマイク等を備えることが可能である。入力方法により、本発明は特に機能を限定されるものではない。
出力部1200は、前述した3次元データを表示するための3次元データ表示モジュール1210と、前述したディレクションデータを出力するためのディレクションデータ出力モジュール1220を実現するのに必要な機能を備えるものとする。例として、液晶ディスプレイ、PCのディスプレイ、プロジェクタを用いた外部スクリーンへの投影等があげられる。また、ディレクションデータの出力に関しては、スピーカーによる音声出力など様々な形態をとることが可能である。出力方法により、本発明は特に機能を限定されるものではない。
撮影部1300にはカメラを備え、このカメラで撮影した画像をデジタルデータに変換して、記憶部1400に保存し、出力部1200に表示することが可能であるとする。また、撮影画像は静止画像であっても動画像であってもよく、動画像の場合には、制御部1600の働きにより、動画像の一部を切り出して、静止画像として記憶部1400に保存することが可能であるとする。また、撮影して得られる画像は、拡張現実を行うために必要なだけの情報量を持った精密な画像であるものとする。
記憶部1400として、ハードディスクや半導体メモリによる、データのストレージ部を備える。記憶部1400には、撮影部1400で撮影した画像を保存する他、生成した位置方向データ、拡張現実サーバ2000から受信した3次元データやディレクションデータ、入力部1100から入力された指示データ、その他データの生成に必要な情報等を保持できるものとする。
また、通信部1500は公衆通信網3000を介し拡張現実サーバ2000との通信を行うためのものである。3次元データ受信モジュール1510、位置方向データ送信モジュール1520、指示データ送信モジュール1530、ディレクションデータ受信モジュール1540等の、各送信受信モジュールを実現するために必要な機能を備えるものとする。
制御部1600として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部1600は記憶部1400と共同して、位置方向データ生成モジュール1610を実現する。
拡張現実サーバ2000は、記憶部2400、通信部2500、制御部2600から構成され、記憶部2400に位置対応データベース2410を備える一般的なサーバである。
記憶部2400には、ハードディスクや半導体メモリによる、データのストレージ部を備える。記憶部2400には、位置対応データベースを保持する他、撮影者端末から受信した位置方向データや指示データ、生成したディレクションデータ、その他の必要な情報等を保持できるものとする。
通信部2500は、公衆通信網3000を介し撮影者端末1000との通信を行うためのものである。3次元データ送信モジュール2510、位置方向データ受信モジュール2520、指示データ受信モジュール2530、ディレクションデータ送信モジュール2540等の、各送信受信モジュールを実現するために必要な機能を備えるものとする。
また、制御部2600として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部2600は記憶部2400と共同して、ディレクションデータ生成モジュール1610を実現する。
[ディレクションデータ出力処理]
図3は、撮影者端末1000と拡張現実サーバ2000からなるシステムでディレクションデータ出力を行う場合のフローチャート図である。上述した装置の各部とモジュールが行う処理について、本処理にて併せて説明する。
撮影者端末1000では、未だ建物が建築されていない建築予定場所に建物が完成した後の3次元データを表示するための拡張現実プログラムが実行されているものとする。プログラムの実行時、撮影者端末1000は、拡張現実サーバ2000と通信可能であるものとし、拡張現実サーバ2000との通信が行えない場合には、拡張現実サーバ2000との通信が確立できないため、拡張現実のプログラムを実行できない旨を出力部1200に出力する。
また、拡張現実プログラムの開始時に、撮影者端末1000は、拡張現実サーバ2000に対して、プログラム開始の通知を行っておくことが望ましい。
はじめに、ユーザは、撮影者端末1000の撮影部1300を用いて、建物の建築予定場所を含む風景を撮影する(ステップS101)。
次に、制御部1600の位置方向データ生成モジュール1610は、撮影時の撮影者端末1000の位置と方向を検出し、位置方向データを生成する(ステップS102)。位置と方向の検出に関しては、撮影者端末1000のGPS(Global Positioning System)機能や、電子コンパス、加速度センサ等を使用して行う。
次に、撮影者端末1000は、制御部1600で生成した位置方向データを、通信部1500の位置方向データ送信モジュール1520を介して、拡張現実サーバ2000に送信する(ステップS103)。
拡張現実サーバ2000は、通信部2500の位置方向データ受信モジュール2520を介して、位置方向データを受信する(ステップS201)。
また、撮影者端末1000は、拡張現実サーバ2000に対して3次元データの要求を行う(ステップS104)。
拡張現実サーバ2000は、3次元データの要求を受けると、ステップS201で受信した位置方向データを基に、記憶部2400の位置対応データベース2410を参照して、該当の建物の3次元データを検出する。そして、通信部2500の3次元データ送信モジュール2510を介して、該当の建物の3次元データを撮影者端末1000に送信する(ステップS202)。
ステップS202では、建物の3次元データだけではなく、撮影者端末1000で拡張現実の表示を行うために必要である場合には、緯度、経度、建物の正面の向き、高度、等のデータをあわせて送信することとする。
拡張現実サーバ2000が、該当の建物の3次元データを検出できなかった場合には、その旨を撮影者端末1000に通知して、撮影者端末1000の出力部1200に、該当の建物がみつからないというエラー表示を行ってもよい。
または、拡張現実サーバ2000から、位置対応データベース2410の建物名称等のデータを撮影者端末1000に送信し、出力部1200に出力することで、ユーザに表示したい建物を選択させてもよい。
または、拡張現実サーバ2000から、モデルハウス等の、現実の位置データが登録されていない建物の3次元データや、その縮小版の3次元データ等を撮影者端末1000に送信し、それを出力部1200に出力することで、ユーザに表示したい建物を選択させてもよい。
撮影者端末1000は、通信部1500の3次元データ受信モジュール1510を介して、拡張現実サーバ2000から3次元データを受信する(ステップS105)。
そして、受信した3次元データをステップS101で撮影した風景に拡張現実として重ね合わせて、3次元データ表示モジュール1210を介して、出力部1200に表示する(ステップS106)。
ステップS106で3次元データを表示する際には、必要に応じて、3次元データと一緒に受け取った建物の緯度、経度、建物の正面の向き、高度等のデータを使用する。
また、もしも、建物の緯度、経度、建物の正面の向き、高度等のデータが無い、またはデータが足りない場合等には、一般的にマーカレスの拡張現実で実施する、背景の画像に対してコーナー点や局所特徴量をもとに特徴点の座標を計算する処理等を行い、適切と思われる位置に建物の3次元データを拡張現実表示してもよい。
さらに、撮影者端末1000の出力部1200に3次元データを表示した後、ユーザが入力部1100を介して、表示位置の微調整を行えるようにしてもよい。このような手段により、GPS機能に誤差があった場合等にも、対応可能となる。
本特許は、背景である風景と3次元データを重ね合わせて表示する拡張現実の手法により、限定されるものではなく、適切な位置合わせを行う様々な手段を利用可能であるものとする。
3次元データの表示後、ユーザが満足した場合には、ここで拡張現実のプログラムを終了する。
ユーザが表示した3次元データを、更に他の位置や角度から確認するために、拡張現実の表示を行うための風景の撮影を行いたいと思った場合には、入力部1100の指示データ入力モジュール1110を介して、見たい位置と方向の指示データ入力を行う(ステップS107)。
図6は、表示された3次元データに対して、位置と方向に関する指示を矢印で入力する画面の一例である。ユーザは矢印を移動させたり、矢印の向きを変えたりして、次に拡張現実プログラムで確認したい位置や角度を入力する。図6には、3次元データの建物のみを表示しているが、背景と合成した拡張現実の表示のまま、指示を行えるようにしてもよい。位置と角度が決まったら、決定ボタンを選択し、キャンセルしたい場合にはキャンセルボタンを選択する。
図7は、表示された3次元データを回転、拡大、縮小して、位置と方向に関する指示を入力する画面の一例である。この場合、実際に見たい位置や角度になるよう、建物の3次元データを回転させたり、拡大、縮小させたりして調整する。図7では、建物を真正面の近距離から表示する例を図示している。実際に見たい建物の表示になったら決定ボタンを選択し、キャンセルしたい場合にはキャンセルボタンを選択する。
建物の内部から外を見た場合に、リビングの窓からの風景がどのようになるか知りたいというユーザの要望も存在すると考えられる。そのため、ここでは図示していないが、建物の内部から外を見た場合の指示データの入力も可能であるシステムとする。そのためには、建物の内部のウォークスルーを行えるような3次元データを、拡張現実サーバ2000の位置対応データベース2410に用意する。建物の内部から外を見る場合には、建物の窓部分に、風景を仮想現実として表示させればよい。
建物の内部から外を見る場合には、例えば図7の例から、建物内部の3次元データを見られる表示に切り替えて、建物内部のウォークスルーを行い、そこで、確認したい位置や角度を指示できるようにする。
図8は、表示された3次元データに対応する2次元データを使用して、位置と方向に関する指示データを入力する画面の一例である。建物の内部のウォークスルー画面を操作して、次に確認したい位置や角度をユーザに指定させるのが、システムの要件や、ユーザの操作性等から難しい場合には、図8のように、3次元データに対応した間取り図等の2次元データの図面表示に切り替えて、ユーザに指定を行わせてもよい。このようにすることで、大きな窓を含めた視点等を、わかりやすく簡単に指示することが可能となる。
次に撮影者端末1000は、通信部1500の指示データ送信モジュール1530を介して、入力された位置や角度の指示を、指示データとして拡張現実サーバ2000に送信する(ステップS108)。
指示データには、3次元データ上の位置や角度、または間取り図等の2次元図面上の位置や角度と、指示を行った日時を含むものとする。ただし、位置や角度に関するデータ形式は問わず、サーバ2000で、ディレクションデータを生成するのに十分な情報を含むものとする。
拡張現実サーバ2000は、通信部2500の指示データ受信モジュール2530を介して、指示データを受信する(ステップS203)。
拡張現実サーバ2000では制御部2600と記憶部2400が共同してディレクションデータ生成モジュール2610を実現し、ディレクションデータの生成を行う(ステップS204)。
ディレクションデータの生成は、受信した指示データと、記憶部2400に保持する位置対応データベース2410のデータと、先に受信した撮影者端末1000の現在の位置方向データと、を基に行う。指示データと、建物の3次元データや緯度、経度、建物の向きのデータを基に、ユーザが次に撮影を行いたい位置の緯度、経度、向き、高度等が算出可能である。
ここで、ディレクションデータとは、撮影者端末1000で撮影を行った現在位置から、指示データとして指定した次に撮影を行いたい位置までの距離を示すためのものとする。また、ディレクションデータに、撮影を行いたい方向を含めてもよい。
サーバ2000は、通信部2500のディレクションデータ送信モジュール2540を介して、生成したディレクションデータを撮影者端末1000に送信する(ステップS205)。
撮影者端末1000は、通信部1500のディレクションデータ受信モジュール1540を介して、ディレクションデータを受信する(ステップS109)。
最後に、撮影者端末1000の出力部1200はディレクションデータ出力モジュール1220を介して、次に撮影を行いたい位置までの距離や、撮影を行う際のカメラの向き、角度等を示すディレクションデータの出力を行う(ステップS110)。
図11は、図6の指示に対するディレクションデータ表示画面の一例である。撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離とカメラの向きを示している。また、撮影方向の案内のため、あわせて方位磁針を表示している。
図12は、図7の指示に対するディレクションデータ表示画面の一例である。撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離とカメラの向きを示している。また、撮影方向の案内のため、あわせて方位磁針を表示している。
図13は、図8の指示に対するディレクションデータ表示画面の一例である。撮影者端末1000の出力部1200に、次に撮影を行いたい位置までの距離とカメラの向きを示している。また、撮影方向の案内のため、あわせて方位磁針を表示している。
図11、図12、図13では記載していないが、撮影者端末1000が、東西南北の向きだけではなく、水平方向に対する傾きも検出可能である場合には、撮影者端末1000をどの程度傾けて撮影すればよいかも、あわせて表示することが可能である。
また、これらのディレクションデータの表示は、OKボタンの選択で、非表示とすることが可能である。また、撮影者端末1000が、撮影場所から移動した場合には、次に撮影を行いたい位置までの距離が変わるので、非表示としてもよい。これらの場合にも、方位磁針は表示し続けてもよい。
ディレクションデータの表示後、撮影場所から移動した場合や、ユーザが指定した場合に、次に撮影を行いたい位置までの案内を行うことで、ユーザビリティを向上させることができるので、案内のためのナビゲーションモードを設けてもよい。ナビゲーションモードについては、後述する。
図14は、指示に対する撮影が困難と思われる場合のディレクションデータ表示画面の一例である。例えば、建物からあまりに遠い位置を指示データとして指定した場合には、周辺の建物や地形の状況から、その地点に立っての撮影が不可能と思われる場合がある。その場合には、図14のように、撮影が困難であるいう出力を、撮影者端末1000の出力部1200で行うようにすることで、ユーザビリティを向上させることができる。
撮影が困難であるかどうかの判定は、撮影者端末1000で行っても、拡張現実サーバ2000で行ってもよく、GPSのデータや、周辺の地図データ、緯度、経度、高度、地形等、必要なデータを利用して行うものとする。
[位置方向データ]
図4は、位置方向データの一例である。撮影者端末1000は、位置方向データとして、緯度、経度、向き、高度、等の、位置と方向に関するデータを撮影日時と関連付けて生成する。
緯度、経度、向き、高度、等のデータ形式は、GPSのログデータ規格に合わせてもよいし、デジタルスチルカメラ用画像ファイルフォーマット規格Exifにあわせてもよく、そのシステムに応じた形式とすればよい。
図4では、仮に向きを真方位基準、高度を海抜基準としているが、本発明は特にこれにより限定されるものではない。向きを磁方位基準、高度を標高基準、等としてもよく、システムに適した基準を用いればよい。
また、図4には記載していないが、撮影者端末1000が、6軸センサ等を持ち、東西南北の向きだけではなく、水平方向に対する傾きも検出可能である場合には、傾きデータも位置方向データに含めてもよい。傾きを含めることにより、建物を見上げる向きに撮影したい場合等に、より適したディレクションデータの生成を行うことが可能となる。この場合には、指示データ、ディレクションデータにも、傾きデータを含めて良く、ユーザに対して水平方向に対する撮影角度の提示も可能となる。
[位置対応データベース]
図5は、位置対応データベース2410に保持するデータの一例である。位置対応データベース2410には、建物の3次元データと現実の位置を対応して記憶させるものとする。
データとしては、建物の名称、CADファイル等の図面データ、CADの種類、拡張現実を行うために必要な3次元データ、建物の建築予定地の緯度、経度、建物の正面の向き等を持つ。図5には記載していないが、高度を含めてもよい。
ここで使用するCADの種類は問わず、2次元CADであっても、別に3次元データを用意すればよい。また、CADファイル等の図面データやCADの種類は、必ずしも必要なデータではなく、拡張現実を行うために必要な建物の3次元データがあればよい。
モデルハウス等、建設予定地が具体的に決まっていない建物については、緯度、経度、建物の正面の向き、高度、等のデータはなくてもよい。このような3次元データ以外のデータが足りない場合には、撮影者端末に3次元データを表示する際に、背景画像との位置合わせをユーザが指定すればよい。
[ディレクションデータ]
図9は、ディレクションデータの一例である。図9では、ディレクションデータを生成した日時とあわせて、次に撮影を行いたい位置の緯度、経度、向き、高度を情報として含む。この場合には、撮影者端末1000側で、現在位置の位置方向データとディレクションデータを比較して、現在位置から次に撮影を行いたい位置までの距離を示すことができる。
図10は、ディレクションデータの別の一例である。図10では、ディレクションデータを生成した日時とあわせて、現在位置から次に撮影を行いたい位置までの、各方角に対する距離と、撮影を行いたい向き、高さ方向の差を情報として含む。この場合には、拡張現実サーバ2000側で、撮影者端末1000の現在位置の位置方向データと次に撮影を行いたい位置のデータを比較して距離や高さ方向の差を算出しディレクションデータとする。
[ナビゲーションモード]
図15は、ディレクションデータの出力後、次に撮影を行いたい場所までのナビゲーションを行う場合のフローチャート図である。また、図16は、ナビゲーションに従って撮影場所まで移動した場合の撮影者端末1000上のディレクションデータ表示の一例である。ナビゲーションモードについて、これらの図を用いて説明する。
ユーザビリティ向上のために、次に撮影を行いたい位置までの案内を行うナビゲーションモードを設けてもよい。ナビゲーションモードは、ユーザが指定して開始するか、または、ディレクションデータの表示後に、撮影者端末1000の移動を検知した場合に、自動で開始する設定を設けてもよい。
ナビゲーションモードが開始された場合、はじめに、撮影者端末1000は、拡張現実サーバ2000に対して、ナビゲーションモードの開始を通知する(ステップ501)。
サーバ2000は、この通知を受け取ることで、ナビゲーションモードに入ったことを検知して、直前の指示データで通知されていた、次に撮影を行いたい位置と方向の情報を記憶部2400に保持する。
次に、撮影者端末1000は、位置方向データ生成モジュール1610を使用して、現在の位置方向データを生成する(ステップS502)。ここでの位置方向データは、通常のディレクションデータ出力処理と同様のものであってよい。
生成した位置方向データは、位置方向データ送信モジュール1520を介して、拡張現実サーバ2000に送信する(ステップS503)。
現実サーバ2000は、位置方向データ受信モジュール2520を介して、位置方向データを受信する(ステップS601)。
位置方向データを受信すると、制御部2600と記憶部2400が共同してディレクションデータ生成モジュール2610を実現し、ディレクションデータの生成を行う(ステップS602)。
ディレクションデータの生成は、受信した位置方向データと、ナビゲーションモードの開始時に記憶部2400に保持した指示データと、位置対応データベース2410のデータと、を基に行う。生成するディレクションデータの内容については、前述のディレクションデータ出力処理と同様のものであってよい。
サーバ2000は、通信部2500のディレクションデータ送信モジュール2540を介して、生成したディレクションデータを撮影者端末1000に送信する(ステップS603)。
撮影者端末1000は、通信部1500のディレクションデータ受信モジュール1540を介して、ディレクションデータを受信する(ステップS504)。
撮影者端末1000が受信したディレクションデータが、前回のディレクションデータを同じであるかの確認を行う(ステップS505)。
前回のディレクションデータと異なる場合には、撮影者端末1000のディレクションデータ出力モジュール1220を介して、出力データを更新する(ステップS506)。
前回のディレクションデータと同じ場合には、ステップS506のディレクションデータ出力更新処理を飛ばして、次のステップS507に進む。
ステップS507では、ナビゲーションモードを終了するかどうかの確認を行う。ここでは、図16に示すディレクションデータの画面で、ナビゲーション終了ボタンが選択されたかどうか、または、撮影ボタンやキャンセルボタンが選択されたかどうかの確認を行う。
これらのボタンが選択されていない場合には、ステップS502に戻って、ナビゲーションモードの処理を続ける。このフローチャートのループが高速になってしまい、表示や処理に負荷をかける場合等には、ここで、待ち時間を挿入してもよい。
これらのボタンが選択されて、ナビゲーションモードを終了する場合には、撮影者端末1000から拡張現実サーバ2000に対して、ナビゲーションモードの終了を通知する(ステップ508)。
ここでは、ナビゲーションモードのフローの一例を示したが、本発明はこのフローに限定されるものではなく、一般的にウォーキング用ナビゲーションシステム等に使われる技術等を、必要に応じて使用できるものとする。
図16は、ナビゲーションに従って撮影場所まで移動した場合の撮影者端末1000上のディレクションデータ表示の一例である。これらは、図6の例や図8の例のように、矢印を使用して指示データを入力した場合の例を、文章で表している。
ディレクション表示1では、指示データで指定された次に撮影を行いたい場所まで、あと、北に5m、東に12m移動する必要があることと、カメラの向きを北向きで撮影する必要があることを示している。
ここから、北に6m、東に7m移動した後の、ディレクション表示2では、次に撮影を行いたい場所まで、あと、南に1m、東に5m移動する必要があることと、カメラの向きを北向きで撮影する必要があることを示している。
ここから、南に1m、東に5m移動した後の、ディレクション表示3では、この位置で撮影を行えばよく、カメラの向きを北向きにする必要があることを示している。
更に、同じ位置で北向きに回転した後の、ディレクション表示4では、カメラが北を向いたことを示し、この位置から撮影を行えばよいことを示している。
ここでは、ナビゲーションに従って撮影場所まで移動した場合の、撮影者端末1000上のディレクションデータ表示の一例を示したが、本発明はこれに限定されるものではなく、ユーザが撮影場所から撮影を行うために適切な案内が行えればよい。例えば、撮影者端末1000の出力部1200が音声出力を備える場合には、音声による案内を行うことも可能である。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1000 撮影者端末、2000 拡張現実サーバ、3000 公衆回線網

Claims (3)

  1. 撮影を行うと拡張現実を表示する撮影者端末と、当該撮影者端末と通信可能に接続された拡張現実サーバと、からなる拡張現実システムであって、
    前記撮影者端末は、
    現在の位置情報と方向を検出し、位置データ及び方向データを生成する位置方向データ生成手段と、
    前記生成した位置データ及び方向データを、前記拡張現実サーバに送信する位置方向データ送信手段と、
    前記拡張現実サーバから3次元データを受信する3次元データ受信手段と、
    前記3次元データを表示する3次元データ表示手段と、
    表示した前記3次元データに対して、ユーザから、3次元データ内の位置と方向に関する指示データの入力を受付ける指示データ入力手段と、
    入力を受け付けた前記指示データを、前記拡張現実サーバに送信する指示データ送信手段と、を備え、
    前記拡張現実サーバは、
    前記撮影者端末からの要求に応じて、前記3次元データを送信する3次元データ送信手段と、
    前記撮影者端末から前記位置データ及び前記方向データを受信する位置方向データ受信手段と、
    前記3次元データと、現実の位置を対応付けて記憶した位置対応データベースと、
    前記撮影者端末から前記指示データを受信する指示データ受信手段と、
    前記指示データと、前記位置対応データベースと、前記撮影者端末の位置データと、前記撮影者端末の方向データと、に基づいて、前記撮影者端末が指示する指示データの位置及び方向から、表示されるべき拡張現実のカメラ位置と方向に関するディレクションデータを送信するディレクションデータ送信手段と、を備える拡張現実システム。
  2. 前記撮影者端末は、前記ディレクションデータ送信手段が送信したディレクションデータを受信し、表示するディレクションデータ表示手段を備える請求項1に記載の拡張現実システム。
  3. 撮影を行うと拡張現実を表示する撮影者端末と、当該撮影者端末と通信可能に接続された拡張現実サーバと、からなるシステムが実行する方法であって、
    前記撮影者端末は、
    現在の位置情報と方向を検出し、位置データ及び方向データを生成するステップと、
    前記生成した位置データ及び方向データを、前記拡張現実サーバに送信するステップと、
    前記拡張現実サーバから3次元データを受信するステップと、
    前記3次元データを表示するステップと、
    表示した前記3次元データに対して、ユーザから、3次元データ内の位置と方向に関する指示データの入力を受付けるステップと、
    入力を受け付けた前記指示データを、前記拡張現実サーバに送信するステップと、を備え、
    前記3次元データと、現実の位置を対応付けて記憶した位置対応データベースを備える前記拡張現実サーバは、
    前記撮影者端末からの要求に応じて、前記3次元データを送信するステップと、
    前記撮影者端末から前記位置データ及び前記方向データを受信するステップと、
    前記撮影者端末から前記指示データを受信するステップと、
    前記指示データと、前記位置対応データベースと、前記撮影者端末の位置データと、前記撮影者端末の方向データと、に基づいて、前記撮影者端末が指示する指示データの位置及び方向から、表示されるべき拡張現実のカメラ位置と方向に関するディレクションデータを送信するステップと、を備える方法。

JP2015150651A 2015-07-30 2015-07-30 拡張現実システム、および拡張現実方法 Active JP6077068B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015150651A JP6077068B1 (ja) 2015-07-30 2015-07-30 拡張現実システム、および拡張現実方法
US15/157,541 US9805515B2 (en) 2015-07-30 2016-05-18 System and method for augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015150651A JP6077068B1 (ja) 2015-07-30 2015-07-30 拡張現実システム、および拡張現実方法

Publications (2)

Publication Number Publication Date
JP6077068B1 JP6077068B1 (ja) 2017-02-08
JP2017033154A true JP2017033154A (ja) 2017-02-09

Family

ID=57883331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015150651A Active JP6077068B1 (ja) 2015-07-30 2015-07-30 拡張現実システム、および拡張現実方法

Country Status (2)

Country Link
US (1) US9805515B2 (ja)
JP (1) JP6077068B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6390992B1 (ja) * 2017-06-02 2018-09-19 秀敏 櫻井 ストリートビューワーシステム
JP7130215B1 (ja) 2021-12-03 2022-09-05 Asatec株式会社 建築予定建物確認システム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528021B2 (en) 2015-10-30 2020-01-07 Rockwell Automation Technologies, Inc. Automated creation of industrial dashboards and widgets
US10607409B2 (en) * 2016-07-19 2020-03-31 The Boeing Company Synthetic geotagging for computer-generated images
US10545492B2 (en) 2016-09-26 2020-01-28 Rockwell Automation Technologies, Inc. Selective online and offline access to searchable industrial automation data
US10401839B2 (en) 2016-09-26 2019-09-03 Rockwell Automation Technologies, Inc. Workflow tracking and identification using an industrial monitoring system
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10388075B2 (en) 2016-11-08 2019-08-20 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10866631B2 (en) 2016-11-09 2020-12-15 Rockwell Automation Technologies, Inc. Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality
US10445944B2 (en) * 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
WO2019159333A1 (ja) * 2018-02-16 2019-08-22 マクセル株式会社 携帯情報端末、情報提示システム及び情報提示方法
US11210864B2 (en) * 2018-06-01 2021-12-28 Immersal Oy Solution for generating virtual reality representation
CN109041012A (zh) * 2018-08-21 2018-12-18 上海交通大学 基于综合通信与计算能力的基站选择方法和系统
US11810202B1 (en) 2018-10-17 2023-11-07 State Farm Mutual Automobile Insurance Company Method and system for identifying conditions of features represented in a virtual model
US11556995B1 (en) 2018-10-17 2023-01-17 State Farm Mutual Automobile Insurance Company Predictive analytics for assessing property using external data
US11024099B1 (en) 2018-10-17 2021-06-01 State Farm Mutual Automobile Insurance Company Method and system for curating a virtual model for feature identification
US10873724B1 (en) 2019-01-08 2020-12-22 State Farm Mutual Automobile Insurance Company Virtual environment generation for collaborative building assessment
US10890992B2 (en) 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces
US11150788B2 (en) 2019-03-14 2021-10-19 Ebay Inc. Augmented or virtual reality (AR/VR) companion device techniques
US11049072B1 (en) 2019-04-26 2021-06-29 State Farm Mutual Automobile Insurance Company Asynchronous virtual collaboration environments
US11032328B1 (en) 2019-04-29 2021-06-08 State Farm Mutual Automobile Insurance Company Asymmetric collaborative virtual environments
FR3116629B1 (fr) * 2020-11-25 2024-01-19 Patrick Herbault Outil de suivi de chantier par réalité augmentée
FR3117241A1 (fr) 2020-12-08 2022-06-10 Patrick Herbault Outil de visualisation 3D d’un bâtiment couplé à un planning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338311A (ja) * 2000-03-21 2001-12-07 Dainippon Printing Co Ltd 仮想現実空間移動制御装置
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
JP2012080403A (ja) * 2010-10-04 2012-04-19 Panasonic Corp 情報取得装置、情報取得機能付き撮影機器、情報取得用集積回路、画像表示システム、情報取得プログラム、及び情報取得方法
JP2012084146A (ja) * 2010-10-13 2012-04-26 Pantech Co Ltd 拡張現実(ar)を提供するユーザ装置及び方法
JP2014115957A (ja) * 2012-12-12 2014-06-26 Hiroaki Ishihara 拡張現実型建物シミュレーション装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065263A (ja) * 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
US9667860B2 (en) * 2014-02-13 2017-05-30 Google Inc. Photo composition and position guidance in a camera or augmented reality system
US9613455B1 (en) * 2014-11-02 2017-04-04 Google Inc. Local georeferenced data
US9407815B2 (en) * 2014-11-17 2016-08-02 International Business Machines Corporation Location aware photograph recommendation notification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338311A (ja) * 2000-03-21 2001-12-07 Dainippon Printing Co Ltd 仮想現実空間移動制御装置
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
JP2012080403A (ja) * 2010-10-04 2012-04-19 Panasonic Corp 情報取得装置、情報取得機能付き撮影機器、情報取得用集積回路、画像表示システム、情報取得プログラム、及び情報取得方法
JP2012084146A (ja) * 2010-10-13 2012-04-26 Pantech Co Ltd 拡張現実(ar)を提供するユーザ装置及び方法
JP2014115957A (ja) * 2012-12-12 2014-06-26 Hiroaki Ishihara 拡張現実型建物シミュレーション装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6390992B1 (ja) * 2017-06-02 2018-09-19 秀敏 櫻井 ストリートビューワーシステム
WO2018220856A1 (ja) * 2017-06-02 2018-12-06 秀敏 櫻井 ストリートビューワーシステム
JP7130215B1 (ja) 2021-12-03 2022-09-05 Asatec株式会社 建築予定建物確認システム
JP2023082830A (ja) * 2021-12-03 2023-06-15 Asatec株式会社 建築予定建物確認システム

Also Published As

Publication number Publication date
US20170032574A1 (en) 2017-02-02
JP6077068B1 (ja) 2017-02-08
US9805515B2 (en) 2017-10-31

Similar Documents

Publication Publication Date Title
JP6077068B1 (ja) 拡張現実システム、および拡張現実方法
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
US20180286098A1 (en) Annotation Transfer for Panoramic Image
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
EP3540571A1 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
US9710969B2 (en) Indicating the geographic origin of a digitally-mediated communication
US10043314B2 (en) Display control method and information processing apparatus
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
JP6476657B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US9310987B2 (en) Projections to fix pose of panoramic photos
EP3712839A1 (en) Image capturing device, image capturing system, image processing method, and carrier means
EP2413104B1 (en) Apparatus and method for providing road view
JP7400882B2 (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
US10192332B2 (en) Display control method and information processing apparatus
US20230131239A1 (en) Image information generating apparatus and method, and computer-readable storage medium
JP6527182B2 (ja) 端末装置、端末装置の制御方法、コンピュータプログラム
JP2011060254A (ja) 拡張現実システム、拡張現実装置および仮想オブジェクト表示方法
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
JP2008219390A (ja) 画像閲覧装置
JP2016139199A (ja) 画像処理装置、画像処理方法、およびプログラム
US20230125097A1 (en) Photography support device and method, and computer-readable storage medium
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2011041020A (ja) 携帯端末、表示方法及び表示システム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170111

R150 Certificate of patent or registration of utility model

Ref document number: 6077068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250