JP6540108B2 - 画像生成方法、システム、装置、及び端末 - Google Patents
画像生成方法、システム、装置、及び端末 Download PDFInfo
- Publication number
- JP6540108B2 JP6540108B2 JP2015046130A JP2015046130A JP6540108B2 JP 6540108 B2 JP6540108 B2 JP 6540108B2 JP 2015046130 A JP2015046130 A JP 2015046130A JP 2015046130 A JP2015046130 A JP 2015046130A JP 6540108 B2 JP6540108 B2 JP 6540108B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- worker
- terminal
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 57
- 238000012545 processing Methods 0.000 claims description 79
- 238000004891 communication Methods 0.000 claims description 52
- 238000003384 imaging method Methods 0.000 claims description 18
- 239000003550 marker Substances 0.000 description 77
- 210000003128 head Anatomy 0.000 description 34
- 238000010586 diagram Methods 0.000 description 26
- 230000004927 fusion Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011079 streamline operation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
・指示者1側が見える範囲はカメラ21cの視角、作業員2の頭部の向きに依存するため、現在の作業現場の全貌を把握しにくい。
・指示者1側が作業員2の表示デバイス21dに指示情報を表示させようとしても、指示者1は、作業員2の頭部の向きを先ず誘導し、作業員2に固定してもらう必要がある。
・視野外の指示を行うためには、指示者1は、作業員2に頭部の向きを変えるように指示を行い、対象物を探さなくてはならない。
・更に、複数のカメラ画像2cを合成して生成したパノラマ画像に指示情報を貼り付けることが考えられるが、指示情報が貼り付けられた画像を作業員2に送信して表示デバイス21dに表示させなければ指示を伝えることができない。この方法では、作業員2は、指示者1側から送られてきた画像と、現場とを見比べる必要があり、効率が悪く、また、通信の負荷も大きい。
入力装置114は、マウス等のポインティングデバイス、キーボード等を有し、指示者1が遠隔支援装置101による処理に必要な各種情報を入力するために用いられる。表示装置115は、CPU111の制御のもとに必要な各種情報を表示する。入力装置114と表示装置115とは、一体化したタッチパネル等によるユーザインタフェースであってもよい。
遠隔支援装置101によって行われる処理を実現するプログラムは、例えば、CD−ROM(Compact Disc Read-Only Memory)等の記憶媒体119によって遠隔支援装置101に提供される。
(付記1)
撮像装置を用いて実空間に設置したオブジェクトを含む第1の画像を撮像し、
前記第1の画像を撮像したときの前記撮像装置の第1の姿勢を検知し、
前記撮像装置を用いて実空間に設置した前記オブジェクトを含む第2の画像を撮像し、
前記第2の画像を撮像したときの前記撮像装置の第2の姿勢を検知し、
前記第1の姿勢と前記第2の姿勢に基づいて、前記第1の画像に含まれる第1のオブジェクト位置と前記第2の画像に含まれる第2のオブジェクト位置の相対位置関係を算出し、
算出した前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして第3の画像を生成する
処理をコンピュータが行う画像生成方法。
(付記2)
前記コンピュータが、
前記第1の画像内において前記オブジェクトを含む第1の探索エリアと、前記第2の画像内において該オブジェクトを含む第2の探索エリアとを予測し、
前記第1の探索エリアに含まれる前記第1のオブジェクト位置と、前記第2の探索エリアに含まれる前記第2のオブジェクト位置の前記相対位置関係を算出する
処理を行う付記1記載の画像生成方法。
(付記3)
前記コンピュータが、
検知した前記第1の姿勢に基づいて該第1の画像を変形させ、
検知した前記第2の姿勢に基づいて該第2の画像を変形させて、前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして前記第3の画像を生成することを特徴とする付記1又は2記載の画像生成方法。
(付記4)
前記第1の姿勢及び前記第2の姿勢の少なくとも1つは、前記撮像装置の位置及び姿勢を3次元で推定して得た推定姿勢情報と、慣性センサによって得たセンサ姿勢情報とを融合して得た融合姿勢情報で示されることを特徴とする付記1乃至3のいずれか一項記載の画像生成方法。
(付記5)
端末と装置とがネットワークを介して接続され、遠隔支援を行うシステムであって、
前記端末は、
撮像装置から、該撮像装置が撮像した実空間に設置したオブジェクトを含む複数の画像を入力し、各画像と、各画像の撮像時の姿勢を示す姿勢情報とを、ネットワーク通信部を介して前記装置へ送信することで、該装置から支援情報を受信して、表示デバイスに表示させる端末側処理部を有し、
前記装置は、
前記端末から受信した、第1の画像の第1の姿勢情報と、第2の画像の第2の姿勢情報とに基づいて、前記第1の画像に含まれる第1のオブジェクト位置と前記第2の画像に含まれる第2のオブジェクト位置の相対位置関係を算出し、
算出した前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして第3の画像を生成して表示装置に表示させ、
入力装置によってポインティングされた前記第3の画像内の指定位置の座標を含む前記支援情報を前記端末に送信する遠隔支援処理部を有する
ことを特徴とするシステム。
(付記6)
前記装置の前記遠隔支援処理部は、
前記第1の画像内において前記オブジェクトを含む第1の探索エリアと、前記第2の画像内において該オブジェクトを含む第2の探索エリアとを予測し、前記第1の探索エリアに含まれる前記第1のオブジェクト位置と、前記第2の探索エリアに含まれる前記第2のオブジェクト位置の前記相対位置関係を算出する
ことを特徴とする付記5記載のシステム。
(付記7)
前記装置の前記遠隔支援処理部は、
前記第1の姿勢情報に基づいて該第1の画像を変形させ、
検知した前記第2の姿勢情報に基づいて該第2の画像を変形させて、前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして前記第3の画像を生成することを特徴とする付記5又は6記載のシステム。
(付記8)
前記端末の前記端末側処理部は、
前記第1の姿勢情報及び前記第2の姿勢情報の少なくとも1つは、前記端末の位置及び姿勢を3次元で推定して得た推定姿勢情報と、慣性センサによって得たセンサ姿勢情報とを融合することで、前記姿勢情報を取得する
ことを特徴とする付記5乃至7のいずれか一項記載のシステム。
(付記9)
前記座標は、予め定められた基準点に対する相対座標であり、
前記端末の前記端末側処理部は、
前記座標が、前記撮像装置のカメラ視野外である場合、該座標の位置の方位及び距離に応じた表示を行う視野外対応部
を有することを特徴とする付記5乃至8のいずれか一項記載のシステム。
(付記10)
ネットワーク通信部を介して受信した、第1の画像の第1の姿勢情報と、第2の画像の第2の姿勢情報とに基づいて、前記第1の画像に含まれる第1のオブジェクト位置と前記第2の画像に含まれる第2のオブジェクト位置の相対位置関係を算出し、
算出した前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして第3の画像を生成して表示装置に表示させ、
入力装置によってポインティングされた前記第3の画像内の指定位置の座標を含む前記支援情報を前記端末に送信する遠隔支援処理部を有する
ことを特徴とする遠隔支援装置。
(付記11)
前記遠隔支援処理部は、
前記第1の画像内において前記オブジェクトを含む第1の探索エリアと、前記第2の画像内において該オブジェクトを含む第2の探索エリアとを予測し、前記第1の探索エリアに含まれる前記第1のオブジェクト位置と、前記第2の探索エリアに含まれる前記第2のオブジェクト位置の前記相対位置関係を算出する
ことを特徴とする付記10記載のシステム。
(付記12)
前記遠隔支援処理部は、
前記第1の姿勢情報に基づいて該第1の画像を変形させ、
検知した前記第2の姿勢情報に基づいて該第2の画像を変形させて、前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして前記第3の画像を生成することを特徴とする付記10又は11記載のシステム。
(付記13)
撮像装置から、該撮像装置が撮像した実空間に設置したオブジェクトを含む複数の画像を入力し、各画像と、各画像の撮像時の姿勢を示す姿勢情報とを、ネットワーク通信部を介して前記装置へ送信することで、該装置から支援情報を受信して、表示デバイスに表示させる端末側処理部
を有することを特徴とする端末。
(付記14)
前記第1の姿勢情報及び前記第2の姿勢情報の少なくとも1つは、前記端末の位置及び姿勢を3次元で推定して得た推定姿勢情報と、慣性センサによって得たセンサ姿勢情報とを融合することで、前記姿勢情報を取得する
ことを特徴とする付記13記載のいずれか一項記載の端末。
2e 融合姿勢情報、 2f 指示情報
2g 指示内容、 2h 相対座標
21c カメラ、 21d 表示デバイス
101、102 遠隔支援装置
142 遠隔支援処理部
143 パノラマ画像生成部
144 現場シーン合成部、 145 現場シーン描画部
146 支援情報作成部
147 指示操作処理部、 148 指示情報提供部
201、202 作業員端末
272 作業支援処理部
273 現場シーン提供部
275 支援情報表示部
276 指示情報描画部、 277 オフスクリーン対応部
1001、1002 システム
Claims (7)
- ネットワーク通信部を介して端末から受信した、第1の画像の第1の姿勢情報と、第2の画像の第2の姿勢情報とに基づいて、前記第1の画像に含まれる第1のオブジェクト位置と前記第2の画像に含まれる第2のオブジェクト位置の相対位置関係を算出し、
算出した前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして第3の画像を生成して表示装置に表示させ、
入力装置によってポインティングされた前記第3の画像内の指定位置の座標を含む支援情報を前記端末に送信する
処理をコンピュータが行う画像生成方法。 - 前記コンピュータが、
前記第1の画像内においてオブジェクトを含む第1の探索エリアと、前記第2の画像内において該オブジェクトを含む第2の探索エリアとを予測し、
前記第1の探索エリアに含まれる前記第1のオブジェクト位置と、前記第2の探索エリアに含まれる前記第2のオブジェクト位置の前記相対位置関係を算出する
処理を行う請求項1記載の画像生成方法。 - 前記コンピュータが、
前記第1の姿勢情報に基づいて該第1の画像を変形させ、
前記第2の姿勢情報に基づいて該第2の画像を変形させて、前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして前記第3の画像を生成することを特徴とする請求項1又は2記載の画像生成方法。 - 前記第1の姿勢情報及び前記第2の姿勢情報の少なくとも1つは、前記第1の画像と前記第2の画像を撮像した撮像装置の位置及び姿勢を3次元で推定して得た推定姿勢情報と、慣性センサによって得たセンサ姿勢情報とを融合して得た融合姿勢情報で示されることを特徴とする請求項1乃至3のいずれか一項記載の画像生成方法。
- 端末と装置とがネットワークを介して接続され、遠隔支援を行うシステムであって、
前記端末は、
撮像装置から、該撮像装置が撮像した実空間に設置したオブジェクトを含む複数の画像を入力し、各画像と、各画像の撮像時の姿勢を示す姿勢情報とを、ネットワーク通信部を介して前記装置へ送信することで、該装置から支援情報を受信して、表示デバイスに表示させる端末側処理部を有し、
前記装置は、
前記端末から受信した、第1の画像の第1の姿勢情報と、第2の画像の第2の姿勢情報とに基づいて、前記第1の画像に含まれる第1のオブジェクト位置と前記第2の画像に含まれる第2のオブジェクト位置の相対位置関係を算出し、
算出した前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして第3の画像を生成して表示装置に表示させ、
入力装置によってポインティングされた前記第3の画像内の指定位置の座標を含む前記支援情報を前記端末に送信する遠隔支援処理部を有する
ことを特徴とするシステム。 - ネットワーク通信部を介して端末から受信した、第1の画像の第1の姿勢情報と、第2の画像の第2の姿勢情報とに基づいて、前記第1の画像に含まれる第1のオブジェクト位置と前記第2の画像に含まれる第2のオブジェクト位置の相対位置関係を算出し、
算出した前記相対位置関係に基づいて、前記第1の画像と前記第2の画像をマージして第3の画像を生成して表示装置に表示させ、
入力装置によってポインティングされた前記第3の画像内の指定位置の座標を含む支援情報を前記端末に送信する遠隔支援処理部を有する
ことを特徴とする遠隔支援装置。 - 撮像装置から、該撮像装置が撮像した実空間に設置したオブジェクトを含む複数の画像を入力し、各画像と、各画像の撮像時の姿勢を示す姿勢情報とを、ネットワーク通信部を介して装置へ送信することで、該装置から支援情報を受信して、表示デバイスに表示させる端末側処理部
を有することを特徴とする端末。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015046130A JP6540108B2 (ja) | 2015-03-09 | 2015-03-09 | 画像生成方法、システム、装置、及び端末 |
US15/062,408 US20160269631A1 (en) | 2015-03-09 | 2016-03-07 | Image generation method, system, and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015046130A JP6540108B2 (ja) | 2015-03-09 | 2015-03-09 | 画像生成方法、システム、装置、及び端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016167688A JP2016167688A (ja) | 2016-09-15 |
JP6540108B2 true JP6540108B2 (ja) | 2019-07-10 |
Family
ID=56888364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015046130A Expired - Fee Related JP6540108B2 (ja) | 2015-03-09 | 2015-03-09 | 画像生成方法、システム、装置、及び端末 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160269631A1 (ja) |
JP (1) | JP6540108B2 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039867A1 (en) | 2013-03-15 | 2017-02-09 | Study Social, Inc. | Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network |
CA2979217C (en) * | 2015-03-09 | 2023-12-12 | Alchemy Systems, L.P. | Augmented reality |
US10339382B2 (en) * | 2015-05-31 | 2019-07-02 | Fieldbit Ltd. | Feedback based remote maintenance operations |
JPWO2017013986A1 (ja) * | 2015-07-17 | 2018-06-14 | シャープ株式会社 | 情報処理装置、端末、遠隔通信システム、および、情報処理プログラム |
US20170053545A1 (en) * | 2015-08-19 | 2017-02-23 | Htc Corporation | Electronic system, portable display device and guiding device |
CN108604393B (zh) * | 2016-03-04 | 2022-12-30 | 日铁系统集成株式会社 | 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质 |
US11216847B2 (en) | 2016-03-22 | 2022-01-04 | Sensormatic Electronics, LLC | System and method for retail customer tracking in surveillance camera network |
US10764539B2 (en) | 2016-03-22 | 2020-09-01 | Sensormatic Electronics, LLC | System and method for using mobile device of zone and correlated motion detection |
US10318836B2 (en) * | 2016-03-22 | 2019-06-11 | Sensormatic Electronics, LLC | System and method for designating surveillance camera regions of interest |
US10665071B2 (en) | 2016-03-22 | 2020-05-26 | Sensormatic Electronics, LLC | System and method for deadzone detection in surveillance camera network |
US10192414B2 (en) * | 2016-03-22 | 2019-01-29 | Sensormatic Electronics, LLC | System and method for overlap detection in surveillance camera network |
US11601583B2 (en) * | 2016-03-22 | 2023-03-07 | Johnson Controls Tyco IP Holdings LLP | System and method for controlling surveillance cameras |
US10475315B2 (en) | 2016-03-22 | 2019-11-12 | Sensormatic Electronics, LLC | System and method for configuring surveillance cameras using mobile computing devices |
US9965680B2 (en) | 2016-03-22 | 2018-05-08 | Sensormatic Electronics, LLC | Method and system for conveying data from monitored scene via surveillance cameras |
US10347102B2 (en) | 2016-03-22 | 2019-07-09 | Sensormatic Electronics, LLC | Method and system for surveillance camera arbitration of uplink consumption |
US10733231B2 (en) | 2016-03-22 | 2020-08-04 | Sensormatic Electronics, LLC | Method and system for modeling image of interest to users |
US10466774B2 (en) | 2016-11-22 | 2019-11-05 | Honeywell International Inc. | NTE display systems and methods with optical trackers |
KR101810671B1 (ko) * | 2017-03-07 | 2018-01-25 | 링크플로우 주식회사 | 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치 |
WO2018230510A1 (ja) * | 2017-06-13 | 2018-12-20 | ソニー株式会社 | 画像処理装置、画像処理方法および撮像システム |
US11062517B2 (en) * | 2017-09-27 | 2021-07-13 | Fisher-Rosemount Systems, Inc. | Virtual access to a limited-access object |
US10403046B2 (en) * | 2017-10-20 | 2019-09-03 | Raytheon Company | Field of view (FOV) and key code limited augmented reality to enforce data capture and transmission compliance |
JP6849582B2 (ja) * | 2017-12-18 | 2021-03-24 | 株式会社日立システムズ | Ar情報提供システム及び情報処理装置 |
EP3729430A1 (en) | 2017-12-21 | 2020-10-28 | Telecom Italia S.p.A. | Remote support system and method |
JP7017689B2 (ja) | 2017-12-29 | 2022-02-09 | 富士通株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
EP3746868A1 (en) * | 2018-02-02 | 2020-12-09 | InterDigital CE Patent Holdings | Multiviewing virtual reality user interface |
EP3788570A1 (en) * | 2018-04-30 | 2021-03-10 | Telefonaktiebolaget LM Ericsson (publ) | Automated augmented reality rendering platform for providing remote expert assistance |
CN110148178B (zh) * | 2018-06-19 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 相机定位方法、装置、终端及存储介质 |
US20200089335A1 (en) * | 2018-09-19 | 2020-03-19 | XRSpace CO., LTD. | Tracking Method and Tracking System Using the Same |
JP2020069538A (ja) * | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示システム、及び、表示システムの制御方法 |
JP2020086491A (ja) * | 2018-11-15 | 2020-06-04 | 株式会社リコー | 情報処理装置、情報処理システム及び情報処理方法 |
JP7000364B2 (ja) * | 2019-01-29 | 2022-01-19 | ファナック株式会社 | ロボットシステム |
IT201900001711A1 (it) * | 2019-02-06 | 2020-08-06 | Savoia S R L | Sistema e metodo d’interazione digitale tra utenti atto all’ottimizzazione degli spostamenti fisici |
US11915339B2 (en) * | 2019-03-04 | 2024-02-27 | Maxell, Ltd. | Remote operation instructing system, and mount type device |
JP2020149140A (ja) * | 2019-03-11 | 2020-09-17 | 株式会社Nttファシリティーズ | 作業支援システム、作業支援方法、及びプログラム |
JP7078568B2 (ja) * | 2019-03-19 | 2022-05-31 | 株式会社日立製作所 | 表示装置、表示制御方法、及び表示システム |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
CN114731389A (zh) * | 2019-11-20 | 2022-07-08 | 大金工业株式会社 | 远程作业辅助系统 |
CN110913177A (zh) * | 2019-11-27 | 2020-03-24 | 国网辽宁省电力有限公司葫芦岛供电公司 | 一种电力通讯机房可视化呈现及作业方法 |
US11875823B2 (en) | 2020-04-06 | 2024-01-16 | Honeywell International Inc. | Hypermedia enabled procedures for industrial workflows on a voice driven platform |
CN111447418A (zh) * | 2020-04-30 | 2020-07-24 | 宁波市交建工程监理咨询有限公司 | 一种可穿戴监理方法及其用户端、监控端和存储介质 |
JP7494000B2 (ja) | 2020-05-11 | 2024-06-03 | 株式会社日立製作所 | 作業者端末、作業支援システム |
US20230267417A1 (en) * | 2020-07-15 | 2023-08-24 | Honeywell International Inc. | Real-time proximity-based contextual information for an industrial asset |
JP7513723B2 (ja) * | 2020-08-06 | 2024-07-09 | マクセル株式会社 | 仮想現実共有方法及びシステム |
WO2022220208A1 (ja) * | 2021-04-14 | 2022-10-20 | Telexistence株式会社 | データ処理装置、データ処理方法、プログラム及びデータ処理システム |
US11792499B2 (en) | 2021-10-21 | 2023-10-17 | Raytheon Company | Time-delay to enforce data capture and transmission compliance in real and near real time video |
US11696011B2 (en) | 2021-10-21 | 2023-07-04 | Raytheon Company | Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video |
US11700448B1 (en) | 2022-04-29 | 2023-07-11 | Raytheon Company | Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2947171B2 (ja) * | 1996-05-08 | 1999-09-13 | 日本電気株式会社 | 航空写真作成装置 |
JP3944019B2 (ja) * | 2002-07-31 | 2007-07-11 | キヤノン株式会社 | 情報処理装置および方法 |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP4738870B2 (ja) * | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
EP2539883A1 (en) * | 2010-02-24 | 2013-01-02 | Ipplex Holdings Corporation | Augmented reality panorama supporting visually impaired individuals |
US8836723B2 (en) * | 2010-06-18 | 2014-09-16 | Vantage Surgical Systems, Inc. | Augmented reality methods and systems including optical merging of a plurality of component optical images |
JP5776201B2 (ja) * | 2011-02-10 | 2015-09-09 | ソニー株式会社 | 情報処理装置、情報共有方法、プログラム及び端末装置 |
US20150355463A1 (en) * | 2013-01-24 | 2015-12-10 | Sony Corporation | Image display apparatus, image display method, and image display system |
GB201305402D0 (en) * | 2013-03-25 | 2013-05-08 | Sony Comp Entertainment Europe | Head mountable display |
JP6353214B2 (ja) * | 2013-11-11 | 2018-07-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JP5900468B2 (ja) * | 2013-11-21 | 2016-04-06 | コニカミノルタ株式会社 | Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム |
-
2015
- 2015-03-09 JP JP2015046130A patent/JP6540108B2/ja not_active Expired - Fee Related
-
2016
- 2016-03-07 US US15/062,408 patent/US20160269631A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20160269631A1 (en) | 2016-09-15 |
JP2016167688A (ja) | 2016-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6540108B2 (ja) | 画像生成方法、システム、装置、及び端末 | |
JP6586834B2 (ja) | 作業支援方法、作業支援プログラム、及び作業支援システム | |
CN107402000B (zh) | 用于将显示装置相对于测量仪器相互关联的方法和系统 | |
KR101813834B1 (ko) | 화상처리장치, 화상처리방법 및 화상처리프로그램과 촬영보조기재 | |
JP6635037B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP6683127B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP5762892B2 (ja) | 情報表示システム、情報表示方法、及び情報表示用プログラム | |
US20160357491A1 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
JP2015001760A (ja) | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 | |
JP2007080060A (ja) | 対象物特定装置 | |
JP2011203984A (ja) | ナビゲーション装置、ナビゲーション画像生成方法及びプログラム | |
JP6630504B2 (ja) | 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット | |
US10771707B2 (en) | Information processing device and information processing method | |
JP6001914B2 (ja) | 目標位置特定装置、目標位置特定システム、および目標位置特定方法 | |
JP2019114147A (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP2012155678A (ja) | 表示システム、表示処理装置、表示方法、および表示プログラム | |
JP6481456B2 (ja) | 表示制御方法、表示制御プログラム、及び情報処理装置 | |
JP2009258884A (ja) | ユーザインタフェイス | |
JP2022105568A (ja) | 3dツアーの比較表示システム及び方法 | |
JP5235127B2 (ja) | 遠隔操作システムおよび遠隔操作装置 | |
CN113677412A (zh) | 信息处理装置、信息处理方法和程序 | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20180060403A (ko) | 영상 기반의 드론 제어장치 | |
JP2019066196A (ja) | 傾き測定装置及び傾き測定方法 | |
WO2021019591A1 (ja) | 軌跡表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190527 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6540108 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |