JP7462187B2 - 撮影方法および移動体 - Google Patents

撮影方法および移動体 Download PDF

Info

Publication number
JP7462187B2
JP7462187B2 JP2020100806A JP2020100806A JP7462187B2 JP 7462187 B2 JP7462187 B2 JP 7462187B2 JP 2020100806 A JP2020100806 A JP 2020100806A JP 2020100806 A JP2020100806 A JP 2020100806A JP 7462187 B2 JP7462187 B2 JP 7462187B2
Authority
JP
Japan
Prior art keywords
display
photographing
image
capturing
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020100806A
Other languages
English (en)
Other versions
JP2021196416A (ja
Inventor
文敬 山崎
高志 狩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IXS Co Ltd
Original Assignee
IXS Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IXS Co Ltd filed Critical IXS Co Ltd
Priority to JP2020100806A priority Critical patent/JP7462187B2/ja
Publication of JP2021196416A publication Critical patent/JP2021196416A/ja
Application granted granted Critical
Publication of JP7462187B2 publication Critical patent/JP7462187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影手段を搭載した移動体を用いる撮影方法およびその移動体に関する。
昨今、人員による目視確認で行われてきた点検が、コンピュータによる画像解析処理に置き換えられている。例えば、特許文献1には、アスファルト舗装道路のひび割れを画像解析処理する技術が開示されている。
特開2020-056303号公報
特許文献1に開示されている技術は、アスファルト舗装道路のひび割れを解析することが前提であるため、車載カメラで撮影した動画から解析に適したフレーム画像を取得している。
しかしながら、このような撮影方法では、車載カメラを搭載している車両の速度や向きに撮影範囲が制限されるため、撮影できない箇所が生じる可能性がある。また、解析に必要となるフレーム画像は、撮影した動画の一部に限られ、その抽出に手間がかかる。
本発明は、一回の撮影で画角に収まらない対象を撮影するにあたって、その撮影対象に対する網羅的な撮影を容易に実現できる撮影方法、および当該撮影方法を実現するための移動体を提供する。
本発明によれば、ユーザの操作に応じて静止画像を撮影する第一撮影手段と、前記第一撮影手段によって撮影可能な範囲を含み当該範囲より広い範囲の動画像を撮影する第二撮影手段と、表示手段と、前記第二撮影手段によって撮影されている動画像を前記表示手段に表示させる制御手段と、が搭載されている移動体を用いた撮影方法であって、前記制御手段が、前記第一撮影手段の撮影方向に交差する平面方向の座標を設定する設定工程と、前記制御手段が、前記第一撮影手段による撮影位置を示す撮影位置表示と、前記設定工程において設定された座標に基づく案内表示と、を前記表示手段に拡張現実表示させる第一表示工程と、ユーザが、前記撮影位置表示及び前記案内表示に基づいて前記移動体を移動させ、移動させた位置において前記第一撮影手段を操作して静止画像を撮影する撮影工程と、前記制御手段が、前記第一撮影手段によって撮影された静止画像又は静止画像の撮影範囲を、前記表示手段に拡張現実表示させる第二表示工程と、を備え、前記撮影工程における前記第一撮影手段による撮影と、前記第二表示工程における静止画像又は静止画像の撮影範囲の拡張現実表示と、を繰り返すことを特徴とする撮影方法が提供される。
本発明によれば、ユーザの操作に応じて静止画像を撮影する第一撮影手段と、前記第一撮影手段によって撮影可能な範囲を含み当該範囲より広い範囲の動画像を撮影する第二撮影手段と、表示手段と、前記第二撮影手段によって撮影されている動画像を前記表示手段に表示させる制御手段と、が搭載されている移動体であって、前記制御手段が、前記第一撮影手段の撮影方向に交差する平面方向の座標を設定し、前記第一撮影手段による撮影位置を示す撮影位置表示と、設定した座標に基づく案内表示と、を前記表示手段に拡張現実表示させ、前記第一撮影手段によって撮影された静止画像又は静止画像の撮影範囲を、前記表示手段に拡張現実表示させ、前記撮影位置表示及び前記案内表示によって、ユーザによる前記移動体の移動及び前記移動体を用いた撮影を補助する、ことを特徴とする移動体が提供される。
上記の発明は、静止画像を撮影する第一撮影手段と、その撮影環境を動画像で撮影する第二撮影手段と、をそれぞれ搭載した移動体又はそれを用いた撮影方法であり、第二撮影手段によって撮影された動画像の中に、移動体の移動と移動体を用いた撮影を補助する拡張現実表示がなされることによって、ユーザは拡張現実表示を頼りに撮影対象の網羅的に撮影することができる。
一回の撮影で画角に収まらない対象物を撮影するにあたって、その対象物に対する網羅的な撮影を容易に実現できる撮影方法、および当該撮影方法を実現するための移動体が提供される。
移動体の外観を示す斜視図である。 移動体に関するシステム構成図である。 移動体を用いた撮影方法のフローチャートである。 移動体を用いた撮影方法におけるタブレット端末の表示態様を示す図である。 移動体を用いた撮影方法におけるタブレット端末の表示態様を示す図である。 移動体を用いた撮影方法におけるタブレット端末の表示態様を示す図である。 移動体を用いた撮影方法におけるタブレット端末の表示態様を示す図である。 移動体を用いた撮影方法におけるタブレット端末の表示態様を示す図である。 仮想の水平面にカメラの撮影範囲が増えていく様子を示す図である。 移動体を用いた撮影方法におけるタブレット端末の表示態様の変形例を示す図である。
以下、本発明の実施形態について、図面を用いて説明する。なお、すべての図面において、同様の構成要素には同一の符号を付し、適宜に説明を省略する。
<移動体10の構成>
先ず、本発明に用いる移動体10の構成について、説明する。
図1は、移動体10の外観を示す斜視図である。
図2は、移動体10に関するシステム構成図である。
移動体10は、図1に示すとおり、車体11に車輪12が取り付けられており、手押しで移動可能に構成されている。
移動体10には、カメラ13と、タブレット端末14と、が搭載されている。
カメラ13は、移動体10の移動面に対向するように(すなわち下方に向けて)車体11に取り付けられており、移動体10の移動面を撮影するように調整されている。
カメラ13は、ユーザの操作に応じて撮影することができ、その操作ごとに静止画像が生成されてタブレット端末14に転送される。
なお、カメラ13の撮影契機となるユーザの操作の態様は、特に制限されないが、タブレット端末14において受付可能な操作であることが好ましい。
タブレット端末14は、内蔵カメラ141と、タッチパネル142と、制御部143と、入出力部144と、通信部145と、を有している。
タブレット端末14は、その背面側に設けられている内蔵カメラ141のレンズ(不図示)が斜め下方向に向くように車体11に取り付けられている。これにより、内蔵カメラ141の撮影範囲は、カメラ13によって撮影可能な範囲を含んでおり、且つ、当該範囲より広い範囲の動画像を撮影することができる。
内蔵カメラ141によって撮影されている動画像は、随時(リアルタイムで)タッチパネル142に表示される。
タッチパネル142は、上記の動画像や後述する各種の拡張現実表示が表示される表示手段として機能すると共に、タブレット端末14に係る操作を受け付ける操作入力手段として機能する。
制御部143は、タブレット端末14に関する各種処理(タッチパネル142の表示処理を含む)を制御する手段であり、不図示のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read Only Memory)、RAM(Random access memory)等から構成される。
入出力部144は、カメラ13との間で各種データを授受可能に接続されており、本実施形態では、カメラ13によって撮影された静止画像に係る画像データについても制御部143のROM等に保存可能になっている。
通信部145は、インターネット20を介して外部装置と通信可能に構成されており、本実施形態では、カメラ13によって撮影された静止画像に係る画像データがクラウドサーバ30に転送されてクラウドサーバ30に保存可能になっている。
上述したように、「第一撮影手段」に相当するカメラ13と、「第二撮影手段」に相当する内蔵カメラ141と、「表示手段」に相当するタッチパネル142と、「制御手段」に相当する制御部143と、が搭載されているので、移動体10は本発明に係る「移動体」に相当する。
<移動体10を用いた撮影方法>
次に、移動体10を用いた撮影方法について説明する。
図3は、移動体10を用いた撮影方法のフローチャートである。
図4~図8は、移動体10を用いた撮影方法におけるタブレット端末14の表示態様を示す図である。
先ず、設定工程(ステップS101)が行われる。
ステップS101では、タブレット端末14が、カメラ13の撮影方向に交差する平面方向(本実施形態では水平面)の座標を設定する。
ステップS101の設定について、具体的に説明する。
本発明に係る撮影方法を開始するにあたり、図4に示すとおり、開始地点となる基準点BMがタブレット端末14に表示される場所(内蔵カメラ141によって基準点BMが撮影できる場所)まで、ユーザは移動体10を移動させる。
このとき、ユーザはタブレット端末14に基準点BMを認識させる必要があるが、その手法は特に制限されない。例えば、基準点BM(図4において星印で示している位置)に二次元コードを貼り付けておき、タブレット端末14に当該二次元コードを撮影させて、タブレット端末14に基準点BMの位置を認識させてもよい。或いは、ユーザが手動で基準点BMの位置をタブレット端末14に操作入力して指定することによって、タブレット端末14に基準点BMの位置を認識させてもよい。或いは、上記の画像認識とユーザの操作入力とを組み合わせた手法によって、ユーザはタブレット端末14に基準点BMの位置を認識させてもよい。
上記のような手法によって、基準点BMの位置を認識したタブレット端末14は、仮想空間の水平面に沿って座標を設定する。
なお、本実施形態は、図4に示すとおり、移動体10の一部(車体11の前方側と、そこに取り付けられている車輪12と、カメラ13の一部)が写り込むように内蔵カメラ141の撮影範囲を調整することによって、ユーザが移動体10の現実環境を把握しやすいように配慮している。
また、本実施形態は、移動体10が平坦な地面をユーザによる手押しで移動する形態であるため、ステップS101では水平面の座標が設定される旨を説明したが、移動体10の形態によってステップS101で設定される内容が変わりうる。例えば、移動体10が壁面に沿って昇降する形態であれば、ステップS101では鉛直面の座標が設定されてもよいし、移動体10が斜面に沿って移動する形態であれば、ステップS101では当該斜面に対して平行な平面の座標が設定されてもよいし、移動体10が凹凸のある面上を移動する形態であれば、ステップS101ではその凹凸がある面を均した平面に沿って座標が設定されてもよい。
続いて、第一表示工程(ステップS103)が行われる。
ステップS103において、タブレット端末14は、カメラ13による撮影位置を示す撮影位置表示と、ステップS101において設定された座標に基づく案内表示と、をタッチパネル142に拡張現実表示させる。図5には、上記の撮影位置表示の一具体例である撮影位置表示SPと、上記の案内表示の一具体例であるグリッドGRと、がタッチパネル142に表示されている状況が例示されている。
ここで撮影位置表示は、カメラ13の存在位置やカメラ13が撮影可能な範囲を、ユーザがカメラ13で撮影する前に推定可能となる表示態様であれば足りる。図5に図示する撮影位置表示SPは、カメラ13が撮影可能となる範囲内に表示されることによって上記の撮影位置表示に関する要件を充足している。更に、撮影位置表示SPは、アローヘッド(矢尻)の形状であることによって移動体10の進行方向を示す役割も有している。
ここで案内表示は、ステップS101において設定された座標上の位置(仮想空間における位置)と、ユーザが移動体10を実際に移動させる位置(現実環境における位置)と、を対応付ける表示態様になっていれば足りる。図5に図示するグリッドGRは、内蔵カメラ141によって撮影されている動画像に重畳する形式(同じ表示領域内に表示する形式)の表示態様であることによって上記の案内表示に関する要件を充足している。
ここで拡張現実表示とは、ユーザが実際に認識できる現実環境を撮影している動画像(本実施形態では内蔵カメラ141によって撮影されている動画像)から視認できる情報を補強する表示である。上記の撮影位置表示と案内表示は、いずれも拡張現実表示に相当するものであり、移動体10の移動及び移動体10を用いた撮影を補助することができる。
続いて、撮影工程(ステップS105)と第二表示工程(ステップS107)とが行われる。
ステップS105において、ユーザは、上記の撮影位置表示SP及びグリッドGRに基づいて移動体10を移動させ、移動させた位置においてカメラ13を操作して静止画像を撮影する。ステップS107において、タブレット端末14は、カメラ13によって撮影された静止画像の撮影範囲を、タッチパネル142に拡張現実表示させる。
そして、図3に図示するとおり、撮影対象の全体を撮り終えるまで(ステップS109がNOである間)、ステップS105におけるカメラ13の撮影と、ステップS107におけるタブレット端末14の拡張現実表示と、が繰り返される。このステップS105とステップS107とが繰り返される状況を、図6~図8を用いて以下説明する。
なお、図6~図8には、静止画像の撮影範囲SR1と静止画像の撮影範囲SR2がタッチパネル142に拡張現実表示されている様子が図示されているが、これに代えて撮影した静止画像そのものがタッチパネル142に拡張現実表示されてもよい。
図6は、撮影の開始地点(基準点BMを設定した位置)で、最初のカメラ13の撮影をした後に、当該撮影の撮影範囲SR1がタッチパネル142に拡張現実表示された状況を示している。すなわち、図6では、ユーザが移動体10を移動させた距離が零であった場合の撮影工程と第二表示工程が例示されている。
最初のカメラ13の撮影が行われると、図6に示すとおり、「撮影中 動かさないで下さい」というテキスト表示TXがタッチパネル142に拡張現実表示された後に、撮影範囲SR1がタッチパネル142に拡張現実表示されるようになっている。これは、カメラ13によって撮影されるタイミングと、その撮影に対応する撮影範囲SR1を拡張現実表示されるタイミングと、の間にタイムラグが生じることが原因である。このタイムラグは、撮影範囲SR1をタッチパネル142に拡張現実表示させる処理時間に相当し、この時間に移動体10を移動させると、実際にカメラ13によって撮影した位置とタッチパネル142の表示上の撮影範囲SR1の位置とがズレる可能性がある。これを対策させるため、タブレット端末14は、テキスト表示TXをタッチパネル142に表示させることによって、ユーザによる移動体10の移動を抑制させている。
図7は、図6で例示した撮影範囲SR1の拡張現実表示の後に、ユーザが移動体10を前方(図7においては上方)に移動させた状況を示している。すなわち、図7では、2回目の撮影工程における移動体10の移動が例示されている。
図7に示すとおり、最初の第二表示工程においてタッチパネル142に表示された撮影範囲SR1は、移動体10の移動に合わせて後方(図7においては下方)に移動している。言い換えれば、撮影範囲SR1に着目することによって、ユーザは移動体10の移動距離や移動方向を認識することができるので、撮影範囲SR1は移動体10の移動を補助する拡張現実表示の一つとの見方ができる。
また、図6においてはタッチパネル142に表示されていたテキスト表示TXが、図7では非表示になることにより、ユーザによる移動体10の移動を促進させている。言い換えれば、テキスト表示TXは、表示と非表示とを切り替えることによって、移動体10の移動を補助する拡張現実表示の一つとの見方ができる。
図8は、図7で例示した移動体10の移動の後に、カメラ13による撮影が行われ、当該撮影の撮影範囲SR2がタッチパネル142に拡張現実表示された状況を示している。すなわち、図8では、2回目の撮影工程におけるカメラ13の撮影と2回目の第二表示工程が例示されている。
図8に示すとおり、2回目の第二表示工程においてタッチパネル142に表示される撮影範囲SR2は、1回目の第二表示工程においてタッチパネル142に表示される撮影範囲SR1の一部に重畳するように、ユーザがカメラ13の撮影を行っている状況を例示している。より詳細に言えば、左右方向は撮影範囲SR2と撮影範囲SR1とが一致し、且つ、前後方向は撮影範囲SR2が撮影範囲SR1の前方となるように、ユーザがカメラ13の撮影を行っている状況を例示している。言い換えれば、撮影範囲SR1は2回目の撮影工程におけるカメラ13の撮影の目安とすることができるので、撮影範囲SR1はカメラ13の撮影を補助する拡張現実表示の一つとの見方ができる。
2回目のカメラ13の撮影についても、撮影範囲SR2がタッチパネル142に拡張現実表示されるまでのタイムラグにおける移動体10の移動をユーザにさせない為に、テキスト表示TXがタッチパネル142に表示される点については、最初のカメラ13の撮影時と同様である。
図9は、上記のようなステップS105とステップS107の繰り返すことによって、ステップS101において設定された座標によって表される仮想の水平面に、カメラ13の撮影範囲が増えていく様子を示している。
図9(a)は、最初のカメラ13の撮影による撮影範囲SR1が仮想の水平面に追加された状況、すなわち図6で図示する時における仮想の水平面の状況を示す図である。
図9(b)は、2回目のカメラ13の撮影による撮影範囲SR2が仮想の水平面に追加された状況、すなわち図8で図示する時における仮想の水平面の状況を示す図である。
図9(c)は、撮影対象の全体を撮り終えた後の状況を示す図である。図9(c)に示すように、グリッドGRの交点が撮影範囲の中心となるようにカメラ13の撮影を繰り返すことによって、カメラ13の撮影範囲が隙間無く仮想の水平面に整列させる結果となり、ユーザは網羅的に撮影対象を撮影することができる。
なお、図9に図示する内容は、図4~図8に図示した表示内容と対比してユーザが視認可能なように、タッチパネル142において表示されてもよい。
本発明に係る撮影方法は、撮影対象の全体を撮り終えると(ステップS109がYESになったとき)、合成画像生成工程(ステップS111)が行われる。
ステップS111では、ステップS105とステップS107とを繰り返すことによって生成された複数の静止画像を合成して合成画像が生成される。
ステップS111の合成処理は、タブレット端末14(制御部143)によって実行されてもよいし、不図示のコンピュータ装置(例えば、クラウドサーバ30に保存された静止画像にアクセス可能なコンピュータ装置)によって実行されてもよい。
これにより、撮影対象の全体が漏れなく写り込んだ合成画像を生成することができる。
ステップS111において生成された合成画像は、撮影対象の点検に用いられることが好ましい。例えば、撮影対象が建築物の床面であれば、その床面に生じているひび割れを画像解析によって抽出するような点検に適用できる。
また、本発明に係る撮影方法を定期的に行うことにより、過去の撮影対象の状況と現在の撮影対象の状況を比較する点検が実現できる。例えば、第二表示工程(ステップS107)を行うとき、撮影工程(ステップS105)において撮影された静止画像と、過去の合成画像生成工程(ステップS111)において生成された合成画像と、が比較可能となるように、双方がタッチパネル142に拡張現実表示されてもよい。このとき、点検対象がひび割れであるならば、過去に生成された合成画像に撮影されていないひび割れが、今回撮影された静止画像に撮影されている場合に、タブレット端末14が画像解析処理によって自動的にタッチパネル142にアラート表示させることが望ましい。
<上記の撮影方法の変形例>
本発明の撮影位置表示と案内表示に相当する一具体例として、撮影位置表示SPとグリッドGRとがタッチパネル142に表示されることを図5~図8に図示したが、これに代わる変形例を図10に図示する。
図10は、移動体10を用いた撮影方法におけるタブレット端末14の表示態様の変形例を示す図である。
図10に図示される撮影位置表示SP'は、円柱状の表示であって撮影位置表示SPの形状と相違するものの、カメラ13の撮影位置(本変形例ではカメラ13の撮影範囲の中心)を示す表示である点においては共通しており、本発明の撮影位置表示に相当する一具体例である。
図10に図示されるグリッドGR'は、図5等に図示したグリッドGRの交点に表示される円柱状の表示であり、グリッドGRと表示態様が異なるものの、設定工程(ステップS101)において設定された座標に基づく表示である点においては共通しており、本発明の案内表示に相当する一具体例である。
撮影位置表示SP'とグリッドGR'が合致しない状況(図10(a)に示す状況)における撮影位置表示SP'の色彩が、撮影位置表示SP'とグリッドGR'が合致する状況(図10(b)に示す状況)における撮影位置表示SP'の色彩と異なるように、タブレット端末14(制御部143)はタッチパネル142を制御する。
上記の撮影位置表示SP'の色彩の変化は、撮影位置表示SP'とグリッドGR'が合致するタイミングを認識させることを意図したものである。
既に説明したように、本変形例では、撮影位置表示SP'はカメラ13の撮影範囲の中心を示す表示であり、グリッドGR'は図5等に図示したグリッドGRの交点に表示されるものである。また、図9(c)を用いて説明したように、グリッドGRの交点がカメラ13の撮影範囲の中心となるようにカメラ13の撮影を繰り返すことが、撮影対象を網羅的に撮影するためのコツである。従って、上記の撮影位置表示SP'の色彩の変化は、ユーザにカメラ13の最適な撮影タイミングを促している促進表示であるとも言える。
言い換えれば、本変形例は、撮影工程(ステップS105)において、ユーザが移動体10を移動させることによって、グリッドGR'が表す座標のうち特定の座標に撮影位置表示SP'を合致させるとき、タブレット端末14(制御部143)がユーザに撮影を促す促進表示をタッチパネル142に表示させる実施例である。
また、本変形例は、第一表示工程(ステップS103)において、複数の特定の座標を表すグリッドGR'が案内表示としてタッチパネル142に表示されており、撮影工程(ステップS105)において、複数の特定の座標のそれぞれに撮影位置表示を合致させて促進表示が表示される毎に、ユーザがカメラ13による撮影を行うと、第二表示工程(ステップS107)において、タッチパネル142に拡張現実表示される静止画像の撮影範囲が平面方向(仮想の水平面)に沿って整列する実施例である。
図10に示す撮影位置表示SP'及びグリッドGR'は、図5等に図示した撮影位置表示SP及びグリッドGRに比べて、移動体10の移動目標やカメラ13の撮影タイミングを、より直感的にユーザに認識させることができるようになっており、本発明の目的に適った態様になっている。
<変形例>
本発明の実施は、上述した実施形態に限定されるものではなく、種々の変形、改良等が可能である。以上の説明で記載されていない変形例について、以下に列挙する。
図1に図示した移動体10の構造は、本発明に係る移動体の一具体例に過ぎず、本発明の目的を達成可能な範囲において変更可能である。
また、移動体10の移動制御については、ユーザが任意に制御できる態様(自律的に移動するものではない態様)であれば、本発明の目的を達成可能な範囲において変更可能である。
図2に図示した、本発明の撮影方法の実施に係るカメラ13やタブレット端末14の構成は、本発明の説明に必要なものを例示したに過ぎず、図2に図示しない構成が追加されてもよいし、図2に図示した構成の一部が省かれてもよい。
図3に図示したフローチャートは、本発明の撮影方法を説明するために簡略化したものであり、図3に図示した工程の順序は本発明の目的を達成可能な範囲において変更可能であるし、図3に図示しない工程が追加されてもよいし、図3に図示した工程の一部が省かれてもよい。
図4~図8及び図10に図示したタブレット端末14の表示態様は、タッチパネル142の少なくとも一部の表示領域に表示されれば足り、他の表示が追加されることを許容する。
また、その追加される表示の候補には、図9に図示した、設定工程(ステップS101)で設定された座標によって表される仮想空間に基づく表示が含まれ得る。また、この表示の中に他の表示(例えば、移動体10の存在位置を示す表示等)が追加されてもよい。
<付記>
本実施形態は、次のような技術思想を包含する。
(1)ユーザの操作に応じて静止画像を撮影する第一撮影手段と、前記第一撮影手段によって撮影可能な範囲を含み当該範囲より広い範囲の動画像を撮影する第二撮影手段と、表示手段と、前記第二撮影手段によって撮影されている動画像を前記表示手段に表示させる制御手段と、が搭載されている移動体を用いた撮影方法であって、前記制御手段が、前記第一撮影手段の撮影方向に交差する平面方向の座標を設定する設定工程と、前記制御手段が、前記第一撮影手段による撮影位置を示す撮影位置表示と、前記設定工程において設定された座標に基づく案内表示と、を前記表示手段に拡張現実表示させる第一表示工程と、ユーザが、前記撮影位置表示及び前記案内表示に基づいて前記移動体を移動させ、移動させた位置において前記第一撮影手段を操作して静止画像を撮影する撮影工程と、前記制御手段が、前記第一撮影手段によって撮影された静止画像又は静止画像の撮影範囲を、前記表示手段に拡張現実表示させる第二表示工程と、を備え、前記撮影工程における前記第一撮影手段による撮影と、前記第二表示工程における静止画像又は静止画像の撮影範囲の拡張現実表示と、を繰り返すことを特徴とする撮影方法。
(2)前記撮影工程における前記第一撮影手段による撮影と、前記第二表示工程における静止画像又は静止画像の撮影範囲の拡張現実表示と、を繰り返すことによって生成された複数の静止画像を合成して合成画像を生成する合成画像生成工程を更に備える、(1)に記載の撮影方法。
(3)前記撮影工程において、ユーザが前記移動体を移動させることによって、前記案内表示が表す座標のうち特定の座標に前記撮影位置表示を合致させるとき、前記制御手段がユーザに撮影を促す促進表示を前記表示手段に表示させる、(1)又は(2)に記載の撮影方法。
(4)前記第一表示工程において、前記案内表示によって複数の前記特定の座標が表されており、前記撮影工程において、複数の前記特定の座標のそれぞれに前記撮影位置表示を合致させて前記促進表示が表示される毎に、ユーザが前記第一撮影手段による撮影を行うと、前記第二表示工程において、前記表示手段に拡張現実表示される静止画像又は静止画像の撮影範囲が、前記平面方向に沿って整列する、(3)に記載の撮影方法。
(5)前記合成画像生成工程の後に前記第二表示工程を行うとき、前記制御手段は、前記合成画像生成工程において生成された前記合成画像を前記表示手段に拡張現実表示させることができる、(2)に従属している(3)又は(4)に記載の撮影方法。
(6)ユーザの操作に応じて静止画像を撮影する第一撮影手段と、前記第一撮影手段によって撮影可能な範囲を含み当該範囲より広い範囲の動画像を撮影する第二撮影手段と、表示手段と、前記第二撮影手段によって撮影されている動画像を前記表示手段に表示させる制御手段と、が搭載されている移動体であって、前記制御手段が、前記第一撮影手段の撮影方向に交差する平面方向の座標を設定し、前記第一撮影手段による撮影位置を示す撮影位置表示と、設定した座標に基づく案内表示と、を前記表示手段に拡張現実表示させ、前記第一撮影手段によって撮影された静止画像又は静止画像の撮影範囲を、前記表示手段に拡張現実表示させ、前記撮影位置表示及び前記案内表示によって、ユーザによる前記移動体の移動及び前記移動体を用いた撮影を補助する、ことを特徴とする移動体。
10 移動体
11 車体
12 車輪
13 カメラ
14 タブレット端末
141 内蔵カメラ
142 タッチパネル
143 制御部
144 入出力部
145 通信部
20 インターネット
30 クラウドサーバ

Claims (6)

  1. ユーザの操作に応じて静止画像を撮影する第一撮影手段と、
    前記第一撮影手段によって撮影可能な範囲を含み当該範囲より広い範囲の動画像を撮影する第二撮影手段と、
    表示手段と、
    前記第二撮影手段によって撮影されている動画像を前記表示手段に表示させる制御手段と、
    が搭載されている移動体を用いた撮影方法であって、
    前記制御手段が、前記第一撮影手段の撮影方向に交差する平面方向の座標を設定する設定工程と、
    前記制御手段が、前記第一撮影手段による撮影位置を示す撮影位置表示と、前記設定工程において設定された座標に基づく案内表示と、を前記表示手段に拡張現実表示させる第一表示工程と、
    ユーザが、前記撮影位置表示及び前記案内表示に基づいて前記移動体を移動させ、移動させた位置において前記第一撮影手段を操作して静止画像を撮影する撮影工程と、
    前記制御手段が、前記第一撮影手段によって撮影された静止画像又は静止画像の撮影範囲を、前記表示手段に拡張現実表示させる第二表示工程と、
    を備え、
    前記撮影工程における前記第一撮影手段による撮影と、前記第二表示工程における静止画像又は静止画像の撮影範囲の拡張現実表示と、を繰り返すことを特徴とする撮影方法。
  2. 前記撮影工程における前記第一撮影手段による撮影と、前記第二表示工程における静止画像又は静止画像の撮影範囲の拡張現実表示と、を繰り返すことによって生成された複数の静止画像を合成して合成画像を生成する合成画像生成工程を更に備える、
    請求項1に記載の撮影方法。
  3. 前記撮影工程において、ユーザが前記移動体を移動させることによって、前記案内表示が表す座標のうち特定の座標に前記撮影位置表示を合致させたとき、前記制御手段がユーザに撮影を促す促進表示を前記表示手段に表示させる、
    請求項1又は2に記載の撮影方法。
  4. 前記第一表示工程において、前記案内表示によって複数の前記特定の座標が表されており、
    前記撮影工程において、複数の前記特定の座標のそれぞれに前記撮影位置表示を合致させて前記促進表示が表示される毎に、ユーザが前記第一撮影手段による撮影を行うと、
    前記第二表示工程において、前記表示手段に拡張現実表示される静止画像又は静止画像の撮影範囲が、前記平面方向に沿って整列する、
    請求項3に記載の撮影方法。
  5. 前記合成画像生成工程の後に前記第二表示工程を行うとき、前記制御手段は、前記合成画像生成工程において生成された前記合成画像を前記表示手段に拡張現実表示させることができる、
    請求項2に従属している請求項3又は4に記載の撮影方法。
  6. ユーザの操作に応じて静止画像を撮影する第一撮影手段と、
    前記第一撮影手段によって撮影可能な範囲を含み当該範囲より広い範囲の動画像を撮影する第二撮影手段と、
    表示手段と、
    前記第二撮影手段によって撮影されている動画像を前記表示手段に表示させる制御手段と、
    が搭載されている移動体であって、
    前記制御手段が、
    前記第一撮影手段の撮影方向に交差する平面方向の座標を設定し、
    前記第一撮影手段による撮影位置を示す撮影位置表示と、設定した座標に基づく案内表示と、を前記表示手段に拡張現実表示させ、
    前記第一撮影手段によって撮影された静止画像又は静止画像の撮影範囲を、前記表示手段に拡張現実表示させ、
    前記撮影位置表示及び前記案内表示によって、ユーザによる前記移動体の移動及び前記移動体を用いた撮影を補助する、
    ことを特徴とする移動体。
JP2020100806A 2020-06-10 2020-06-10 撮影方法および移動体 Active JP7462187B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020100806A JP7462187B2 (ja) 2020-06-10 2020-06-10 撮影方法および移動体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020100806A JP7462187B2 (ja) 2020-06-10 2020-06-10 撮影方法および移動体

Publications (2)

Publication Number Publication Date
JP2021196416A JP2021196416A (ja) 2021-12-27
JP7462187B2 true JP7462187B2 (ja) 2024-04-05

Family

ID=79197829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020100806A Active JP7462187B2 (ja) 2020-06-10 2020-06-10 撮影方法および移動体

Country Status (1)

Country Link
JP (1) JP7462187B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024516A (ja) 2014-07-17 2016-02-08 株式会社日立製作所 移動式マルチ画像撮影装置
JP2017066620A (ja) 2015-09-28 2017-04-06 倉敷紡績株式会社 構造物検査システム
JP2019158793A (ja) 2018-03-16 2019-09-19 公益財団法人鉄道総合技術研究所 ひび割れ調査装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024516A (ja) 2014-07-17 2016-02-08 株式会社日立製作所 移動式マルチ画像撮影装置
JP2017066620A (ja) 2015-09-28 2017-04-06 倉敷紡績株式会社 構造物検査システム
JP2019158793A (ja) 2018-03-16 2019-09-19 公益財団法人鉄道総合技術研究所 ひび割れ調査装置

Also Published As

Publication number Publication date
JP2021196416A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
CA3016539C (en) Image processing method, display device, and inspection system
KR101566543B1 (ko) 공간 정보 증강을 이용하는 상호 인터랙션을 위한 방법 및 시스템
JP7067554B2 (ja) 画像処理装置および方法
JP2009118416A (ja) 車両周辺画像生成装置および車両周辺画像の歪み補正方法
KR101045323B1 (ko) 다시점 카메라 시스템을 이용한 실시간 항만 영상관제 시스템 및 그 방법
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2008083786A (ja) 画像生成装置および画像生成方法
CN101404122A (zh) 驾驶支援装置、驾驶支援方法以及计算机程序
JP6846661B2 (ja) 3次元的な投影対象のための投影方法及び装置
JP2011254411A (ja) 映像投影システムおよび映像投影プログラム
JP2003219324A (ja) 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム
KR20180060818A (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
CN104512335B (zh) 停车支援装置
WO2020003548A1 (ja) 画像表示システムおよび方法
KR20180121259A (ko) 카메라 탑재형 컴퓨터의 거리검출장치 및 그 방법
CN112740284A (zh) 动画合成装置、动画合成方法以及记录介质
WO2013014872A1 (ja) 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
JP2022183213A (ja) ヘッドマウントディスプレイ
CN114007053B (zh) 图像生成方法、图像生成系统和记录介质
KR101757627B1 (ko) 3차원 모형을 이용한 증강현실 환경의 프로젝션 영역에서의 마커 트래킹 장치 및 그 방법
JP7462187B2 (ja) 撮影方法および移動体
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
JP2006318015A (ja) 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
JP6468952B2 (ja) 意匠検討システム及び意匠検討サーバ
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7462187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150