JP2018038009A - Image output device and image output method - Google Patents
Image output device and image output method Download PDFInfo
- Publication number
- JP2018038009A JP2018038009A JP2016172192A JP2016172192A JP2018038009A JP 2018038009 A JP2018038009 A JP 2018038009A JP 2016172192 A JP2016172192 A JP 2016172192A JP 2016172192 A JP2016172192 A JP 2016172192A JP 2018038009 A JP2018038009 A JP 2018038009A
- Authority
- JP
- Japan
- Prior art keywords
- video
- passenger
- unit
- video data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Digital Computer Display Output (AREA)
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
本発明は、映像出力装置及び映像出力方法に関する。 The present invention relates to a video output device and a video output method.
列車や乗用車等の移動体において、移動体の外界の風景を撮影し、撮影された映像を表示させる技術が知られている。例えば、列車において、現在の車外を撮影した画像データを取得するカメラと同等の画角、時間、車両位置に応じて車外を撮影した過去の画像データを再生する技術が知られている。 2. Description of the Related Art There is a known technique for capturing a scene in the outside world of a moving body such as a train or a passenger car and displaying the captured image. For example, a technique for reproducing past image data taken outside the vehicle according to the same angle of view, time, and vehicle position as a camera that acquires image data taken outside the vehicle in a train is known.
しかし、上記技術では、移動体が通り過ぎた地点の風景をリアルタイムで再現することはできない。例えば、上記技術においては、走行中に撮影された風景を振り返ってもう一度表示させたい場合、記録された映像の中から、振り返りたい場面の映像を探しだすことになるので、風景をリアルタイムで再現することができず、利用者の負担が大きい。 However, with the above technology, it is not possible to reproduce the scenery at a point where the moving body has passed in real time. For example, in the above technology, if you want to look back at a scene taken while driving and display it again, you will find the scene you want to look back from in the recorded video, so you can reproduce the scenery in real time. Cannot be done, and the burden on the user is large.
一つの側面では、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる映像出力装置及び映像出力方法を提供することを目的とする。 In one aspect, an object of the present invention is to provide a video output device and a video output method capable of reproducing in real time a landscape at a point where a moving body has passed.
一つの態様において、映像出力装置は、記憶部と、検出部と、出力部とを有する。記憶部は、搭乗者を輸送する移動体の移動中に撮影装置により撮影された移動体の外界の風景を、映像データとして記憶する。検出部は、移動体の移動中に搭乗者による反応を検出する。出力部は、記憶された映像データのうち、検出された反応に対応する映像データを出力する。 In one aspect, the video output device includes a storage unit, a detection unit, and an output unit. The storage unit stores, as video data, an external landscape of the moving body that is captured by the imaging device while the moving body that transports the passenger is moving. The detection unit detects a reaction by the passenger while the moving body is moving. The output unit outputs video data corresponding to the detected reaction among the stored video data.
一つの態様によれば、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる。 According to one aspect, it is possible to reproduce the scenery at a point where the moving body has passed in real time.
以下、添付図面を参照して、本願の開示する映像出力装置及び映像出力方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a video output device and a video output method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.
[システム構成]
本実施例において、映像出力装置100は、例えばコンピュータであり、移動体などに実装されて用いられる。図1は、実施例1の映像出力装置を実装した移動体の一例を示す図である。本実施例における映像出力装置100は、たとえば移動体の移動中に撮影された映像を記録し、移動体の搭乗者に対して記録された映像を出力するものである。移動体としては、例えば乗用車やタクシー、観光バスなどの車両、電車や客車などを含む列車に加えて、船舶、航空機などが挙げられる。本実施例では、移動体は乗用車など搭乗者を輸送する車両であるものとして説明する。
[System configuration]
In the present embodiment, the
図1に示すように、映像出力装置100を実装する乗用車1000には、風景撮影装置200と、動作撮影装置300と、表示装置500とが設けられ、映像出力装置100と有線又は無線にて通信可能に接続される。
As shown in FIG. 1, a
風景撮影装置200は、移動中の移動体の外界の映像を撮影して、撮影された映像データを映像出力装置100に出力する。外界の映像は、例えば搭乗者が移動中の移動体から、車窓を通じて視認できる風景の映像である。風景撮影装置200は、例えば乗用車1000の左右の車窓付近に設置されたデジタルビデオカメラである。
The
動作撮影装置300は、移動中の移動体の搭乗者の動作を撮影して、撮影された映像データを映像出力装置100に出力する。搭乗者の動作は、搭乗者の視線の変化、表情の変化や手の動き等である。動作撮影装置300は、例えば乗用車1000内の天井部分に設置されたデジタルビデオカメラである。
The motion
表示装置500は、映像出力装置100から出力された映像を表示する。表示装置500は、例えば液晶ディスプレイなどの出力表示装置である。なお、本実施例においては、表示装置500が乗用車1000の窓である例について説明するが、これに限られず、搭乗者の座席の前に設置された液晶ディスプレイ装置などであってもよく、また車窓に映像を投影するプロジェクター装置であってもよい。さらに、表示装置500が、例えばタッチパネルのように、搭乗者が表示装置500に触れたことを検出できるような装置であってもよい。
The
映像出力装置100は、例えば、図1に示すように乗用車1000の後部に設置され、風景撮影装置200から取得した映像データを記録する。また、映像出力装置100は、動作撮影装置300から取得した映像データを用いて搭乗者の動作を検出する。さらに、映像出力装置100は、検出された動作に基づいて搭乗者が指定する時間帯又は対象物を推定し、推定された時間帯又は対象物に対応する記録済みの映像データを読み出して出力する。当該時間帯は、例えば当該対象物が風景撮影装置200により撮影された時間帯、すなわち当該対象物が映像に記録されている時間帯である。
For example, as shown in FIG. 1, the
なお、各装置の数は図1に示す例に限られず、例えば風景撮影装置200が1つのみ実装されていたり、動作撮影装置300が搭乗者の座席ごとに複数用意されていたりする構成であってもよい。また、各装置は専用の装置に限られず、既存のドライブレコーダー、車載ディスプレイ、カーナビゲーションシステムなどを流用してもよい。また、各装置は据置型の機器に限られず、スマートフォンやタブレット等の携帯可能な端末であってもよい。
Note that the number of devices is not limited to the example shown in FIG. 1. For example, only one
また、各実施例における映像出力装置100が設置される位置は、図1に示す位置に限られず、乗用車1000内外の任意の場所に設置してもよい。また、映像出力装置100が遠隔地に設置され、インターネット等を通じて他の各装置と接続されるような構成であってもよい。
Further, the position where the
[機能構成]
次に、図2を用いて、映像出力装置100の機能構成について説明する。映像出力装置100は、記憶部120と、制御部130とを有する。記憶部120は、映像出力装置100が使用するプログラムやデータを記憶する。例えば、記憶部120は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、制御部130が行う各処理に用いられる情報を適宜記憶する。
[Function configuration]
Next, the functional configuration of the
図2に示すように、記憶部120は、映像DB121と、動作DB122とを有する。映像DB121は、移動中の移動体において撮影された映像を記憶する。図3は、実施例1における映像DBの一例を示す図である。図3に示すように、映像DB121は、「撮影日時」と、「ファイル名」とを対応付けて記憶する。例えば、ファイル名が「XXXXXX01.mp4」のファイルは、「2016/08/01 13:00:00」に撮影されたものであることが記録されている。
As illustrated in FIG. 2, the storage unit 120 includes a
動作DB122は、検出される動作に対応する時間帯又は対象を記憶する。図4は、動作DBの一例を示す図である。図4に示すように、動作DB122は、「振り返る」や「指を指す」などの動作に対応する時間帯又は対象物を記憶する。なお、本実施例においては、「視線の変化」や「表情の変化」なども、「動作」に含むものとして説明する。
The
本実施例においては、図4に示すように、動作DB122は、同じ動作であっても、動作の速さや大きさが異なる場合、それぞれ異なる時間帯又は対象物を対応付けて記憶する。例えば、図4に示す動作DB122は、「振り返る」動作が検出された場合において、振り返る速さが「0.3秒未満」である場合、対応する時点が「0.5」秒前であることを記憶する。同様に、図4に示す動作DB122は、振り返る速さが「0.3秒以上」である場合、対応する時点が「3」秒前であることを記憶する。
In this embodiment, as shown in FIG. 4, even when the operation is the same, the
さらに、本実施例においては、動作DB122は、搭乗者を乗せた移動体の移動速度に応じて、時間帯又は対象物に乗じる係数を記憶する。例えば、動作DB122は、搭乗者が「90度以上」振り返ったことが検出された場合において、移動体の移動速度が「時速Xkm」以上であった場合、「2」秒に「0.7」を乗じた「1.4」となることを記憶する。
Further, in the present embodiment, the
次に、制御部130の各機能について説明する。例えば、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、映像出力装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
Next, each function of the control unit 130 will be described. For example, the control unit 130 is realized by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like executing various programs stored in a storage device inside the
制御部130は、映像記録部131と、動作検出部132と、映像抽出部133と、映像出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像記録部131、動作検出部132、映像抽出部133及び映像出力部134は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。
The control unit 130 includes a video recording unit 131, an operation detection unit 132, a
映像記録部131は、移動中の移動体から撮影された映像を記録する処理部である。例えば、映像記録部131は、風景撮影装置200により撮影された映像を取得し、映像データのファイルを、撮影された時間に対応付けて映像DB121に記憶する。
The video recording unit 131 is a processing unit that records a video taken from a moving moving body. For example, the video recording unit 131 acquires a video shot by the
動作検出部132は、移動体の搭乗者の動作を検出する処理部である。なお、上で説明したように、動作検出部132は、搭乗者の手の動き等に加えて、搭乗者の「視線の変化」や「表情の変化」、また表示装置500へのタッチ等も合わせて検出する。動作検出部132は、例えば公知の画像認識技術を用いて、視線、表情又は動きを検出できる。なお、動作検出部132は、検出部の一例である。
The motion detection unit 132 is a processing unit that detects the motion of a passenger on the moving body. Note that, as described above, the motion detection unit 132 performs not only the movement of the passenger's hand, but also the passenger's “change in line of sight”, “change in facial expression”, touch on the
例えば、動作検出部132は、動作撮影装置300から取得された映像データに含まれる搭乗者の顔から、目、鼻または口などの特徴点を抽出し、特徴点の位置に応じて搭乗者の視線方向又は表情を検出する。なお、動作検出部132は、搭乗者の眼球の方向等を特定することにより、搭乗者の視線方向を検出するような構成であってもよい。
For example, the motion detection unit 132 extracts feature points such as eyes, nose or mouth from the face of the passenger included in the video data acquired from the
また、動作検出部132は、表情や視線の変化に加えて、例えば搭乗者の手の位置を認識し、指を指すなどの搭乗者による手の動きを検出する。さらに、動作検出部132は、搭乗者が表示装置500である窓に触れた場合、その触れた位置を検出する。動作検出部132は、検出された表情や視線の変化、及び手の動きや窓へのタッチに関する動作データを生成し、映像抽出部133に出力する。
In addition to the change in facial expression and line of sight, the motion detection unit 132 recognizes the position of the passenger's hand, for example, and detects the movement of the hand by the passenger such as pointing a finger. Furthermore, when the passenger touches a window that is the
映像抽出部133は、検出された動作から推定される映像を抽出する処理部である。例えば、映像抽出部133は、「13:00:10」の時点において、動作検出部132から動作データの出力を受けた場合、動作データに対応する搭乗者の動作を特定する。
The
映像抽出部133は、特定された搭乗者の動作が、「120度以上後方を指さす」動作であると特定した場合、図4に示す動作DB122を参照し、動作データに対応する時点が「10」秒前であることを推定する。そして、映像抽出部133は、動作データの出力を受けた時点から10秒前である「2016/08/01 13:00:00」の時点の映像データのファイル「XXXXXX01.mp4」を、抽出対象の映像データとして特定する。
When the identified motion of the occupant is identified as “pointing backward 120 ° or more”, the
なお、映像抽出部133は、抽出された映像データを、保存対象データとして特定する。例えば、映像抽出部133は、特定された映像データのファイルを、図示しないその他の記憶装置に複製する。また、映像抽出部133は、当該映像データのファイルにブックマークを対応付ける等により、当該ファイルを削除対象から除外する。これにより、例えば公知のドライブレコーダーのように、撮影された映像データが一定時間経過後に削除されるような映像記録装置により撮影された映像データについても、注目された風景に関する映像データを削除させずに保存させることができる。
Note that the
映像出力部134は、特定された映像データを、表示装置500に出力する処理部である。例えば、映像出力部134は、映像抽出部133により特定された「XXXXXX02.mp4」などの映像データのファイルを映像DB121から読み出し、表示装置500に出力する。なお、映像出力部134は、出力部の一例である。
The
映像出力部134が出力する映像の一例について、図5を用いて説明する。図5は、実施例1における車窓に表示される映像の一例を示す図である。図5において、搭乗者を乗せた乗用車1000が、矢印に示す進行方向に移動中であり、現在の位置は地点3000である場合について説明する。
An example of the video output by the
映像出力装置100は、搭乗者が振り返ったことを検出し、かつ振り返った角度が90度未満であったと判定された場合、動作DB122を参照し、当該動作に対応する「0.5秒前」の時点3001において撮影された映像データを表示装置500に表示させる。また、映像出力装置100は、搭乗者が120度以上後方を指さしたことを検出した場合、動作DB122を参照し、当該動作に対応する「10秒前」の時点3010において撮影された映像データを表示装置500に表示させる。
When the
[処理の流れ]
次に、本実施例における映像出力装置100の処理の流れについて、図6を用いて説明する。図6は、実施例1における処理の流れの一例を示すフローチャートである。まず、映像記録部131は、風景撮影装置200から入力される現在撮影中の映像を映像出力部134に出力するとともに、映像データを映像DB121に記憶する。映像出力部134は、映像記録部131から出力された映像を、表示装置500に表示させる(ステップS101)。
[Process flow]
Next, the processing flow of the
次に、動作検出部132は、動作撮影装置300から映像データの入力を受けて、搭乗者の動作を検出し、動作データを映像抽出部133に出力する。動作データの入力を受けた映像抽出部133は、まず、視線の変化が検出されたか否かを判定する(ステップS111)。映像抽出部133は、搭乗者の視線の変化が検出されたと判定された場合(ステップS111:Yes)、ステップS191に移行する。
Next, the motion detection unit 132 receives input of video data from the
視線の変化が検出されなかったと判定された場合(ステップS111:No)、映像抽出部133は、搭乗者の表情の変化が検出されたか否かを判定する(ステップS113)。映像抽出部133は、搭乗者の表情の変化が検出されたと判定された場合(ステップS113:Yes)、ステップS191に移行する。
When it is determined that a change in line of sight has not been detected (step S111: No), the
表情の変化が検出されなかったと判定された場合(ステップS113:No)、映像抽出部133は、搭乗者の手の動きが検出されたか否かを判定する(ステップS115)。映像抽出部133は、搭乗者の手の動きが検出されたと判定された場合(ステップS115:Yes)、ステップS191に移行する。
When it is determined that a change in facial expression has not been detected (step S113: No), the
手の動きが検出されなかったと判定された場合(ステップS115:No)、映像抽出部133は、表示装置500において、搭乗者による画面へのタッチが検出されたか否かを判定する(ステップS117)。映像抽出部133は、画面へのタッチが検出されたと判定された場合(ステップS117:Yes)、ステップS191に移行する。
When it is determined that the movement of the hand has not been detected (step S115: No), the
ステップS191に移行して、映像抽出部133は、動作DB122を参照し、ステップS111乃至S117において検出された視線の変化、表情の変化、手の動き又は画面へのタッチに対応する時間帯又は対象物を推定する。そして、映像抽出部133は、映像DB121から、推定された時間帯又は対象物に対応する映像データを特定する(ステップS191)。映像出力部134は、特定された映像を表示装置500に表示させることにより、特定された映像を再生する(ステップS193)。
In step S191, the
ステップS117に戻って、映像抽出部133は、画面へのタッチが検出されなかったと判定された場合(ステップS117:No)、搭乗者から処理終了の指示を受け付けたか否かを判定する(ステップS161)。処理終了の指示を受け付けたと判定されなかった場合(ステップS161:No)、ステップS101に戻って処理を繰り返す。処理終了の指示を受け付けたと判定された場合(ステップS161:Yes)、処理を終了する。
Returning to step S117, when it is determined that the touch on the screen has not been detected (step S117: No), the
上述するように、本実施例によれば、映像出力装置100は、移動体の移動中において、搭乗者による反応を検出し、検出された反応に対応する時間帯又は対象物を推定する。また、映像出力装置100は、記憶部に記憶された外界の映像のうち、推定された時間帯又は対象物に対応する映像を出力する。これにより、搭乗者は、煩雑な操作を要することなく、容易に通り過ぎた地点の風景をリアルタイムで振り返ることができる。
As described above, according to the present embodiment, the
また、本実施例によれば、撮影された映像データが一定時間経過後に削除されるような映像記録装置により撮影される映像データについても、注目された風景を容易に保存できる。 In addition, according to the present embodiment, it is possible to easily save a noticed landscape for video data shot by a video recording apparatus in which the shot video data is deleted after a lapse of a predetermined time.
実施例1においては、映像出力装置100が、搭乗者の視線、表情、手の動き等の動作に基づいて、対応する映像データを出力する構成について説明したが、実施の形態はこれに限られない。本実施例においては、映像出力装置が、搭乗者が発する音声に基づいて、対応する映像データを出力するような構成について説明する。
In the first embodiment, the configuration in which the
[機能構成]
まず、図7を用いて、本実施例における映像出力装置700の機能構成について説明する。図7は、実施例2における機能構成の一例を示す図である。なお、以下の実施例において、映像DB121、映像記録部131、映像出力部134、風景撮影装置200及び表示装置500は実施例1と同様の処理を行うため、詳細な説明は省略する。
[Function configuration]
First, the functional configuration of the video output apparatus 700 in this embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a functional configuration according to the second embodiment. In the following embodiment, the
本実施例における映像出力装置700は、実施例1と同様に、例えば乗用車1000において実装される。映像出力装置700は、乗用車1000に設けられた風景撮影装置200、音声取得装置400及び表示装置500と通信可能に接続される。
The video output device 700 according to the present embodiment is mounted in, for example, a
音声取得装置400は、移動中の移動体の搭乗者の音声を取得し、音声データを生成して映像出力装置100に出力する。搭乗者の音声は、例えば「あっ!」、「えっ!」などの搭乗者の驚きや感動を示す声や、「あの山」、「あの橋」、「さっき」、「5秒ぐらい前」などの対象物や地点を示す文言を含む。音声取得装置400は、例えば乗用車1000内の天井部分に設置されたマイクロフォンである。
The
映像出力装置700は、実施例1と同様に、例えば、図1に示すように乗用車1000の後部に設置され、風景撮影装置200から取得した映像データを記録する。本実施例における映像出力装置700は、音声取得装置400から取得した音声データを用いて搭乗者の音声を検出する。さらに、映像出力装置700は、検出された音声に基づいて搭乗者が指定する時間帯又は対象物を推定し、推定された時間帯又は対象物に対応する記録済みの映像データを読み出して出力する。
Similar to the first embodiment, the video output device 700 is installed at the rear of the
本実施例において、映像出力装置700は、記憶部720と、制御部730とを有する。記憶部720は、映像出力装置700が使用するプログラムやデータを記憶する。また、記憶部720は、制御部730が行う各処理に用いられる情報を適宜記憶する。
In the present embodiment, the video output device 700 includes a
図7に示すように、記憶部720は、映像DB121と、音声DB723と、ランドマークDB724を有する。音声DB723は、検出される音声に対応する時間帯又は対象物を記憶する。図8は、音声DBの一例を示す図である。図8に示すように、音声DB723は、「キーワード」と、「Rt(秒)」とを対応付けて記憶する。
As illustrated in FIG. 7, the
図8における「キーワード」は、音声データから抽出される文言を示し、「Rt」は、各キーワードに対応する、キーワードが検出された時点から遡る時間を示す。キーワードは、例えば、「あっ!」、「えっ!」など、搭乗者の驚きや感動を示す音声や、「山」、「橋」など、特定の場所を示す文言である。図8に示す音声DB723は、例えば、「山」というキーワードに対応する音声が検出された場合、対応する対象物が「n秒以内に撮影された」山であることを記憶する。また、図8に示す音声DB723は、例えば、「あっ!」というキーワードに対応する驚きの音声が検出された場合、対応する時点が「0.5秒前」であることを記憶する。 In FIG. 8, “keyword” indicates a word extracted from the voice data, and “Rt” indicates a time that goes back from the time when the keyword corresponding to each keyword was detected. The keyword is, for example, a voice indicating a passenger's surprise or impression such as “Ah!” Or “Eh!” Or a word indicating a specific place such as “mountain” or “bridge”. For example, when the voice corresponding to the keyword “mountain” is detected, the voice DB 723 illustrated in FIG. 8 stores that the corresponding target is a mountain “captured within n seconds”. Also, the voice DB 723 illustrated in FIG. 8 stores, for example, that when a surprising voice corresponding to the keyword “Ah!” Is detected, the corresponding time point is “0.5 seconds ago”.
図7に戻って、ランドマークDB724は、搭乗者の注目の対象となるランドマークを、ランドマークのカテゴリや視認可能範囲、関連ワードと対応付けて記憶する。図9は、ランドマークDBの一例を示す図である。図9に示すように、ランドマークDB724は、「ランドマーク」と、「カテゴリ」と、「視認可能範囲」と、「関連ワード」とを対応付けて記憶する。 Returning to FIG. 7, the landmark DB 724 stores landmarks to be noticed by the occupant in association with landmark categories, visible ranges, and related words. FIG. 9 is a diagram illustrating an example of the landmark DB. As illustrated in FIG. 9, the landmark DB 724 stores “landmark”, “category”, “viewable range”, and “related word” in association with each other.
図9における「ランドマーク」は、搭乗者の注目の対象となる対象物であり、山や塔、店舗などの「カテゴリ」に分類される。「視認可能範囲」は、当該ランドマークを視認できる範囲を示す。図9に示すように、例えば山のように大きなランドマークについては、遠くからでも視認できるため視認可能範囲は広く、逆に店などについては視認可能範囲が狭くなる。「関連ワード」は、ランドマークに対応する文言を指し、関連ワードに含まれる音声が検出された際に、対応するランドマークが特定される。例えば、「〜〜カフェ」というランドマークについては、「カフェ」という文言だけでなく、「ミセ」、「キッサテン」などの文言も、ランドマークを特定する対象となる。 “Landmarks” in FIG. 9 are objects to be noticed by passengers, and are classified into “categories” such as mountains, towers, and stores. “Visible range” indicates a range in which the landmark can be visually recognized. As shown in FIG. 9, for example, a landmark as large as a mountain can be viewed from a distance, so that the visible range is wide, and conversely, the visible range is narrow for a store or the like. “Related word” refers to a word corresponding to a landmark, and when a voice included in the related word is detected, the corresponding landmark is specified. For example, with respect to the landmark "~~ cafe", not only the word "cafe" but also words such as "Mise" and "Kissaten" are the objects for specifying the landmark.
次に、制御部730の各機能について説明する。例えば、制御部730は、CPUやMPU等によって、映像出力装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部730は、ASICやFPGA等の集積回路により実現されてもよい。
Next, each function of the
制御部730は、映像記録部131と、映像抽出部733と、映像出力部134と、音声検出部735とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部730の内部構成は、図7に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像抽出部733及び音声検出部735は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。
The
音声検出部735は、移動体の搭乗者の音声を検出する処理部である。例えば、音声検出部735は、音声取得装置400から音声データを取得し、取得された音声データから発話データを抽出する。ここで、発話データは、たとえば搭乗者が発話した内容を表す文字列であるとする。音声検出部735は、例えば公知の音声認識技術を用いることにより、取得された音声データに含まれる発話データを抽出できる。なお、音声検出部735は、検出部の一例である。
The voice detection unit 735 is a processing unit that detects the voice of the passenger of the moving body. For example, the voice detection unit 735 acquires voice data from the
具体的には、音声検出部735は、抽出された発話データが、音声DB723に記憶されるキーワードに合致するか否かを判定する。音声検出部735は、発話データが「あっ!」、「ちょっと前」などのキーワードに合致すると判定した場合、発話データを映像抽出部733に出力する。
Specifically, the voice detection unit 735 determines whether or not the extracted utterance data matches a keyword stored in the voice DB 723. If the speech detection unit 735 determines that the utterance data matches a keyword such as “Ah!” Or “Slightly before”, the speech detection unit 735 outputs the utterance data to the
また、音声検出部735は、抽出された発話データが、ランドマークDB724に記憶される関連ワードに合致するか否かを判定する。音声検出部735は、発話データが「ヤマ」、「ミセ」などの関連ワードに合致すると判定した場合、発話データを映像抽出部733に出力する。
Further, the voice detection unit 735 determines whether or not the extracted utterance data matches a related word stored in the landmark DB 724. If the speech detection unit 735 determines that the speech data matches a related word such as “Yama” or “Mise”, the speech detection unit 735 outputs the speech data to the
本実施例において、映像抽出部733は、出力された発話データから推定される映像を抽出する処理部である。例えば、映像抽出部733は、音声検出部735から発話データの出力を受けると、音声DB723を参照し、出力された発話データに対応する時間帯又は地点を推定し、推定された時間帯又は地点に対応する映像データを特定し、映像出力部134に出力する。なお、映像抽出部733は、特定部の一例である。
In the present embodiment, the
具体的には、映像抽出部733は、「13:00:10」の時点において、音声検出部735から「ちょっと前」という発話データの出力を受けた場合、図8に示す音声DB723を参照し、発話データに対応する時点が「10」秒前であることを推定する。そして、映像抽出部733は、図3に示す映像DB121を参照し、発話データの出力を受けた時点から10秒前である「13:00:00」の時点の映像データのファイル「XXXXXX01.mp4」を、抽出対象の映像データとして特定する。
Specifically, when the
[処理の流れ]
次に、本実施例における映像出力装置700の処理の流れについて、図10を用いて説明する。図10は、実施例2における処理の流れの一例を示すフローチャートである。なお、以下の説明において、図6に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
[Process flow]
Next, the processing flow of the video output apparatus 700 in the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a process flow according to the second embodiment. In the following description, the same reference numerals as those shown in FIG. 6 are the same steps, and detailed description thereof will be omitted.
音声検出部735は、音声取得装置400から音声データの入力を受けて、搭乗者の音声が検出されたか否かを判定する(ステップS211)。音声検出部735は、音声が検出されなかったと判定された場合(ステップS211:No)、ステップS161に移行する。
The voice detection unit 735 receives voice data input from the
音声検出部735は、搭乗者の音声が検出されたと判定された場合(ステップS211:Yes)、検出された音声に関する発話データを生成し、映像抽出部733に出力する。映像抽出部733は、入力された発話データが、音声DB723に記憶されるキーワードに合致するか否かを判定する(ステップS221)。
When it is determined that the passenger's voice is detected (step S211: Yes), the voice detection unit 735 generates utterance data regarding the detected voice and outputs the utterance data to the
発話データがキーワードに合致すると判定された場合(ステップS221:Yes)、映像抽出部733は、音声DB723を参照して検出された文言に対応する時間帯又は対象物を特定し(ステップS223)、ステップS241に移行する。
If it is determined that the utterance data matches the keyword (step S221: Yes), the
一方、発話データがキーワードに合致しなかったと判定された場合(ステップS221:No)、映像抽出部733は、発話データが、ランドマークDB724に記憶される関連ワードに合致するか否かを判定する(ステップS231)。発話データが関連ワードに合致しなかったと判定された場合(ステップS231:No)、ステップS211に戻る。
On the other hand, when it is determined that the utterance data does not match the keyword (step S221: No), the
一方、発話データが関連ワードに合致したと判定された場合(ステップS231:Yes)、映像抽出部733は、ランドマークDB724を参照し、発話データに対応するランドマークを特定する(ステップS233)。そして、映像抽出部733は、特定されたランドマークが撮影された映像データを特定する(ステップS235)。その後、映像抽出部733は、特定された映像データを映像出力部134に出力し、ステップS241に移行する。
On the other hand, when it is determined that the utterance data matches the related word (step S231: Yes), the
以上の実施例により、搭乗者の音声に基づいて、搭乗者が意図する時間帯又は対象物を特定できるので、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる。 According to the above embodiment, since the time zone or the object intended by the passenger can be specified based on the voice of the passenger, the scenery of the point where the moving body passes can be reproduced in real time.
なお、音声検出部735は、発話データを出力する代わりに、音声を検出した場合に映像抽出部733に映像抽出要求を出力し、映像抽出部733は、映像抽出要求を受けた場合に音声が発せられた時点の映像データを抽出するような構成であってもよい。これにより、発話データの生成や解析等を行うことなく、より簡便かつ迅速に風景をリアルタイムで再現することができる。
Note that instead of outputting speech data, the audio detection unit 735 outputs a video extraction request to the
また、音声DB723に記憶される情報及び音声検出部735による処理は、各実施例において説明したものに限られない。例えば、音声DB723が文字情報の代わりに音声特徴を記憶し、音声検出部735が、取得された音声データから抽出した特徴と、記憶された音声特徴とを比較することで、音声を認識するような構成であってもよい。 Further, the information stored in the voice DB 723 and the processing by the voice detection unit 735 are not limited to those described in each embodiment. For example, the speech DB 723 stores speech features instead of character information, and the speech detection unit 735 recognizes speech by comparing the features extracted from the acquired speech data with the stored speech features. It may be a simple configuration.
以上の各実施例においては、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる。しかし、例えば天候が不順で視界が悪い場合や、移動速度が速すぎて映像がぶれてしまう場合、対象物の前に駐車車両等の障害物がある場合など、撮影された映像を見ても、対象物が視認できない場合がある。本実施例においては、同じ場所において、異なる時点で撮影された映像を再現する構成について説明する。 In each of the embodiments described above, the scenery at the point where the moving body passes can be reproduced in real time. However, even if the weather is unsatisfactory and the field of view is poor, the moving speed is too fast and the image is blurred, or there is an obstacle such as a parked vehicle in front of the object, The object may not be visible. In the present embodiment, a description will be given of a configuration for reproducing videos taken at different times in the same place.
[出力例]
まず、本実施例において出力される映像の一例について、図11を用いて説明する。図11は、実施例3における車窓に表示される映像の一例を示す図である。図11の(a)は、移動中の乗用車1000から時点3001において撮影された映像データの一例を示す。例えば時点3001においては晴天であり、対象物である塔が鮮明に撮影されている。一方、図11の(b)は、同じ対象物を、異なる時点3101において、移動中の乗用車1000から撮影した映像データの一例を示す。例えば、時点3101は曇天時であり、図11の(b)に示すように、対象物である塔は雲に隠れてしまっている。
[Output example]
First, an example of an image output in this embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of an image displayed on the vehicle window according to the third embodiment. FIG. 11A shows an example of video data taken at a
このような場合において、本実施例における映像出力装置800は、例えば図11の(c)に示すような、時点3101とは異なる快晴時である時点3201において撮影された映像データを出力する。かかる構成によれば、映像出力装置800は、移動中の乗用車1000から撮影された映像において対象物が視認できない場合においても、例えば時点3201のように異なる時点において撮影された、対象物を視認できる映像データを出力できる。
In such a case, the
なお、異なる時点において撮影された映像(以下において、「異時点映像」と表現する場合がある。)は、例えば乗用車1000が同じ地点を過去に通過した際に撮影され、異時点映像DB825に記憶された映像のデータであるが、これに限られない。例えば、異時点映像データは、同じ地点において他の装置により撮影され、外部のサーバに記憶された映像データであってもよい。
Note that videos taken at different times (hereinafter, sometimes referred to as “different time images”) are taken, for example, when the
[機能構成]
次に、図12を用いて、本実施例における映像出力装置800の機能構成について説明する。図12は、実施例3における機能構成の一例を示す図である。なお、以下の実施例において、映像DB121、動作DB122、動作検出部132、映像抽出部133、映像出力部134、風景撮影装置200、動作撮影装置300及び表示装置500は実施例1と同様の処理を行うため、詳細な説明は省略する。
[Function configuration]
Next, the functional configuration of the
本実施例における映像出力装置800は、実施例1と同様に、例えば乗用車1000において実装される。映像出力装置800は、乗用車1000に設けられた風景撮影装置200、動作撮影装置300及び表示装置500と通信可能に接続される。さらに、映像出力装置800は、外部の映像サーバ210と通信可能に接続される。
The
映像サーバ210は、撮影された異時点映像データを記憶する外部のサーバである。映像サーバ210は、映像出力装置800から受信するリクエストに基づいて、異時点映像データを映像出力装置800に送信する。
The
映像出力装置800は、実施例1と同様に、例えば、図1に示すように乗用車1000の後部に設置され、風景撮影装置200から取得した映像データを記録する。
Similar to the first embodiment, the
本実施例において、映像出力装置800は、通信部810と、操作部811と、記憶部820と、制御部830とを有する。
In the present embodiment, the
通信部810は、外部の装置との間で情報の送受信を行う。例えば、通信部810は、制御部830から出力される異時点映像データのリクエストを映像サーバ210に送信し、映像サーバ210から異時点映像データを受信して、制御部830に出力する。また、通信部810が、図示しない搭乗者の端末から異時点映像表示のリクエストを受信して、制御部830に出力するような構成であってもよい。
The communication unit 810 transmits / receives information to / from an external device. For example, the communication unit 810 transmits a request for different time video data output from the
操作部811は、搭乗者による操作を受け付ける。例えば、操作部811は、搭乗者による異時点映像表示のリクエストを受け付け、制御部830に出力する。操作部811は、例えば映像出力装置800が有する操作ボタンであるが、これに限られず、例えばタッチパネルである表示装置500が操作部811の機能を有するような構成であってもよい。
The operation unit 811 receives an operation by a passenger. For example, the operation unit 811 receives a request for video display at a different time from the passenger and outputs the request to the
記憶部820は、映像出力装置800が使用するプログラムやデータを記憶する。また、記憶部820は、制御部830が行う各処理に用いられる情報を適宜記憶する。図12に示すように、記憶部820は、映像DB121と、動作DB122と、異時点映像DB825を有する。
The
異時点映像DB825は、異時点映像データを、撮影された日時及び地点とともに記憶する。図13は、異時点映像DBの一例を示す図である。図13に示すように、異時点映像DB825は、「撮影日時」と、「撮影地点」と、「ファイル名」とを対応付けて記憶する。例えば、異時点映像DB825には、ファイル名が「XXXYYY01.mp4」のファイルは、「2016/02/01 13:00:00」に「○○高速道路 10.0km地点」において撮影されたものであることが記録されている。
The different time
次に、制御部830の各機能について説明する。例えば、制御部830は、CPUやMPU等によって、映像出力装置800内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部830は、ASICやFPGA等の集積回路により実現されてもよい。
Next, each function of the
制御部830は、映像取得部831と、動作検出部132と、映像抽出部133と、映像出力部134と、異時点映像処理部836とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部830の内部構成は、図8に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像取得部831及び異時点映像処理部836は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。
The
映像取得部831は、移動中の移動体から撮影された映像を記録するとともに、異時点において撮影された映像を取得する処理部である。映像取得部831は、映像記録部131と同様に、風景撮影装置200により撮影された映像を取得し、映像データのファイルを、撮影された時間に対応付けて映像DB121に記憶する。さらに、映像取得部831は、移動中の移動体の現時点に対応する映像を、通信部810を通じて映像サーバ210から取得し、異時点映像DB825に記憶する。
The video acquisition unit 831 is a processing unit that records a video taken from a moving moving body and acquires a video taken at a different time. Similar to the video recording unit 131, the video acquisition unit 831 acquires the video shot by the
異時点映像処理部836は、異時点映像データの表示に関する制御を行う処理部である。例えば、異時点映像処理部836は、操作部811又は通信部810を介して、搭乗者から異時点映像表示のリクエストを受け付ける。また、異時点映像処理部836は、異時点映像DB825を参照し、リクエストに基づいて、映像出力部134が出力している映像の地点と同じ地点において撮影された異時点映像を特定する。
The different time point
[処理の流れ]
次に、本実施例における映像出力装置800の処理の流れについて、図14を用いて説明する。図14は、実施例3における処理の流れの一例を示すフローチャートである。
[Process flow]
Next, a processing flow of the
まず、異時点映像処理部836は、特定された映像が再生されている場合において、異時点映像表示のリクエストを受け付けたか否かを判定する(ステップS311)。異時点映像処理部836は、リクエストを受け付けたと判定された場合(ステップS311:Yes)、現在再生されている映像に対応する地点を特定する(ステップS391)。そして、異時点映像処理部836は、特定された地点に対応する異時点映像を特定し、映像出力部134に出力する。映像出力部134は、出力された異時点映像データを再生する(ステップS393)。
First, the different time point
ステップS311に戻って、異時点映像処理部836は、リクエストを受け付けなかったと判定された場合(ステップS311:No)、処理の終了指示を受け付けたか否かを判定する(ステップS361)。処理終了の指示を受け付けたと判定されなかった場合(ステップS361:No)、ステップS193に戻って処理を繰り返す。処理終了の指示を受け付けたと判定された場合(ステップS361:Yes)、処理を終了する。
Returning to step S311, when it is determined that the request has not been received (step S311: No), the different time
本実施例によれば、移動中に撮影された映像において、対象物が視認できない場合でも、対象物を含む風景に関する映像を再現することができる。また、異なる時点において撮影された映像を表示できるので、夜景などの時間帯による風景の変化や、花火大会などのイベント開催時の風景などを再現することもできる。 According to the present embodiment, even when the target object cannot be visually recognized in the video shot while moving, it is possible to reproduce the video related to the landscape including the target object. In addition, since images taken at different points in time can be displayed, it is possible to reproduce changes in scenery such as night views and scenery at the time of events such as fireworks displays.
なお、異時点映像DB825は、一つの撮影地点について、撮影日時の異なる複数の異時点映像データを記憶してもよい。また、異時点映像処理部836が、撮影日時や撮影時の気象状況等の条件の指定を含む異時点映像表示のリクエストを受け付け、指定された条件に合致する異時点映像データを特定するような構成であってもよい。
The different time
なお、異時点映像DB825は、例えば撮影地点に加えて、撮影方向をさらに記憶してもよく、また撮影地点を緯度経度、高度その他の情報により記憶してもよい。これにより、例えば、地下を移動中に、対応する地上の風景を再現することもできる。さらに、異時点映像DB825は、撮影日時に加えて、撮影時点の気象状況や、イベント開催状況等を記憶してもよい。
Note that the different time
また、異時点映像処理部836は、搭乗者から異時点映像表示のリクエストを受け付けた場合に加えて、日時や天候などが所定の条件に合致した場合に、異時点映像を表示させるような構成であってもよい。例えば、異時点映像処理部836が、図示しない照度センサ等から取得した照度が、予め記憶部820に記憶された閾値を下回ると判定された場合に、異時点映像を表示させるような構成であってもよい。
Further, the different time point
また、異時点映像処理部836が、所定の対象物を含む異時点映像と、同一地点において風景撮影装置200により撮影された現在の映像とを比較し、比較結果に基づいて異時点映像を表示させるような構成であってもよい。例えば、異時点映像処理部836が、現在の映像において所定の対象物が視認できないと判定された場合に、異時点映像を表示させるような構成とすることもできる。
Also, the different time point
なお、本実施例における映像出力部134は、異時点映像と現在の映像とを重畳して表示させてもよく、また公知の映像認識技術を用いて、異時点映像と現在の映像との差分を算出して表示させてもよい。
Note that the
ところで、観光バスや列車、旅客機等の大型の移動体においては、搭乗者の人数も多く、また搭乗者の着席位置によって搭乗者から視認できる風景が異なる場合もある。例えば、観光バスの左側の座席に着席した搭乗者からは、右側の座席に着席した搭乗者から見える観光バスの右側の風景が見えにくい場合がある。そこで、本実施例においては、搭乗者の着席位置を特定し、着席位置に応じた映像を表示させる構成について説明する。 By the way, in a large-sized moving body such as a sightseeing bus, a train, and a passenger plane, the number of passengers is large, and the scenery that can be visually recognized from the passenger may vary depending on the seating position of the passenger. For example, a passenger seated on the left seat of the sightseeing bus may not easily see the scenery on the right side of the sightseeing bus seen by the passenger seated on the right seat. Therefore, in the present embodiment, a configuration will be described in which a seating position of a passenger is specified and an image corresponding to the seating position is displayed.
本実施例における映像出力装置900は、例えば観光バスなどの大型の移動体において実装される。図15は、実施例4の映像出力装置を実装した移動体の一例を示す図である。図15に示すように、映像出力装置900は、例えば観光バス5000の天井などに設置される。なお、以下の実施例において、動作DB122、映像出力部134、風景撮影装置200及び表示装置500は実施例1と同様の処理を行うため、詳細な説明は省略する。
The
本実施例において、観光バス5000は、進行方向に向かって左側の風景を撮影する風景撮影装置200aと、向かって右側の風景を撮影する風景撮影装置200bとの2つの風景撮影装置200を有する。同様に、観光バス5000は、向かって左側の座席に着席する搭乗者5500aの動作を検出する動作撮影装置300aと、向かって右側の座席に着席する搭乗者5500bの動作を検出する動作撮影装置300bとの2つの動作撮影装置300を有する。なお、観光バス5000は、左右にそれぞれ表示装置500a及び500bを有するが、これに限られず、表示装置500を一つだけ有するような構成であってもよく、また各搭乗者の座席に表示装置が設けられるような構成であってもよい。
In this embodiment, the
[機能構成]
次に、図16を用いて、本実施例における映像出力装置900の機能構成について説明する。図16は、実施例4における機能構成の一例を示す図である。なお、以下の実施例において、同一の部位には同一の符号を付し、重複する説明は省略される。
[Function configuration]
Next, the functional configuration of the
図16に示すように、本実施例における映像出力装置900は、記憶部920と、制御部930とを有する。記憶部920は、映像出力装置900が使用するプログラムやデータを記憶する。また、記憶部920は、制御部930が行う各処理に用いられる情報を適宜記憶する。図16に示すように、記憶部920は、映像DB921と、動作DB122とを有する。
As shown in FIG. 16, the
本実施例における映像DB921は、風景撮影装置200a及び200bから取得した映像データを、撮影日時、撮影地点及び撮影方向とともに記憶する。図17は、実施例4における映像DBの一例を示す図である。図17に示すように、映像DB921は、「撮影日時」と、「撮影地点」と、「撮影方向」と、「ファイル名」とを対応付けて記憶する。
The video DB 921 in this embodiment stores the video data acquired from the
本実施例において、風景撮影装置200aから取得された映像データは、「撮影方向」に「左側」が記憶され、風景撮影装置200bから取得された映像データは、「撮影方向」に「右側」が記憶される。例えば、映像DB921には、ファイル名が「XXXXXR01.mp4」のファイルは、「2016/08/01 13:00:00」に「○○高速道路 10.0km地点」において、風景撮影装置200bにより撮影されたものであることが記録されている。
In the present embodiment, “left side” is stored in the “shooting direction” for the video data acquired from the
次に、制御部930の各機能について説明する。例えば、制御部930は、CPUやMPU等によって、映像出力装置900内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部930は、ASICやFPGA等の集積回路により実現されてもよい。
Next, each function of the
制御部930は、映像記録部931と、動作検出部932a及び932bと、映像抽出部933と、映像出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部930の内部構成は、図16に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像記録部931、動作検出部932a、932b及び映像抽出部933は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。
The
本実施例における映像記録部931は、移動中の移動体から撮影された映像を、撮影方向と対応付けて記録する処理部である。映像記録部931は、風景撮影装置200aにより撮影された映像を取得し、映像データのファイルを、撮影された時間、撮影地点及び撮影方向「左側」に対応付けて映像DB921に記憶する。また、映像記録部931は、風景撮影装置200bにより撮影された映像を取得し、映像データのファイルを、撮影された時間、撮影地点及び撮影方向「右側」に対応付けて映像DB921に記憶する。
The
動作検出部932aは、移動体の左側の座席に着席する搭乗者5500aの動作を検出する処理部である。また、動作検出部932bは、移動体の右側の座席に着席する搭乗者5500bの動作を検出する処理部である。動作検出部932a及び932bにおける処理は、動作検出部132と同様であるため、詳細な説明は省略する。
The
映像抽出部933は、検出された搭乗者の動作と、搭乗者の着席位置から推定される映像を抽出する処理部である。例えば、図15に示すような例において、映像抽出部933は、動作検出部932aから、搭乗者5500aが左後方を指さすことを示す動作データの出力を受ける。この場合において、映像抽出部933は、動作DB122に記憶された動作に合致する場合、合致した動作に対応する時間帯又は対象物を特定する。そして、映像抽出部933は、特定された時間帯又は対象物に対応する、撮影方向が「左側」である映像データを特定する。また、映像抽出部933は、動作検出部932bから出力された動作データに合致する動作に対応する時間帯又は対象物を特定し、特定された時間帯又は対象物に対応する、撮影方向が「右側」である映像データを特定する。
The
[処理の流れ]
次に、本実施例における映像出力装置900の処理の流れについて、図18を用いて説明する。図18は、実施例4における処理の流れの一例を示すフローチャートである。なお、以下の説明において、図6に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
[Process flow]
Next, the flow of processing of the
動作検出部932a及び932bは、それぞれ動作撮影装置300a及び300bから映像データの入力を受けて、搭乗者の動作を検出し、動作データを映像抽出部933に出力する。動作データの入力を受けた映像抽出部933は、ステップS111乃至S117に示す各処理を実施する。
The
ステップS111乃至S117において各動作が検出された場合、映像抽出部133は、動作DB122を参照し、ステップS111乃至S117において検出された視線の変化、表情の変化、手の動き又は画面へのタッチに対応する時間帯又は対象物を推定する。また、映像抽出部933は、動作検出部932aにおいて動作が検出された場合、撮影方向が「左側」であることを特定し、動作検出部932bにおいて動作が検出された場合、撮影方向が「右側」であることを特定する。そして、映像抽出部933は、映像DB921から、推定された時間帯又は対象物及び撮影方向に対応する映像データを特定し(ステップS401)、ステップS193に移行する。
When each motion is detected in steps S111 to S117, the
本実施例によれば、風景が見える席とは反対側の席に座っている搭乗者も、風景が見える席に座っている搭乗者と同様に、風景を楽しむことができる。なお、例えば観光バス5000の右側の車窓を表示装置500bとして、左側の風景撮影装置200aにより撮影された映像を表示させる場合、車両の進行方向と映像が動く方向とが一致するように、振り返り映像を左右反転させて表示させてもよい。
According to the present embodiment, a passenger sitting in a seat on the opposite side of the seat where the scenery can be seen can enjoy the scenery as well as a passenger sitting in the seat where the scenery can be seen. For example, when displaying an image captured by the
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。例えば、図6、図10、図14及び図18に示す各処理は、上記の順番に限定されるものではなく、図6のステップS111乃至S117など、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. For example, the processes shown in FIGS. 6, 10, 14, and 18 are not limited to the above-described order, and are performed simultaneously within a range that does not contradict the process contents, such as steps S111 to S117 in FIG. Alternatively, the order may be changed.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、映像出力装置100において、映像抽出部133及び映像出力部134を統合するような構成であってもよく、又は動作検出部132を、視線を検出する処理部と手の動きを検出する処理部とに分散するような構成であってもよい。また、動作撮影装置300及び音声取得装置400を統合するような構成であってもよい。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure. That is, all or a part of them can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. For example, in the
また、各実施例においては、映像出力装置が音声検出及び動作検出のいずれかを行う構成について説明したが、これに限られず、映像出力装置が音声検出と動作検出との両方を行う構成であってもよい。また、映像出力装置が、視線の変化、表情の変化及び手の動きのうち、少なくともいずれか1つを行うような構成であってもよい。例えば、映像出力装置100が、図6の符号S111乃至S117に示す各判定処理のうち、少なくともいずれか1つを実行するような処理の流れであってもよい。また、図6のS111乃至S117又は図10のS211乃至S231に示す各処理以外の方法により、搭乗者が特定の時間帯又は地点を指定したことを示す情報を検出する処理を含むような構成であってもよい。例えば、音声検出部735が、所定の音量(例えば80db以上)の音声を検出した場合に、映像抽出部733が対応する時間帯又は対象物を特定するような構成であってもよい。
In each embodiment, the configuration in which the video output device performs either audio detection or motion detection has been described. However, the configuration is not limited to this, and the video output device has a configuration in which both audio detection and motion detection are performed. May be. Further, the video output device may be configured to perform at least one of a change in line of sight, a change in facial expression, and a hand movement. For example, the processing flow may be such that the
また、映像出力部134は、通常は映像を表示させず、搭乗者の音声又は動作を検出した場合に映像を表示させるような構成であってもよい。このような構成においては、例えば表示装置500が移動体の窓を兼ねるような場合において、映像が表示されていないときは移動体の外界を映像ではなく直接視認することができる。
In addition, the
なお、映像記録部131、931又は映像取得部831は、映像出力部134が映像を表示装置500に表示させている最中も、引き続き風景撮影装置200から映像データを取得するような構成であってもよい。この場合において、動作検出部132、932a及び932b並びに音声検出部735が、映像出力部134が映像を表示装置500に表示させている最中においても、さらに音声又は動作を検出するような構成であってもよい。これにより、搭乗者の音声又は動作に基づいて特定された時間帯又は地点の映像データを再生している場合においても、さらに搭乗者の音声又は動作に基づいて時間帯又は地点を特定し、映像データを再生することができる。
Note that the
なお、動作又は音声と、対象となる時間帯又は地点との対応関係は、例えば予め記憶されたテーブルに基づいて特定されるが、これに限られず、例えば動作と時間帯との対応関係を定めた数式に動作データを当てはめることにより、時間帯を特定してもよい。 Note that the correspondence between the action or voice and the target time zone or point is specified based on, for example, a pre-stored table, but is not limited to this. For example, the correspondence between the operation and the time zone is determined. The time zone may be specified by applying the operation data to the formula.
また、映像出力部134が出力する映像データは、例えばリアルタイムで撮影された動画データであるが、これに限られず、静止画像やコマ送り画像などの映像データであってもよい。なお、図3又は図17に示す映像DBは一例であり、例えば連続して記録された一つの映像データに対して付されたタイムスタンプを記憶するような構成であってもよい。
The video data output by the
また、映像抽出部133、733及び933は、搭乗者による指示などに基づいて、表示させる映像とは異なる時間帯の映像をさらに表示させるような構成であってもよい。例えば、図5に示す地点3000において、映像抽出部133が時点3001において撮影された映像データを抽出したが、搭乗者1500が振り返りたい風景は時点3001のものではなく時点3010のものである場合がある。この場合、動作検出部132は、例えば搭乗者1500が表示装置500をスワイプし、又は搭乗者1500が後方を指さしたことを検出し、映像抽出部133が時点3001において撮影された映像データを抽出するような構成であってもよい。これにより、映像抽出部133は、抽出した映像データが搭乗者1500の意図したものではない場合であっても、搭乗者の意図する映像データをさらに抽出することができる。
Further, the
さらに、映像抽出部133、733及び933が、搭乗者による動作又は音声による学習結果に従って、動作DB122、音声DB723又はランドマークDB724を更新するような構成であってもよい。例えば、特定の店舗を含む映像データが複数回再生された場合、映像抽出部733が、ランドマークDB724に、当該店舗に関する情報を新たに登録してもよい。
Further, the
また、音声検出部735が「ちょっと前」という音声を検出し、映像抽出部733が音声DB723を参照して「10秒前」の映像データを出力した場合において、搭乗者が「10秒前」の映像ではなく「2秒前」の映像を要求する場合がある。このような要求が連続した場合において、映像抽出部733が、音声DB723の「ちょっと前」に対応する「Rt(秒)」を、「10」から「2」に更新するような構成であってもよい。
In addition, when the voice detection unit 735 detects the voice “slightly before” and the
また、映像抽出部133、733及び933が、搭乗者の動作又は音声に基づいて時間帯又は対象物を特定する構成は、上記したものに限られない。例えば、映像抽出部733が、搭乗者1500の音声が検出された時点における位置情報を取得し、ランドマークDB724を参照して、当該位置情報に該当するランドマークを含む映像を抽出するような構成であってもよい。また、映像出力部134が、複数の時点において撮影された画像を表示装置500にサムネイル表示させ、このうち搭乗者1500が選択する画像に該当する映像データを出力するような構成であってもよい。
Moreover, the structure which the image |
[ハードウェア構成]
本実施形態に係る映像出力装置100、700、800及び900は、図19に一例として示す構成のコンピュータ600で実現することができる。図19は、映像出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
[Hardware configuration]
The
コンピュータ600は、CPU(Central Processing Unit)610と、ROM(Read Only Memory)620と、RAM(Random Access Memory)630と、HDD(Hard Disk Drive)640とを備える。また、コンピュータ600は、メディアインターフェイス(I/F)650と、通信インターフェイス(I/F)660と、入出力インターフェイス(I/F)670とを備える。
The
なお、コンピュータ600は、SSD(Solid State Drive)を備え、かかるSSDがHDD640の一部または全ての機能を実行するようにしてもよい。また、HDD640に代えてSSDを設けることとしてもよい。
The
CPU610は、ROM620およびHDD640の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM620は、コンピュータ600の起動時にCPU610によって実行されるブートプログラムや、コンピュータ600のハードウェアに依存するプログラムなどを格納する。HDD640は、CPU610によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。
The
メディアI/F650は、記憶媒体680に格納されたプログラムやデータを読み取り、RAM630を介してCPU610に提供する。CPU610は、かかるプログラムを、メディアI/F650を介して記憶媒体680からRAM630上にロードし、ロードしたプログラムを実行する。あるいは、CPU610は、かかるデータを用いてプログラムを実行する。記憶媒体680は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。
The media I /
通信I/F660は、ネットワーク690を介して映像サーバ210等の他の機器からデータを受信してCPU610に送り、CPU610が生成したデータを、ネットワーク690を介して他の機器へ送信する。あるいは、通信I/F660は、ネットワーク690を介して他の機器からプログラムを受信してCPU610に送り、CPU610がかかるプログラムを実行する。通信I/F660は、例えば、通信部810の機能を実現する。
The communication I /
CPU610は、入出力I/F670を介して、風景撮影装置200、動作撮影装置300、音声取得装置400及び表示装置500等を制御する。CPU610は、入出力I/F670を介して、風景撮影装置200、動作撮影装置300及び音声取得装置400等からデータを取得する。また、CPU610は、通信I/F660を介して、映像サーバ210等からデータを取得する。また、CPU610は、生成したデータを入出力I/F670を介して表示装置500等に出力する。
The
例えば、コンピュータ600が映像出力装置100、700、800又は900として機能する場合、コンピュータ600のCPU610は、RAM630上にロードされたプログラムを実行する。これにより、CPU610は、映像記録部131又は931、映像取得部831、動作検出部132、932a又は932b、映像抽出部133、733、933、映像出力部134、音声検出部735及び異時点映像処理部836の各部の機能を実現する。
For example, when the
コンピュータ600のCPU610は、例えばこれらのプログラムを記憶媒体680から読み取って実行するが、他の例として、他の装置からネットワーク690を介してこれらのプログラムを取得してもよい。
For example, the
100、700、800、900 映像出力装置
120、720、820、920 記憶部
121、921 映像DB
122 動作DB
130、730、830、930 制御部
131、931 映像記録部
132、932a、932b 動作検出部
133、733、933 映像抽出部
134 映像出力部
723 音声DB
724 ランドマークDB
735 音声検出部
810 通信部
811 操作部
825 異時点映像DB
831 映像取得部
836 異時点映像処理部
200、200a、200b 風景撮影装置
210 映像サーバ
300、300a、300b 動作撮影装置
400 音声取得装置
500、500a、500b 表示装置
100, 700, 800, 900
122 Operation DB
130, 730, 830, 930
724 Landmark DB
735 Audio detection unit 810 Communication unit 811
831
Claims (8)
前記移動体の移動中に前記搭乗者による反応を検出する検出部と、
記憶された前記映像データのうち、検出された前記反応に対応する映像データを出力する出力部と
を有することを特徴とする映像出力装置。 A storage unit for storing, as video data, an external landscape of the moving body imaged by the imaging device during movement of the moving object that transports the passenger;
A detection unit for detecting a reaction by the passenger during the movement of the moving body;
An output unit that outputs video data corresponding to the detected reaction among the stored video data.
前記検出部は、前記反応として、前記搭乗者が前記外界の風景を見落としたことを示すジェスチャを発したことを検出し、
前記特定部は、前記ジェスチャと時間帯又は対象物との対応関係を用いて、前記過去の時間帯又は前記対象物を特定し、
前記出力部は、特定された前記時間帯又は前記対象物に対応する映像データを出力することを特徴とする請求項1に記載の映像出力装置。 It further has a specifying unit for specifying an object photographed from a past time zone or a point that has passed in the past,
The detection unit detects, as the reaction, that the passenger has issued a gesture indicating that the scenery of the outside world has been overlooked,
The specifying unit specifies the past time zone or the object using a correspondence relationship between the gesture and a time zone or the object,
The video output apparatus according to claim 1, wherein the output unit outputs video data corresponding to the specified time zone or the object.
前記検出部は、前記反応が検出された搭乗者の搭乗位置を検出し、
前記出力部は、記憶された複数の前記映像データのうち、検出された前記搭乗者の搭乗位置から見える外界の風景の映像データを、前記反応が検出された搭乗者の搭乗位置と異なる搭乗位置の搭乗者に対して出力することを特徴とする請求項1又は2に記載の映像出力装置。 The storage unit stores, as different video data, videos obtained by photographing the scenery of the outside world seen from the boarding positions of the plurality of passengers,
The detection unit detects a boarding position of a passenger from which the reaction is detected,
The output unit is a boarding position different from the boarding position of the passenger from which the reaction is detected, out of a plurality of the stored video data, video data of an external scenery seen from the boarding position of the passenger is detected. The video output device according to claim 1, wherein the video output device outputs to a passenger.
前記特定部は、前記視線の変化、前記表情の変化、又は前記手の動きと、前記時間帯又は前記対象物との対応関係を用いて、検出された前記視線の変化、前記表情の変化、又は前記手の動きに対応する時間帯又は対象物を特定し、
前記出力部は、特定された前記時間帯又は前記対象物に対応する映像データを出力することを特徴とする請求項2に記載の映像出力装置。 The detection unit detects, as the gesture, a change in the line of sight of the passenger, a change in facial expression, or a hand movement,
The specifying unit uses the correspondence between the change in the line of sight, the change in the facial expression, or the movement of the hand and the time zone or the object, and the change in the visual line detected, the change in the facial expression, Or identify the time zone or object corresponding to the hand movement,
The video output apparatus according to claim 2, wherein the output unit outputs video data corresponding to the specified time zone or the object.
前記出力部は、前記音声が発生した時間帯に撮影された前記映像データを出力することを特徴とする請求項1乃至4のいずれか1つに記載の映像出力装置。 The detection unit detects the voice of the passenger,
5. The video output apparatus according to claim 1, wherein the output unit outputs the video data captured in a time zone in which the sound is generated.
前記特定部は、前記文言に対応付けられる時間、又は前記文言が示す対象物を特定し、
前記出力部は、前記検出された時点から特定された前記時間の分だけ遡った時点の映像データ、又は特定された前記対象物が撮影された映像データを出力することを特徴とする請求項2に記載の映像出力装置。 The detection unit extracts a word included in the passenger's voice,
The specifying unit specifies a time associated with the word or an object indicated by the word,
The output unit outputs video data at a time point that is traced back by the specified time from the detected time point, or video data obtained by photographing the specified object. The video output device described in 1.
前記出力部は、特定された前記時間帯又は前記対象物に対応する前記異時点映像データを出力することを特徴とする請求項2に記載の映像出力装置。 The storage unit further stores different time point video data shot at a time point different from the time point when the outside landscape of the moving object was shot, corresponding to the video data.
The video output device according to claim 2, wherein the output unit outputs the video at different time points corresponding to the specified time zone or the object.
搭乗者を輸送する移動体の移動中に撮影装置により撮影された、前記移動体の外界の風景を映像データとして記憶し、
前記移動体の移動中に前記搭乗者による反応を検出し、
記憶された前記映像データのうち、検出された前記反応に対応する映像データを出力する
処理を実行することを特徴とする映像出力方法。 Computer
Storing, as video data, the scenery of the outside of the moving body, which was captured by the imaging device during the movement of the moving body that transports the passenger,
Detecting a reaction by the passenger during the movement of the moving body;
A video output method comprising: executing a process of outputting video data corresponding to the detected reaction among the stored video data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172192A JP2018038009A (en) | 2016-09-02 | 2016-09-02 | Image output device and image output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172192A JP2018038009A (en) | 2016-09-02 | 2016-09-02 | Image output device and image output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018038009A true JP2018038009A (en) | 2018-03-08 |
JP2018038009A5 JP2018038009A5 (en) | 2019-09-26 |
Family
ID=61567766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016172192A Pending JP2018038009A (en) | 2016-09-02 | 2016-09-02 | Image output device and image output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018038009A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020068436A (en) * | 2018-10-23 | 2020-04-30 | 東京瓦斯株式会社 | Information processing system and program |
WO2020137881A1 (en) | 2018-12-26 | 2020-07-02 | パイオニア株式会社 | Display control device, operation detection device, display control method, and display control program |
WO2020137883A1 (en) | 2018-12-26 | 2020-07-02 | パイオニア株式会社 | Display control device, display control method, and display control program |
JP2023085170A (en) * | 2021-12-08 | 2023-06-20 | 亞視亨國際企業股▲ふん▼有限公司 | Modular vehicle control system |
JP7442933B2 (en) | 2020-03-20 | 2024-03-05 | アルパイン株式会社 | Vehicle image processing device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244709A (en) * | 2002-02-19 | 2003-08-29 | Fuji Photo Film Co Ltd | Digital camera |
JP2004128680A (en) * | 2002-09-30 | 2004-04-22 | Fuji Photo Film Co Ltd | Image pickup apparatus, editing apparatus, editing system, and editing method |
JP2005176076A (en) * | 2003-12-12 | 2005-06-30 | Toshiba Corp | Camera monitoring system and its monitoring control method |
JP2009093076A (en) * | 2007-10-11 | 2009-04-30 | Mitsubishi Electric Corp | Image display system in train |
-
2016
- 2016-09-02 JP JP2016172192A patent/JP2018038009A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244709A (en) * | 2002-02-19 | 2003-08-29 | Fuji Photo Film Co Ltd | Digital camera |
JP2004128680A (en) * | 2002-09-30 | 2004-04-22 | Fuji Photo Film Co Ltd | Image pickup apparatus, editing apparatus, editing system, and editing method |
JP2005176076A (en) * | 2003-12-12 | 2005-06-30 | Toshiba Corp | Camera monitoring system and its monitoring control method |
JP2009093076A (en) * | 2007-10-11 | 2009-04-30 | Mitsubishi Electric Corp | Image display system in train |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020068436A (en) * | 2018-10-23 | 2020-04-30 | 東京瓦斯株式会社 | Information processing system and program |
JP7166139B2 (en) | 2018-10-23 | 2022-11-07 | 東京瓦斯株式会社 | Information processing system and program |
WO2020137881A1 (en) | 2018-12-26 | 2020-07-02 | パイオニア株式会社 | Display control device, operation detection device, display control method, and display control program |
WO2020137883A1 (en) | 2018-12-26 | 2020-07-02 | パイオニア株式会社 | Display control device, display control method, and display control program |
JPWO2020137881A1 (en) * | 2018-12-26 | 2021-11-18 | パイオニア株式会社 | Display control device, operation detection device, display control method and display control program |
JPWO2020137883A1 (en) * | 2018-12-26 | 2021-11-18 | パイオニア株式会社 | Display control device, display control method and display control program |
US11361796B2 (en) | 2018-12-26 | 2022-06-14 | Pioneer Corporation | Display control device, operation detection device, display control method, and display control program |
JP2022121459A (en) * | 2018-12-26 | 2022-08-19 | パイオニア株式会社 | Display control device, operation detection device, display control method, and display control program |
EP3904158A4 (en) * | 2018-12-26 | 2022-10-12 | Pioneer Corporation | Display control device, operation detection device, display control method, and display control program |
US11758092B2 (en) | 2018-12-26 | 2023-09-12 | Pioneer Corporation | Display control device, display control method, and display control program |
JP7442933B2 (en) | 2020-03-20 | 2024-03-05 | アルパイン株式会社 | Vehicle image processing device |
JP2023085170A (en) * | 2021-12-08 | 2023-06-20 | 亞視亨國際企業股▲ふん▼有限公司 | Modular vehicle control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102432614B1 (en) | A shared experience for vehicle occupants and remote users | |
US20210081650A1 (en) | Command Processing Using Multimodal Signal Analysis | |
JP2018038009A (en) | Image output device and image output method | |
US9864559B2 (en) | Virtual window display system | |
US9918038B2 (en) | System and method for multimedia capture | |
EP3244591B1 (en) | System and method for providing augmented virtual reality content in autonomous vehicles | |
US20220058407A1 (en) | Neural Network For Head Pose And Gaze Estimation Using Photorealistic Synthetic Data | |
US20130265333A1 (en) | Augmented Reality Based on Imaged Object Characteristics | |
JP4669448B2 (en) | Information recording apparatus, information recording method, and program | |
US20140277833A1 (en) | Event triggered trip data recorder | |
US20230093446A1 (en) | Information processing device, information processing method, and program | |
US20200351478A1 (en) | Display control device and display control method, display device, and mobile device | |
US9983407B2 (en) | Managing points of interest | |
JP2016053880A (en) | On-vehicle system, information processing method, and computer program | |
CN112954486B (en) | Vehicle-mounted video trace processing method based on sight attention | |
US20220092860A1 (en) | Extended reality for moving platforms | |
US20200342764A1 (en) | Providing a model of a vehicle to a rider at an accurate orientation | |
JP2021044779A (en) | Image display device, image display method, and image display system | |
JP2021093008A (en) | Vehicle-purpose recording control device, vehicle-purpose recording control method, and program | |
WO2022004394A1 (en) | Information processing device, information processing method, and program | |
JP2022183498A (en) | Information providing device and information providing method | |
WO2024078740A1 (en) | Celestial observation system for vehicle and celestial observation method for vehicle | |
JP2021190801A (en) | Recording control device, and recording system | |
JP2021190800A (en) | Recording control device, and recording system | |
JP2024080254A (en) | Location information acquisition control device and location information acquisition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201222 |