JP2018038009A - Image output device and image output method - Google Patents

Image output device and image output method Download PDF

Info

Publication number
JP2018038009A
JP2018038009A JP2016172192A JP2016172192A JP2018038009A JP 2018038009 A JP2018038009 A JP 2018038009A JP 2016172192 A JP2016172192 A JP 2016172192A JP 2016172192 A JP2016172192 A JP 2016172192A JP 2018038009 A JP2018038009 A JP 2018038009A
Authority
JP
Japan
Prior art keywords
video
passenger
unit
video data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016172192A
Other languages
Japanese (ja)
Other versions
JP2018038009A5 (en
Inventor
愛弓 重松
Ayumi SHIGEMATSU
愛弓 重松
智史 曽田
Tomohito Soda
智史 曽田
悟 池田
Satoru Ikeda
悟 池田
将嘉 伊井野
Takeyoshi Iino
将嘉 伊井野
智春 山本
Chiharu Yamamoto
智春 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016172192A priority Critical patent/JP2018038009A/en
Publication of JP2018038009A publication Critical patent/JP2018038009A/en
Publication of JP2018038009A5 publication Critical patent/JP2018038009A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

PROBLEM TO BE SOLVED: To reproduce the landscape of a spot which a moving object has passed through, in real time.SOLUTION: An image output device comprises a storage part, a detection part, and an output part. The storage part stores as image data the landscape of the environment of the moving body photographed by a photographing device during the travel of the moving body which transports passengers. The detection part detects reaction by the passengers during the travel of the moving body. The output part outputs image data corresponding to the detected reaction among the stored image data.SELECTED DRAWING: Figure 2

Description

本発明は、映像出力装置及び映像出力方法に関する。   The present invention relates to a video output device and a video output method.

列車や乗用車等の移動体において、移動体の外界の風景を撮影し、撮影された映像を表示させる技術が知られている。例えば、列車において、現在の車外を撮影した画像データを取得するカメラと同等の画角、時間、車両位置に応じて車外を撮影した過去の画像データを再生する技術が知られている。   2. Description of the Related Art There is a known technique for capturing a scene in the outside world of a moving body such as a train or a passenger car and displaying the captured image. For example, a technique for reproducing past image data taken outside the vehicle according to the same angle of view, time, and vehicle position as a camera that acquires image data taken outside the vehicle in a train is known.

特開2009−93076号公報JP 2009-93076 A

しかし、上記技術では、移動体が通り過ぎた地点の風景をリアルタイムで再現することはできない。例えば、上記技術においては、走行中に撮影された風景を振り返ってもう一度表示させたい場合、記録された映像の中から、振り返りたい場面の映像を探しだすことになるので、風景をリアルタイムで再現することができず、利用者の負担が大きい。   However, with the above technology, it is not possible to reproduce the scenery at a point where the moving body has passed in real time. For example, in the above technology, if you want to look back at a scene taken while driving and display it again, you will find the scene you want to look back from in the recorded video, so you can reproduce the scenery in real time. Cannot be done, and the burden on the user is large.

一つの側面では、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる映像出力装置及び映像出力方法を提供することを目的とする。   In one aspect, an object of the present invention is to provide a video output device and a video output method capable of reproducing in real time a landscape at a point where a moving body has passed.

一つの態様において、映像出力装置は、記憶部と、検出部と、出力部とを有する。記憶部は、搭乗者を輸送する移動体の移動中に撮影装置により撮影された移動体の外界の風景を、映像データとして記憶する。検出部は、移動体の移動中に搭乗者による反応を検出する。出力部は、記憶された映像データのうち、検出された反応に対応する映像データを出力する。   In one aspect, the video output device includes a storage unit, a detection unit, and an output unit. The storage unit stores, as video data, an external landscape of the moving body that is captured by the imaging device while the moving body that transports the passenger is moving. The detection unit detects a reaction by the passenger while the moving body is moving. The output unit outputs video data corresponding to the detected reaction among the stored video data.

一つの態様によれば、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる。   According to one aspect, it is possible to reproduce the scenery at a point where the moving body has passed in real time.

図1は、実施例1の映像出力装置を実装した移動体の一例を示す図である。FIG. 1 is a diagram illustrating an example of a moving object on which the video output apparatus according to the first embodiment is mounted. 図2は、実施例1における機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration according to the first embodiment. 図3は、実施例1における映像DBの一例を示す図である。FIG. 3 is a diagram illustrating an example of the video DB according to the first embodiment. 図4は、動作DBの一例を示す図である。FIG. 4 is a diagram illustrating an example of the operation DB. 図5は、実施例1における車窓に表示される映像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed on the vehicle window according to the first embodiment. 図6は、実施例1における処理の流れの一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a process flow according to the first embodiment. 図7は、実施例2における機能構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a functional configuration according to the second embodiment. 図8は、音声DBの一例を示す図である。FIG. 8 is a diagram illustrating an example of the voice DB. 図9は、ランドマークDBの一例を示す図である。FIG. 9 is a diagram illustrating an example of the landmark DB. 図10は、実施例2における処理の流れの一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a process flow according to the second embodiment. 図11は、実施例3における車窓に表示される映像の一例を示す図である。FIG. 11 is a diagram illustrating an example of an image displayed on the vehicle window according to the third embodiment. 図12は、実施例3における機能構成の一例を示す図である。FIG. 12 is a diagram illustrating an example of a functional configuration according to the third embodiment. 図13は、異時点映像DBの一例を示す図である。FIG. 13 is a diagram illustrating an example of the different time point image DB. 図14は、実施例3における処理の流れの一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a process flow according to the third embodiment. 図15は、実施例4の映像出力装置を実装した移動体の一例を示す図である。FIG. 15 is a diagram illustrating an example of a moving object on which the video output device according to the fourth embodiment is mounted. 図16は、実施例4における機能構成の一例を示す図である。FIG. 16 is a diagram illustrating an example of a functional configuration according to the fourth embodiment. 図17は、実施例4における映像DBの一例を示す図である。FIG. 17 is a diagram illustrating an example of a video DB according to the fourth embodiment. 図18は、実施例4における処理の流れの一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of a process flow according to the fourth embodiment. 図19は、映像出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 19 is a hardware configuration diagram illustrating an example of a computer that implements the functions of the video output apparatus.

以下、添付図面を参照して、本願の開示する映像出力装置及び映像出力方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a video output device and a video output method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

[システム構成]
本実施例において、映像出力装置100は、例えばコンピュータであり、移動体などに実装されて用いられる。図1は、実施例1の映像出力装置を実装した移動体の一例を示す図である。本実施例における映像出力装置100は、たとえば移動体の移動中に撮影された映像を記録し、移動体の搭乗者に対して記録された映像を出力するものである。移動体としては、例えば乗用車やタクシー、観光バスなどの車両、電車や客車などを含む列車に加えて、船舶、航空機などが挙げられる。本実施例では、移動体は乗用車など搭乗者を輸送する車両であるものとして説明する。
[System configuration]
In the present embodiment, the video output device 100 is, for example, a computer, and is used by being mounted on a moving body or the like. FIG. 1 is a diagram illustrating an example of a moving object on which the video output apparatus according to the first embodiment is mounted. The video output device 100 according to the present embodiment records, for example, a video taken while the moving body is moving, and outputs the recorded video to a passenger of the moving body. Examples of the moving body include ships, airplanes and the like in addition to vehicles such as passenger cars, taxis and sightseeing buses, trains including trains and passenger cars. In the present embodiment, the description will be made assuming that the moving body is a vehicle that transports a passenger such as a passenger car.

図1に示すように、映像出力装置100を実装する乗用車1000には、風景撮影装置200と、動作撮影装置300と、表示装置500とが設けられ、映像出力装置100と有線又は無線にて通信可能に接続される。   As shown in FIG. 1, a passenger car 1000 on which the video output device 100 is mounted is provided with a landscape photographing device 200, a motion photographing device 300, and a display device 500, and communicates with the video output device 100 in a wired or wireless manner. Connected as possible.

風景撮影装置200は、移動中の移動体の外界の映像を撮影して、撮影された映像データを映像出力装置100に出力する。外界の映像は、例えば搭乗者が移動中の移動体から、車窓を通じて視認できる風景の映像である。風景撮影装置200は、例えば乗用車1000の左右の車窓付近に設置されたデジタルビデオカメラである。   The landscape photographing device 200 captures an image of the outside of the moving moving object and outputs the captured image data to the image output device 100. The image of the outside world is, for example, an image of a landscape that can be viewed through a car window from a moving body on which a passenger is moving. The landscape photographing device 200 is, for example, a digital video camera installed near the left and right car windows of the passenger car 1000.

動作撮影装置300は、移動中の移動体の搭乗者の動作を撮影して、撮影された映像データを映像出力装置100に出力する。搭乗者の動作は、搭乗者の視線の変化、表情の変化や手の動き等である。動作撮影装置300は、例えば乗用車1000内の天井部分に設置されたデジタルビデオカメラである。   The motion image capturing device 300 captures the motion of the passenger on the moving moving object and outputs the captured image data to the image output device 100. The movement of the passenger is a change in the line of sight of the passenger, a change in facial expression, a hand movement, or the like. The motion imaging apparatus 300 is, for example, a digital video camera installed on a ceiling portion in the passenger car 1000.

表示装置500は、映像出力装置100から出力された映像を表示する。表示装置500は、例えば液晶ディスプレイなどの出力表示装置である。なお、本実施例においては、表示装置500が乗用車1000の窓である例について説明するが、これに限られず、搭乗者の座席の前に設置された液晶ディスプレイ装置などであってもよく、また車窓に映像を投影するプロジェクター装置であってもよい。さらに、表示装置500が、例えばタッチパネルのように、搭乗者が表示装置500に触れたことを検出できるような装置であってもよい。   The display device 500 displays the video output from the video output device 100. The display device 500 is an output display device such as a liquid crystal display. In this embodiment, an example in which the display device 500 is a window of a passenger car 1000 will be described. However, the present invention is not limited to this, and a liquid crystal display device installed in front of a passenger's seat may be used. It may be a projector device that projects an image on a car window. Furthermore, the display device 500 may be a device that can detect that a passenger has touched the display device 500, such as a touch panel.

映像出力装置100は、例えば、図1に示すように乗用車1000の後部に設置され、風景撮影装置200から取得した映像データを記録する。また、映像出力装置100は、動作撮影装置300から取得した映像データを用いて搭乗者の動作を検出する。さらに、映像出力装置100は、検出された動作に基づいて搭乗者が指定する時間帯又は対象物を推定し、推定された時間帯又は対象物に対応する記録済みの映像データを読み出して出力する。当該時間帯は、例えば当該対象物が風景撮影装置200により撮影された時間帯、すなわち当該対象物が映像に記録されている時間帯である。   For example, as shown in FIG. 1, the video output device 100 is installed at the rear of the passenger car 1000 and records video data acquired from the landscape photographing device 200. In addition, the video output device 100 detects the motion of the passenger using the video data acquired from the motion imaging device 300. Furthermore, the video output device 100 estimates a time zone or an object designated by the passenger based on the detected motion, and reads and outputs recorded video data corresponding to the estimated time zone or the object. . The said time slot | zone is a time slot | zone when the said target object was image | photographed with the landscape imaging device 200, ie, the time slot | zone when the said target object is recorded on the image | video.

なお、各装置の数は図1に示す例に限られず、例えば風景撮影装置200が1つのみ実装されていたり、動作撮影装置300が搭乗者の座席ごとに複数用意されていたりする構成であってもよい。また、各装置は専用の装置に限られず、既存のドライブレコーダー、車載ディスプレイ、カーナビゲーションシステムなどを流用してもよい。また、各装置は据置型の機器に限られず、スマートフォンやタブレット等の携帯可能な端末であってもよい。   Note that the number of devices is not limited to the example shown in FIG. 1. For example, only one landscape photographing device 200 is mounted, or a plurality of motion photographing devices 300 are prepared for each passenger seat. May be. Each device is not limited to a dedicated device, and an existing drive recorder, in-vehicle display, car navigation system, or the like may be used. Each device is not limited to a stationary device, and may be a portable terminal such as a smartphone or a tablet.

また、各実施例における映像出力装置100が設置される位置は、図1に示す位置に限られず、乗用車1000内外の任意の場所に設置してもよい。また、映像出力装置100が遠隔地に設置され、インターネット等を通じて他の各装置と接続されるような構成であってもよい。   Further, the position where the video output device 100 in each embodiment is installed is not limited to the position shown in FIG. 1, and may be installed in any place inside and outside the passenger car 1000. Further, the video output device 100 may be installed at a remote place and connected to other devices via the Internet or the like.

[機能構成]
次に、図2を用いて、映像出力装置100の機能構成について説明する。映像出力装置100は、記憶部120と、制御部130とを有する。記憶部120は、映像出力装置100が使用するプログラムやデータを記憶する。例えば、記憶部120は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、制御部130が行う各処理に用いられる情報を適宜記憶する。
[Function configuration]
Next, the functional configuration of the video output apparatus 100 will be described with reference to FIG. The video output device 100 includes a storage unit 120 and a control unit 130. The storage unit 120 stores programs and data used by the video output device 100. For example, the storage unit 120 is realized by a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. In addition, the storage unit 120 appropriately stores information used for each process performed by the control unit 130.

図2に示すように、記憶部120は、映像DB121と、動作DB122とを有する。映像DB121は、移動中の移動体において撮影された映像を記憶する。図3は、実施例1における映像DBの一例を示す図である。図3に示すように、映像DB121は、「撮影日時」と、「ファイル名」とを対応付けて記憶する。例えば、ファイル名が「XXXXXX01.mp4」のファイルは、「2016/08/01 13:00:00」に撮影されたものであることが記録されている。   As illustrated in FIG. 2, the storage unit 120 includes a video DB 121 and an operation DB 122. The video DB 121 stores video captured by a moving moving body. FIG. 3 is a diagram illustrating an example of the video DB according to the first embodiment. As shown in FIG. 3, the video DB 121 stores “shooting date and time” and “file name” in association with each other. For example, it is recorded that a file whose file name is “XXXXXXX01.mp4” was taken at “2016/08/01 13:00:00”.

動作DB122は、検出される動作に対応する時間帯又は対象を記憶する。図4は、動作DBの一例を示す図である。図4に示すように、動作DB122は、「振り返る」や「指を指す」などの動作に対応する時間帯又は対象物を記憶する。なお、本実施例においては、「視線の変化」や「表情の変化」なども、「動作」に含むものとして説明する。   The operation DB 122 stores a time zone or a target corresponding to the detected operation. FIG. 4 is a diagram illustrating an example of the operation DB. As illustrated in FIG. 4, the motion DB 122 stores time zones or objects corresponding to motions such as “look back” and “point finger”. In this embodiment, “change in line of sight”, “change in facial expression”, and the like are also included in “motion”.

本実施例においては、図4に示すように、動作DB122は、同じ動作であっても、動作の速さや大きさが異なる場合、それぞれ異なる時間帯又は対象物を対応付けて記憶する。例えば、図4に示す動作DB122は、「振り返る」動作が検出された場合において、振り返る速さが「0.3秒未満」である場合、対応する時点が「0.5」秒前であることを記憶する。同様に、図4に示す動作DB122は、振り返る速さが「0.3秒以上」である場合、対応する時点が「3」秒前であることを記憶する。   In this embodiment, as shown in FIG. 4, even when the operation is the same, the operation DB 122 stores different time zones or objects in association with each other when the speed and size of the operation are different. For example, in the operation DB 122 shown in FIG. 4, when the “return” operation is detected, if the turn-back speed is “less than 0.3 seconds”, the corresponding time point is “0.5” seconds ago. Remember. Similarly, the operation DB 122 illustrated in FIG. 4 stores that the corresponding time point is “3” seconds ago when the turning-back speed is “0.3 seconds or more”.

さらに、本実施例においては、動作DB122は、搭乗者を乗せた移動体の移動速度に応じて、時間帯又は対象物に乗じる係数を記憶する。例えば、動作DB122は、搭乗者が「90度以上」振り返ったことが検出された場合において、移動体の移動速度が「時速Xkm」以上であった場合、「2」秒に「0.7」を乗じた「1.4」となることを記憶する。   Further, in the present embodiment, the operation DB 122 stores a coefficient to be multiplied by the time zone or the object according to the moving speed of the moving body carrying the passenger. For example, when it is detected that the passenger turns back “90 degrees or more” and the moving speed of the moving body is “X km / hour” or more, the motion DB 122 “0.7” in “2” seconds. It is memorized that it becomes “1.4” multiplied by.

次に、制御部130の各機能について説明する。例えば、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、映像出力装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。   Next, each function of the control unit 130 will be described. For example, the control unit 130 is realized by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like executing various programs stored in a storage device inside the video output device 100 using the RAM as a work area. Is done. The control unit 130 may be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

制御部130は、映像記録部131と、動作検出部132と、映像抽出部133と、映像出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像記録部131、動作検出部132、映像抽出部133及び映像出力部134は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。   The control unit 130 includes a video recording unit 131, an operation detection unit 132, a video extraction unit 133, and a video output unit 134, and realizes or executes functions and operations of information processing described below. The internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 2, and may be another configuration as long as the information processing described later is performed. In addition, the video recording unit 131, the operation detection unit 132, the video extraction unit 133, and the video output unit 134 are an example of an electronic circuit such as a processor or an example of a process executed by the processor.

映像記録部131は、移動中の移動体から撮影された映像を記録する処理部である。例えば、映像記録部131は、風景撮影装置200により撮影された映像を取得し、映像データのファイルを、撮影された時間に対応付けて映像DB121に記憶する。   The video recording unit 131 is a processing unit that records a video taken from a moving moving body. For example, the video recording unit 131 acquires a video shot by the landscape shooting apparatus 200 and stores a video data file in the video DB 121 in association with the shooting time.

動作検出部132は、移動体の搭乗者の動作を検出する処理部である。なお、上で説明したように、動作検出部132は、搭乗者の手の動き等に加えて、搭乗者の「視線の変化」や「表情の変化」、また表示装置500へのタッチ等も合わせて検出する。動作検出部132は、例えば公知の画像認識技術を用いて、視線、表情又は動きを検出できる。なお、動作検出部132は、検出部の一例である。   The motion detection unit 132 is a processing unit that detects the motion of a passenger on the moving body. Note that, as described above, the motion detection unit 132 performs not only the movement of the passenger's hand, but also the passenger's “change in line of sight”, “change in facial expression”, touch on the display device 500, and the like. Detect together. The motion detection unit 132 can detect a line of sight, a facial expression, or a motion using, for example, a known image recognition technique. The motion detection unit 132 is an example of a detection unit.

例えば、動作検出部132は、動作撮影装置300から取得された映像データに含まれる搭乗者の顔から、目、鼻または口などの特徴点を抽出し、特徴点の位置に応じて搭乗者の視線方向又は表情を検出する。なお、動作検出部132は、搭乗者の眼球の方向等を特定することにより、搭乗者の視線方向を検出するような構成であってもよい。   For example, the motion detection unit 132 extracts feature points such as eyes, nose or mouth from the face of the passenger included in the video data acquired from the motion imaging device 300, and the passenger's face is extracted according to the position of the feature point. Detect gaze direction or facial expression. Note that the motion detection unit 132 may be configured to detect the passenger's line-of-sight direction by specifying the direction of the passenger's eyeball and the like.

また、動作検出部132は、表情や視線の変化に加えて、例えば搭乗者の手の位置を認識し、指を指すなどの搭乗者による手の動きを検出する。さらに、動作検出部132は、搭乗者が表示装置500である窓に触れた場合、その触れた位置を検出する。動作検出部132は、検出された表情や視線の変化、及び手の動きや窓へのタッチに関する動作データを生成し、映像抽出部133に出力する。   In addition to the change in facial expression and line of sight, the motion detection unit 132 recognizes the position of the passenger's hand, for example, and detects the movement of the hand by the passenger such as pointing a finger. Furthermore, when the passenger touches a window that is the display device 500, the motion detection unit 132 detects the touched position. The motion detection unit 132 generates motion data related to the detected facial expression and line-of-sight change, as well as hand movement and window touch, and outputs the motion data to the video extraction unit 133.

映像抽出部133は、検出された動作から推定される映像を抽出する処理部である。例えば、映像抽出部133は、「13:00:10」の時点において、動作検出部132から動作データの出力を受けた場合、動作データに対応する搭乗者の動作を特定する。   The video extraction unit 133 is a processing unit that extracts a video estimated from the detected motion. For example, if the video extraction unit 133 receives the output of the operation data from the operation detection unit 132 at the time of “13:00:10”, the video extraction unit 133 specifies the operation of the passenger corresponding to the operation data.

映像抽出部133は、特定された搭乗者の動作が、「120度以上後方を指さす」動作であると特定した場合、図4に示す動作DB122を参照し、動作データに対応する時点が「10」秒前であることを推定する。そして、映像抽出部133は、動作データの出力を受けた時点から10秒前である「2016/08/01 13:00:00」の時点の映像データのファイル「XXXXXX01.mp4」を、抽出対象の映像データとして特定する。   When the identified motion of the occupant is identified as “pointing backward 120 ° or more”, the video extraction unit 133 refers to the motion DB 122 illustrated in FIG. 4 and the time corresponding to the motion data is “10”. ”Estimate that it is seconds ago. Then, the video extraction unit 133 extracts the video data file “XXXXXXX01.mp4” at the time “2016/08/01 13:00:00” that is 10 seconds before the time when the output of the operation data is received. Specified as video data.

なお、映像抽出部133は、抽出された映像データを、保存対象データとして特定する。例えば、映像抽出部133は、特定された映像データのファイルを、図示しないその他の記憶装置に複製する。また、映像抽出部133は、当該映像データのファイルにブックマークを対応付ける等により、当該ファイルを削除対象から除外する。これにより、例えば公知のドライブレコーダーのように、撮影された映像データが一定時間経過後に削除されるような映像記録装置により撮影された映像データについても、注目された風景に関する映像データを削除させずに保存させることができる。   Note that the video extraction unit 133 identifies the extracted video data as storage target data. For example, the video extraction unit 133 copies the specified video data file to another storage device (not shown). In addition, the video extraction unit 133 excludes the file from the deletion target by associating a bookmark with the file of the video data. As a result, for example, a video data recorded by a video recording device in which the captured video data is deleted after a lapse of a certain time, such as a known drive recorder, does not delete the video data related to the noted landscape. Can be saved.

映像出力部134は、特定された映像データを、表示装置500に出力する処理部である。例えば、映像出力部134は、映像抽出部133により特定された「XXXXXX02.mp4」などの映像データのファイルを映像DB121から読み出し、表示装置500に出力する。なお、映像出力部134は、出力部の一例である。   The video output unit 134 is a processing unit that outputs the specified video data to the display device 500. For example, the video output unit 134 reads a video data file such as “XXXXXXX02.mp4” specified by the video extraction unit 133 from the video DB 121 and outputs the file to the display device 500. The video output unit 134 is an example of an output unit.

映像出力部134が出力する映像の一例について、図5を用いて説明する。図5は、実施例1における車窓に表示される映像の一例を示す図である。図5において、搭乗者を乗せた乗用車1000が、矢印に示す進行方向に移動中であり、現在の位置は地点3000である場合について説明する。   An example of the video output by the video output unit 134 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of an image displayed on the vehicle window according to the first embodiment. In FIG. 5, a case will be described in which a passenger car 1000 carrying a passenger is moving in the traveling direction indicated by the arrow, and the current position is a point 3000.

映像出力装置100は、搭乗者が振り返ったことを検出し、かつ振り返った角度が90度未満であったと判定された場合、動作DB122を参照し、当該動作に対応する「0.5秒前」の時点3001において撮影された映像データを表示装置500に表示させる。また、映像出力装置100は、搭乗者が120度以上後方を指さしたことを検出した場合、動作DB122を参照し、当該動作に対応する「10秒前」の時点3010において撮影された映像データを表示装置500に表示させる。   When the video output device 100 detects that the passenger turns around and determines that the angle turned back is less than 90 degrees, the video output device 100 refers to the action DB 122 and corresponds to the action “0.5 seconds ago”. The video data captured at the time 3001 is displayed on the display device 500. Further, when the video output device 100 detects that the passenger points back 120 degrees or more, the video output device 100 refers to the motion DB 122 and captures the video data captured at the time point 3010 “10 seconds before” corresponding to the motion. It is displayed on the display device 500.

[処理の流れ]
次に、本実施例における映像出力装置100の処理の流れについて、図6を用いて説明する。図6は、実施例1における処理の流れの一例を示すフローチャートである。まず、映像記録部131は、風景撮影装置200から入力される現在撮影中の映像を映像出力部134に出力するとともに、映像データを映像DB121に記憶する。映像出力部134は、映像記録部131から出力された映像を、表示装置500に表示させる(ステップS101)。
[Process flow]
Next, the processing flow of the video output apparatus 100 in the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart illustrating an example of a process flow according to the first embodiment. First, the video recording unit 131 outputs the video currently being shot input from the landscape photographing device 200 to the video output unit 134 and stores the video data in the video DB 121. The video output unit 134 causes the display device 500 to display the video output from the video recording unit 131 (step S101).

次に、動作検出部132は、動作撮影装置300から映像データの入力を受けて、搭乗者の動作を検出し、動作データを映像抽出部133に出力する。動作データの入力を受けた映像抽出部133は、まず、視線の変化が検出されたか否かを判定する(ステップS111)。映像抽出部133は、搭乗者の視線の変化が検出されたと判定された場合(ステップS111:Yes)、ステップS191に移行する。   Next, the motion detection unit 132 receives input of video data from the motion imaging apparatus 300, detects a passenger's motion, and outputs the motion data to the video extraction unit 133. The video extraction unit 133 that has received the operation data first determines whether or not a change in line of sight has been detected (step S111). If it is determined that a change in the line of sight of the passenger has been detected (step S111: Yes), the video extraction unit 133 proceeds to step S191.

視線の変化が検出されなかったと判定された場合(ステップS111:No)、映像抽出部133は、搭乗者の表情の変化が検出されたか否かを判定する(ステップS113)。映像抽出部133は、搭乗者の表情の変化が検出されたと判定された場合(ステップS113:Yes)、ステップS191に移行する。   When it is determined that a change in line of sight has not been detected (step S111: No), the video extraction unit 133 determines whether a change in the passenger's facial expression has been detected (step S113). If it is determined that a change in the passenger's facial expression has been detected (step S113: Yes), the video extraction unit 133 proceeds to step S191.

表情の変化が検出されなかったと判定された場合(ステップS113:No)、映像抽出部133は、搭乗者の手の動きが検出されたか否かを判定する(ステップS115)。映像抽出部133は、搭乗者の手の動きが検出されたと判定された場合(ステップS115:Yes)、ステップS191に移行する。   When it is determined that a change in facial expression has not been detected (step S113: No), the video extraction unit 133 determines whether movement of the passenger's hand has been detected (step S115). When it is determined that the movement of the passenger's hand has been detected (step S115: Yes), the video extraction unit 133 proceeds to step S191.

手の動きが検出されなかったと判定された場合(ステップS115:No)、映像抽出部133は、表示装置500において、搭乗者による画面へのタッチが検出されたか否かを判定する(ステップS117)。映像抽出部133は、画面へのタッチが検出されたと判定された場合(ステップS117:Yes)、ステップS191に移行する。   When it is determined that the movement of the hand has not been detected (step S115: No), the video extraction unit 133 determines whether or not a touch on the screen by the passenger is detected in the display device 500 (step S117). . If it is determined that a touch on the screen has been detected (step S117: Yes), the video extraction unit 133 proceeds to step S191.

ステップS191に移行して、映像抽出部133は、動作DB122を参照し、ステップS111乃至S117において検出された視線の変化、表情の変化、手の動き又は画面へのタッチに対応する時間帯又は対象物を推定する。そして、映像抽出部133は、映像DB121から、推定された時間帯又は対象物に対応する映像データを特定する(ステップS191)。映像出力部134は、特定された映像を表示装置500に表示させることにより、特定された映像を再生する(ステップS193)。   In step S191, the video extraction unit 133 refers to the motion DB 122, and the time zone or target corresponding to the gaze change, facial expression change, hand movement, or screen touch detected in steps S111 to S117. Estimate things. Then, the video extraction unit 133 specifies video data corresponding to the estimated time zone or the object from the video DB 121 (step S191). The video output unit 134 reproduces the specified video by causing the display device 500 to display the specified video (step S193).

ステップS117に戻って、映像抽出部133は、画面へのタッチが検出されなかったと判定された場合(ステップS117:No)、搭乗者から処理終了の指示を受け付けたか否かを判定する(ステップS161)。処理終了の指示を受け付けたと判定されなかった場合(ステップS161:No)、ステップS101に戻って処理を繰り返す。処理終了の指示を受け付けたと判定された場合(ステップS161:Yes)、処理を終了する。   Returning to step S117, when it is determined that the touch on the screen has not been detected (step S117: No), the video extraction unit 133 determines whether an instruction to end the process has been received from the passenger (step S161). ). If it is not determined that an instruction to end the process has been received (step S161: No), the process returns to step S101 and the process is repeated. If it is determined that an instruction to end the process has been received (step S161: Yes), the process ends.

上述するように、本実施例によれば、映像出力装置100は、移動体の移動中において、搭乗者による反応を検出し、検出された反応に対応する時間帯又は対象物を推定する。また、映像出力装置100は、記憶部に記憶された外界の映像のうち、推定された時間帯又は対象物に対応する映像を出力する。これにより、搭乗者は、煩雑な操作を要することなく、容易に通り過ぎた地点の風景をリアルタイムで振り返ることができる。   As described above, according to the present embodiment, the video output device 100 detects a reaction by the passenger while the moving body is moving, and estimates a time zone or an object corresponding to the detected reaction. In addition, the video output device 100 outputs a video corresponding to the estimated time zone or the target object from the external video stored in the storage unit. Accordingly, the passenger can easily look back in real time at the point where the passenger has passed without requiring a complicated operation.

また、本実施例によれば、撮影された映像データが一定時間経過後に削除されるような映像記録装置により撮影される映像データについても、注目された風景を容易に保存できる。   In addition, according to the present embodiment, it is possible to easily save a noticed landscape for video data shot by a video recording apparatus in which the shot video data is deleted after a lapse of a predetermined time.

実施例1においては、映像出力装置100が、搭乗者の視線、表情、手の動き等の動作に基づいて、対応する映像データを出力する構成について説明したが、実施の形態はこれに限られない。本実施例においては、映像出力装置が、搭乗者が発する音声に基づいて、対応する映像データを出力するような構成について説明する。   In the first embodiment, the configuration in which the video output device 100 outputs corresponding video data based on the movement of the passenger's line of sight, facial expression, hand movement, and the like has been described. However, the embodiment is not limited thereto. Absent. In the present embodiment, a configuration will be described in which the video output device outputs corresponding video data based on the sound emitted by the passenger.

[機能構成]
まず、図7を用いて、本実施例における映像出力装置700の機能構成について説明する。図7は、実施例2における機能構成の一例を示す図である。なお、以下の実施例において、映像DB121、映像記録部131、映像出力部134、風景撮影装置200及び表示装置500は実施例1と同様の処理を行うため、詳細な説明は省略する。
[Function configuration]
First, the functional configuration of the video output apparatus 700 in this embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a functional configuration according to the second embodiment. In the following embodiment, the video DB 121, the video recording unit 131, the video output unit 134, the landscape photographing device 200, and the display device 500 perform the same processing as in the first embodiment, and thus detailed description thereof is omitted.

本実施例における映像出力装置700は、実施例1と同様に、例えば乗用車1000において実装される。映像出力装置700は、乗用車1000に設けられた風景撮影装置200、音声取得装置400及び表示装置500と通信可能に接続される。   The video output device 700 according to the present embodiment is mounted in, for example, a passenger car 1000 as in the first embodiment. The video output device 700 is communicably connected to the landscape photographing device 200, the sound acquisition device 400, and the display device 500 provided in the passenger car 1000.

音声取得装置400は、移動中の移動体の搭乗者の音声を取得し、音声データを生成して映像出力装置100に出力する。搭乗者の音声は、例えば「あっ!」、「えっ!」などの搭乗者の驚きや感動を示す声や、「あの山」、「あの橋」、「さっき」、「5秒ぐらい前」などの対象物や地点を示す文言を含む。音声取得装置400は、例えば乗用車1000内の天井部分に設置されたマイクロフォンである。   The sound acquisition device 400 acquires the sound of the passenger of the moving moving object, generates sound data, and outputs the sound data to the video output device 100. The passenger's voice is, for example, “Ah!”, “Eh!” Or other voices that indicate the surprise or excitement of the passenger, “That mountain”, “That bridge”, “That time”, “About 5 seconds ago”, etc. Contains wording indicating the object or point of the. The voice acquisition device 400 is, for example, a microphone installed on a ceiling portion in the passenger car 1000.

映像出力装置700は、実施例1と同様に、例えば、図1に示すように乗用車1000の後部に設置され、風景撮影装置200から取得した映像データを記録する。本実施例における映像出力装置700は、音声取得装置400から取得した音声データを用いて搭乗者の音声を検出する。さらに、映像出力装置700は、検出された音声に基づいて搭乗者が指定する時間帯又は対象物を推定し、推定された時間帯又は対象物に対応する記録済みの映像データを読み出して出力する。   Similar to the first embodiment, the video output device 700 is installed at the rear of the passenger car 1000 as shown in FIG. 1, for example, and records video data acquired from the landscape photographing device 200. The video output device 700 in the present embodiment detects the passenger's voice using the audio data acquired from the audio acquisition device 400. Further, the video output device 700 estimates a time zone or an object designated by the passenger based on the detected sound, reads out and outputs recorded video data corresponding to the estimated time zone or the object. .

本実施例において、映像出力装置700は、記憶部720と、制御部730とを有する。記憶部720は、映像出力装置700が使用するプログラムやデータを記憶する。また、記憶部720は、制御部730が行う各処理に用いられる情報を適宜記憶する。   In the present embodiment, the video output device 700 includes a storage unit 720 and a control unit 730. The storage unit 720 stores programs and data used by the video output device 700. In addition, the storage unit 720 appropriately stores information used for each process performed by the control unit 730.

図7に示すように、記憶部720は、映像DB121と、音声DB723と、ランドマークDB724を有する。音声DB723は、検出される音声に対応する時間帯又は対象物を記憶する。図8は、音声DBの一例を示す図である。図8に示すように、音声DB723は、「キーワード」と、「Rt(秒)」とを対応付けて記憶する。   As illustrated in FIG. 7, the storage unit 720 includes a video DB 121, an audio DB 723, and a landmark DB 724. The voice DB 723 stores a time zone or an object corresponding to the detected voice. FIG. 8 is a diagram illustrating an example of the voice DB. As illustrated in FIG. 8, the voice DB 723 stores “keyword” and “Rt (seconds)” in association with each other.

図8における「キーワード」は、音声データから抽出される文言を示し、「Rt」は、各キーワードに対応する、キーワードが検出された時点から遡る時間を示す。キーワードは、例えば、「あっ!」、「えっ!」など、搭乗者の驚きや感動を示す音声や、「山」、「橋」など、特定の場所を示す文言である。図8に示す音声DB723は、例えば、「山」というキーワードに対応する音声が検出された場合、対応する対象物が「n秒以内に撮影された」山であることを記憶する。また、図8に示す音声DB723は、例えば、「あっ!」というキーワードに対応する驚きの音声が検出された場合、対応する時点が「0.5秒前」であることを記憶する。   In FIG. 8, “keyword” indicates a word extracted from the voice data, and “Rt” indicates a time that goes back from the time when the keyword corresponding to each keyword was detected. The keyword is, for example, a voice indicating a passenger's surprise or impression such as “Ah!” Or “Eh!” Or a word indicating a specific place such as “mountain” or “bridge”. For example, when the voice corresponding to the keyword “mountain” is detected, the voice DB 723 illustrated in FIG. 8 stores that the corresponding target is a mountain “captured within n seconds”. Also, the voice DB 723 illustrated in FIG. 8 stores, for example, that when a surprising voice corresponding to the keyword “Ah!” Is detected, the corresponding time point is “0.5 seconds ago”.

図7に戻って、ランドマークDB724は、搭乗者の注目の対象となるランドマークを、ランドマークのカテゴリや視認可能範囲、関連ワードと対応付けて記憶する。図9は、ランドマークDBの一例を示す図である。図9に示すように、ランドマークDB724は、「ランドマーク」と、「カテゴリ」と、「視認可能範囲」と、「関連ワード」とを対応付けて記憶する。   Returning to FIG. 7, the landmark DB 724 stores landmarks to be noticed by the occupant in association with landmark categories, visible ranges, and related words. FIG. 9 is a diagram illustrating an example of the landmark DB. As illustrated in FIG. 9, the landmark DB 724 stores “landmark”, “category”, “viewable range”, and “related word” in association with each other.

図9における「ランドマーク」は、搭乗者の注目の対象となる対象物であり、山や塔、店舗などの「カテゴリ」に分類される。「視認可能範囲」は、当該ランドマークを視認できる範囲を示す。図9に示すように、例えば山のように大きなランドマークについては、遠くからでも視認できるため視認可能範囲は広く、逆に店などについては視認可能範囲が狭くなる。「関連ワード」は、ランドマークに対応する文言を指し、関連ワードに含まれる音声が検出された際に、対応するランドマークが特定される。例えば、「〜〜カフェ」というランドマークについては、「カフェ」という文言だけでなく、「ミセ」、「キッサテン」などの文言も、ランドマークを特定する対象となる。   “Landmarks” in FIG. 9 are objects to be noticed by passengers, and are classified into “categories” such as mountains, towers, and stores. “Visible range” indicates a range in which the landmark can be visually recognized. As shown in FIG. 9, for example, a landmark as large as a mountain can be viewed from a distance, so that the visible range is wide, and conversely, the visible range is narrow for a store or the like. “Related word” refers to a word corresponding to a landmark, and when a voice included in the related word is detected, the corresponding landmark is specified. For example, with respect to the landmark "~~ cafe", not only the word "cafe" but also words such as "Mise" and "Kissaten" are the objects for specifying the landmark.

次に、制御部730の各機能について説明する。例えば、制御部730は、CPUやMPU等によって、映像出力装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部730は、ASICやFPGA等の集積回路により実現されてもよい。   Next, each function of the control unit 730 will be described. For example, the control unit 730 is realized by executing various programs stored in a storage device inside the video output apparatus 100 using the RAM as a work area by a CPU, an MPU, or the like. The control unit 730 may be realized by an integrated circuit such as an ASIC or FPGA.

制御部730は、映像記録部131と、映像抽出部733と、映像出力部134と、音声検出部735とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部730の内部構成は、図7に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像抽出部733及び音声検出部735は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。   The control unit 730 includes a video recording unit 131, a video extraction unit 733, a video output unit 134, and an audio detection unit 735, and realizes or executes information processing functions and operations described below. Note that the internal configuration of the control unit 730 is not limited to the configuration illustrated in FIG. 7, and may be another configuration as long as the information processing described below is performed. The video extraction unit 733 and the audio detection unit 735 are an example of an electronic circuit such as a processor or an example of a process executed by the processor.

音声検出部735は、移動体の搭乗者の音声を検出する処理部である。例えば、音声検出部735は、音声取得装置400から音声データを取得し、取得された音声データから発話データを抽出する。ここで、発話データは、たとえば搭乗者が発話した内容を表す文字列であるとする。音声検出部735は、例えば公知の音声認識技術を用いることにより、取得された音声データに含まれる発話データを抽出できる。なお、音声検出部735は、検出部の一例である。   The voice detection unit 735 is a processing unit that detects the voice of the passenger of the moving body. For example, the voice detection unit 735 acquires voice data from the voice acquisition device 400 and extracts speech data from the acquired voice data. Here, it is assumed that the utterance data is, for example, a character string representing the content uttered by the passenger. The voice detection unit 735 can extract utterance data included in the acquired voice data by using, for example, a known voice recognition technique. The voice detection unit 735 is an example of a detection unit.

具体的には、音声検出部735は、抽出された発話データが、音声DB723に記憶されるキーワードに合致するか否かを判定する。音声検出部735は、発話データが「あっ!」、「ちょっと前」などのキーワードに合致すると判定した場合、発話データを映像抽出部733に出力する。   Specifically, the voice detection unit 735 determines whether or not the extracted utterance data matches a keyword stored in the voice DB 723. If the speech detection unit 735 determines that the utterance data matches a keyword such as “Ah!” Or “Slightly before”, the speech detection unit 735 outputs the utterance data to the video extraction unit 733.

また、音声検出部735は、抽出された発話データが、ランドマークDB724に記憶される関連ワードに合致するか否かを判定する。音声検出部735は、発話データが「ヤマ」、「ミセ」などの関連ワードに合致すると判定した場合、発話データを映像抽出部733に出力する。   Further, the voice detection unit 735 determines whether or not the extracted utterance data matches a related word stored in the landmark DB 724. If the speech detection unit 735 determines that the speech data matches a related word such as “Yama” or “Mise”, the speech detection unit 735 outputs the speech data to the video extraction unit 733.

本実施例において、映像抽出部733は、出力された発話データから推定される映像を抽出する処理部である。例えば、映像抽出部733は、音声検出部735から発話データの出力を受けると、音声DB723を参照し、出力された発話データに対応する時間帯又は地点を推定し、推定された時間帯又は地点に対応する映像データを特定し、映像出力部134に出力する。なお、映像抽出部733は、特定部の一例である。   In the present embodiment, the video extraction unit 733 is a processing unit that extracts a video estimated from the output speech data. For example, when the video extraction unit 733 receives the output of the utterance data from the voice detection unit 735, the video extraction unit 733 refers to the voice DB 723, estimates the time zone or the point corresponding to the output utterance data, and the estimated time zone or the point Is specified and output to the video output unit 134. Note that the video extraction unit 733 is an example of a specifying unit.

具体的には、映像抽出部733は、「13:00:10」の時点において、音声検出部735から「ちょっと前」という発話データの出力を受けた場合、図8に示す音声DB723を参照し、発話データに対応する時点が「10」秒前であることを推定する。そして、映像抽出部733は、図3に示す映像DB121を参照し、発話データの出力を受けた時点から10秒前である「13:00:00」の時点の映像データのファイル「XXXXXX01.mp4」を、抽出対象の映像データとして特定する。   Specifically, when the video extraction unit 733 receives the output of the speech data “slightly before” from the voice detection unit 735 at the time of “13:00:10”, the video extraction unit 733 refers to the voice DB 723 illustrated in FIG. The time point corresponding to the speech data is estimated to be “10” seconds ago. Then, the video extraction unit 733 refers to the video DB 121 shown in FIG. 3, and the video data file “XXXXXXX01.mp4” at the time “13:00:00” that is 10 seconds before the time when the output of the utterance data is received. "Is specified as the video data to be extracted.

[処理の流れ]
次に、本実施例における映像出力装置700の処理の流れについて、図10を用いて説明する。図10は、実施例2における処理の流れの一例を示すフローチャートである。なお、以下の説明において、図6に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
[Process flow]
Next, the processing flow of the video output apparatus 700 in the present embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a process flow according to the second embodiment. In the following description, the same reference numerals as those shown in FIG. 6 are the same steps, and detailed description thereof will be omitted.

音声検出部735は、音声取得装置400から音声データの入力を受けて、搭乗者の音声が検出されたか否かを判定する(ステップS211)。音声検出部735は、音声が検出されなかったと判定された場合(ステップS211:No)、ステップS161に移行する。   The voice detection unit 735 receives voice data input from the voice acquisition device 400 and determines whether or not a passenger's voice is detected (step S211). If it is determined that no sound is detected (step S211: No), the sound detection unit 735 proceeds to step S161.

音声検出部735は、搭乗者の音声が検出されたと判定された場合(ステップS211:Yes)、検出された音声に関する発話データを生成し、映像抽出部733に出力する。映像抽出部733は、入力された発話データが、音声DB723に記憶されるキーワードに合致するか否かを判定する(ステップS221)。   When it is determined that the passenger's voice is detected (step S211: Yes), the voice detection unit 735 generates utterance data regarding the detected voice and outputs the utterance data to the video extraction unit 733. The video extraction unit 733 determines whether or not the input utterance data matches the keyword stored in the audio DB 723 (step S221).

発話データがキーワードに合致すると判定された場合(ステップS221:Yes)、映像抽出部733は、音声DB723を参照して検出された文言に対応する時間帯又は対象物を特定し(ステップS223)、ステップS241に移行する。   If it is determined that the utterance data matches the keyword (step S221: Yes), the video extraction unit 733 specifies a time zone or an object corresponding to the wording detected with reference to the audio DB 723 (step S223), The process proceeds to step S241.

一方、発話データがキーワードに合致しなかったと判定された場合(ステップS221:No)、映像抽出部733は、発話データが、ランドマークDB724に記憶される関連ワードに合致するか否かを判定する(ステップS231)。発話データが関連ワードに合致しなかったと判定された場合(ステップS231:No)、ステップS211に戻る。   On the other hand, when it is determined that the utterance data does not match the keyword (step S221: No), the video extraction unit 733 determines whether the utterance data matches the related word stored in the landmark DB 724. (Step S231). When it is determined that the utterance data does not match the related word (step S231: No), the process returns to step S211.

一方、発話データが関連ワードに合致したと判定された場合(ステップS231:Yes)、映像抽出部733は、ランドマークDB724を参照し、発話データに対応するランドマークを特定する(ステップS233)。そして、映像抽出部733は、特定されたランドマークが撮影された映像データを特定する(ステップS235)。その後、映像抽出部733は、特定された映像データを映像出力部134に出力し、ステップS241に移行する。   On the other hand, when it is determined that the utterance data matches the related word (step S231: Yes), the video extraction unit 733 refers to the landmark DB 724 and identifies a landmark corresponding to the utterance data (step S233). Then, the video extraction unit 733 specifies video data in which the specified landmark is photographed (step S235). Thereafter, the video extraction unit 733 outputs the specified video data to the video output unit 134, and the process proceeds to step S241.

以上の実施例により、搭乗者の音声に基づいて、搭乗者が意図する時間帯又は対象物を特定できるので、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる。   According to the above embodiment, since the time zone or the object intended by the passenger can be specified based on the voice of the passenger, the scenery of the point where the moving body passes can be reproduced in real time.

なお、音声検出部735は、発話データを出力する代わりに、音声を検出した場合に映像抽出部733に映像抽出要求を出力し、映像抽出部733は、映像抽出要求を受けた場合に音声が発せられた時点の映像データを抽出するような構成であってもよい。これにより、発話データの生成や解析等を行うことなく、より簡便かつ迅速に風景をリアルタイムで再現することができる。   Note that instead of outputting speech data, the audio detection unit 735 outputs a video extraction request to the video extraction unit 733 when audio is detected, and the video extraction unit 733 receives audio when receiving the video extraction request. The configuration may be such that video data at the time of being emitted is extracted. This makes it possible to reproduce the scenery in real time more easily and quickly without generating or analyzing speech data.

また、音声DB723に記憶される情報及び音声検出部735による処理は、各実施例において説明したものに限られない。例えば、音声DB723が文字情報の代わりに音声特徴を記憶し、音声検出部735が、取得された音声データから抽出した特徴と、記憶された音声特徴とを比較することで、音声を認識するような構成であってもよい。   Further, the information stored in the voice DB 723 and the processing by the voice detection unit 735 are not limited to those described in each embodiment. For example, the speech DB 723 stores speech features instead of character information, and the speech detection unit 735 recognizes speech by comparing the features extracted from the acquired speech data with the stored speech features. It may be a simple configuration.

以上の各実施例においては、移動体が通り過ぎた地点の風景をリアルタイムで再現することができる。しかし、例えば天候が不順で視界が悪い場合や、移動速度が速すぎて映像がぶれてしまう場合、対象物の前に駐車車両等の障害物がある場合など、撮影された映像を見ても、対象物が視認できない場合がある。本実施例においては、同じ場所において、異なる時点で撮影された映像を再現する構成について説明する。   In each of the embodiments described above, the scenery at the point where the moving body passes can be reproduced in real time. However, even if the weather is unsatisfactory and the field of view is poor, the moving speed is too fast and the image is blurred, or there is an obstacle such as a parked vehicle in front of the object, The object may not be visible. In the present embodiment, a description will be given of a configuration for reproducing videos taken at different times in the same place.

[出力例]
まず、本実施例において出力される映像の一例について、図11を用いて説明する。図11は、実施例3における車窓に表示される映像の一例を示す図である。図11の(a)は、移動中の乗用車1000から時点3001において撮影された映像データの一例を示す。例えば時点3001においては晴天であり、対象物である塔が鮮明に撮影されている。一方、図11の(b)は、同じ対象物を、異なる時点3101において、移動中の乗用車1000から撮影した映像データの一例を示す。例えば、時点3101は曇天時であり、図11の(b)に示すように、対象物である塔は雲に隠れてしまっている。
[Output example]
First, an example of an image output in this embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of an image displayed on the vehicle window according to the third embodiment. FIG. 11A shows an example of video data taken at a time point 3001 from a moving passenger car 1000. For example, at the time point 3001, the weather is clear and the object tower is clearly photographed. On the other hand, (b) of FIG. 11 shows an example of video data obtained by shooting the same object from the moving passenger car 1000 at different time points 3101. For example, the time point 3101 is cloudy, and the tower that is the object is hidden behind the clouds as shown in FIG.

このような場合において、本実施例における映像出力装置800は、例えば図11の(c)に示すような、時点3101とは異なる快晴時である時点3201において撮影された映像データを出力する。かかる構成によれば、映像出力装置800は、移動中の乗用車1000から撮影された映像において対象物が視認できない場合においても、例えば時点3201のように異なる時点において撮影された、対象物を視認できる映像データを出力できる。   In such a case, the video output device 800 according to the present embodiment outputs video data captured at a time 3201 that is a clear time different from the time 3101 as shown in FIG. According to such a configuration, the video output device 800 can visually recognize an object photographed at a different time point, for example, a time point 3201 even when the object cannot be visually recognized in the video imaged from the moving passenger car 1000. Video data can be output.

なお、異なる時点において撮影された映像(以下において、「異時点映像」と表現する場合がある。)は、例えば乗用車1000が同じ地点を過去に通過した際に撮影され、異時点映像DB825に記憶された映像のデータであるが、これに限られない。例えば、異時点映像データは、同じ地点において他の装置により撮影され、外部のサーバに記憶された映像データであってもよい。   Note that videos taken at different times (hereinafter, sometimes referred to as “different time images”) are taken, for example, when the passenger car 1000 passes the same point in the past, and stored in the different time point video DB 825. However, it is not limited to this. For example, the different time point video data may be video data shot by another device at the same point and stored in an external server.

[機能構成]
次に、図12を用いて、本実施例における映像出力装置800の機能構成について説明する。図12は、実施例3における機能構成の一例を示す図である。なお、以下の実施例において、映像DB121、動作DB122、動作検出部132、映像抽出部133、映像出力部134、風景撮影装置200、動作撮影装置300及び表示装置500は実施例1と同様の処理を行うため、詳細な説明は省略する。
[Function configuration]
Next, the functional configuration of the video output device 800 in this embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating an example of a functional configuration according to the third embodiment. In the following embodiment, the video DB 121, the motion DB 122, the motion detection unit 132, the video extraction unit 133, the video output unit 134, the landscape photographing device 200, the motion photographing device 300, and the display device 500 are processed in the same manner as in the first embodiment. Therefore, detailed description is omitted.

本実施例における映像出力装置800は、実施例1と同様に、例えば乗用車1000において実装される。映像出力装置800は、乗用車1000に設けられた風景撮影装置200、動作撮影装置300及び表示装置500と通信可能に接続される。さらに、映像出力装置800は、外部の映像サーバ210と通信可能に接続される。   The video output device 800 according to the present embodiment is mounted in, for example, a passenger car 1000 as in the first embodiment. The video output device 800 is communicably connected to the landscape photographing device 200, the motion photographing device 300, and the display device 500 provided in the passenger car 1000. Furthermore, the video output device 800 is communicably connected to the external video server 210.

映像サーバ210は、撮影された異時点映像データを記憶する外部のサーバである。映像サーバ210は、映像出力装置800から受信するリクエストに基づいて、異時点映像データを映像出力装置800に送信する。   The video server 210 is an external server that stores captured video at different time points. The video server 210 transmits the video data at different time points to the video output device 800 based on the request received from the video output device 800.

映像出力装置800は、実施例1と同様に、例えば、図1に示すように乗用車1000の後部に設置され、風景撮影装置200から取得した映像データを記録する。   Similar to the first embodiment, the video output device 800 is installed at the rear of the passenger car 1000 as shown in FIG. 1, for example, and records video data acquired from the landscape photographing device 200.

本実施例において、映像出力装置800は、通信部810と、操作部811と、記憶部820と、制御部830とを有する。   In the present embodiment, the video output device 800 includes a communication unit 810, an operation unit 811, a storage unit 820, and a control unit 830.

通信部810は、外部の装置との間で情報の送受信を行う。例えば、通信部810は、制御部830から出力される異時点映像データのリクエストを映像サーバ210に送信し、映像サーバ210から異時点映像データを受信して、制御部830に出力する。また、通信部810が、図示しない搭乗者の端末から異時点映像表示のリクエストを受信して、制御部830に出力するような構成であってもよい。   The communication unit 810 transmits / receives information to / from an external device. For example, the communication unit 810 transmits a request for different time video data output from the control unit 830 to the video server 210, receives the different time video data from the video server 210, and outputs the request to the control unit 830. Further, the communication unit 810 may receive a request for video display at a different time from a passenger terminal (not shown) and output the request to the control unit 830.

操作部811は、搭乗者による操作を受け付ける。例えば、操作部811は、搭乗者による異時点映像表示のリクエストを受け付け、制御部830に出力する。操作部811は、例えば映像出力装置800が有する操作ボタンであるが、これに限られず、例えばタッチパネルである表示装置500が操作部811の機能を有するような構成であってもよい。   The operation unit 811 receives an operation by a passenger. For example, the operation unit 811 receives a request for video display at a different time from the passenger and outputs the request to the control unit 830. The operation unit 811 is an operation button included in the video output device 800, for example. However, the operation unit 811 is not limited thereto, and may be configured such that the display device 500 that is a touch panel, for example, has the function of the operation unit 811.

記憶部820は、映像出力装置800が使用するプログラムやデータを記憶する。また、記憶部820は、制御部830が行う各処理に用いられる情報を適宜記憶する。図12に示すように、記憶部820は、映像DB121と、動作DB122と、異時点映像DB825を有する。   The storage unit 820 stores programs and data used by the video output device 800. In addition, the storage unit 820 appropriately stores information used for each process performed by the control unit 830. As illustrated in FIG. 12, the storage unit 820 includes a video DB 121, an operation DB 122, and a different time point video DB 825.

異時点映像DB825は、異時点映像データを、撮影された日時及び地点とともに記憶する。図13は、異時点映像DBの一例を示す図である。図13に示すように、異時点映像DB825は、「撮影日時」と、「撮影地点」と、「ファイル名」とを対応付けて記憶する。例えば、異時点映像DB825には、ファイル名が「XXXYYY01.mp4」のファイルは、「2016/02/01 13:00:00」に「○○高速道路 10.0km地点」において撮影されたものであることが記録されている。   The different time point image DB 825 stores the different time point image data together with the date and time when the image was taken. FIG. 13 is a diagram illustrating an example of the different time point image DB. As illustrated in FIG. 13, the different time point image DB 825 stores “shooting date / time”, “shooting point”, and “file name” in association with each other. For example, in the different time point image DB 825, the file with the file name “XXXXYYY01.mp4” was taken at “XXX Expressway 10.0 km point” at “2016/02/01 13:00:00”. It is recorded that there is.

次に、制御部830の各機能について説明する。例えば、制御部830は、CPUやMPU等によって、映像出力装置800内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部830は、ASICやFPGA等の集積回路により実現されてもよい。   Next, each function of the control unit 830 will be described. For example, the control unit 830 is realized by executing various programs stored in a storage device inside the video output device 800 using the RAM as a work area by a CPU, an MPU, or the like. The control unit 830 may be realized by an integrated circuit such as an ASIC or FPGA.

制御部830は、映像取得部831と、動作検出部132と、映像抽出部133と、映像出力部134と、異時点映像処理部836とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部830の内部構成は、図8に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像取得部831及び異時点映像処理部836は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。   The control unit 830 includes a video acquisition unit 831, a motion detection unit 132, a video extraction unit 133, a video output unit 134, and a different time point video processing unit 836, and functions and functions of information processing described below. Realize or execute. Note that the internal configuration of the control unit 830 is not limited to the configuration illustrated in FIG. 8, and may be another configuration as long as the information processing described below is performed. The video acquisition unit 831 and the different time point video processing unit 836 are an example of an electronic circuit such as a processor or an example of a process executed by the processor.

映像取得部831は、移動中の移動体から撮影された映像を記録するとともに、異時点において撮影された映像を取得する処理部である。映像取得部831は、映像記録部131と同様に、風景撮影装置200により撮影された映像を取得し、映像データのファイルを、撮影された時間に対応付けて映像DB121に記憶する。さらに、映像取得部831は、移動中の移動体の現時点に対応する映像を、通信部810を通じて映像サーバ210から取得し、異時点映像DB825に記憶する。   The video acquisition unit 831 is a processing unit that records a video taken from a moving moving body and acquires a video taken at a different time. Similar to the video recording unit 131, the video acquisition unit 831 acquires the video shot by the landscape shooting apparatus 200, and stores the video data file in the video DB 121 in association with the shooting time. Further, the video acquisition unit 831 acquires a video corresponding to the current time of the moving moving object from the video server 210 through the communication unit 810 and stores the video in the different time point video DB 825.

異時点映像処理部836は、異時点映像データの表示に関する制御を行う処理部である。例えば、異時点映像処理部836は、操作部811又は通信部810を介して、搭乗者から異時点映像表示のリクエストを受け付ける。また、異時点映像処理部836は、異時点映像DB825を参照し、リクエストに基づいて、映像出力部134が出力している映像の地点と同じ地点において撮影された異時点映像を特定する。   The different time point video processing unit 836 is a processing unit that performs control related to display of different time point video data. For example, the different time point video processing unit 836 receives a request for different time point video display from the passenger via the operation unit 811 or the communication unit 810. Further, the different time point video processing unit 836 refers to the different time point video DB 825, and specifies the different time point video imaged at the same point as the video point output by the video output unit 134 based on the request.

[処理の流れ]
次に、本実施例における映像出力装置800の処理の流れについて、図14を用いて説明する。図14は、実施例3における処理の流れの一例を示すフローチャートである。
[Process flow]
Next, a processing flow of the video output apparatus 800 in the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of a process flow according to the third embodiment.

まず、異時点映像処理部836は、特定された映像が再生されている場合において、異時点映像表示のリクエストを受け付けたか否かを判定する(ステップS311)。異時点映像処理部836は、リクエストを受け付けたと判定された場合(ステップS311:Yes)、現在再生されている映像に対応する地点を特定する(ステップS391)。そして、異時点映像処理部836は、特定された地点に対応する異時点映像を特定し、映像出力部134に出力する。映像出力部134は、出力された異時点映像データを再生する(ステップS393)。   First, the different time point video processing unit 836 determines whether or not a request for different time point video display has been received when the specified video is being played back (step S311). When it is determined that the request has been received (step S311: Yes), the different time video processing unit 836 identifies a point corresponding to the currently played video (step S391). Then, the different time point video processing unit 836 specifies the different time point video corresponding to the specified point, and outputs it to the video output unit 134. The video output unit 134 reproduces the output different time point video data (step S393).

ステップS311に戻って、異時点映像処理部836は、リクエストを受け付けなかったと判定された場合(ステップS311:No)、処理の終了指示を受け付けたか否かを判定する(ステップS361)。処理終了の指示を受け付けたと判定されなかった場合(ステップS361:No)、ステップS193に戻って処理を繰り返す。処理終了の指示を受け付けたと判定された場合(ステップS361:Yes)、処理を終了する。   Returning to step S311, when it is determined that the request has not been received (step S311: No), the different time video processing unit 836 determines whether an instruction to end the process has been received (step S361). If it is not determined that an instruction to end the process has been received (step S361: No), the process returns to step S193 and is repeated. If it is determined that an instruction to end the process has been received (step S361: Yes), the process ends.

本実施例によれば、移動中に撮影された映像において、対象物が視認できない場合でも、対象物を含む風景に関する映像を再現することができる。また、異なる時点において撮影された映像を表示できるので、夜景などの時間帯による風景の変化や、花火大会などのイベント開催時の風景などを再現することもできる。   According to the present embodiment, even when the target object cannot be visually recognized in the video shot while moving, it is possible to reproduce the video related to the landscape including the target object. In addition, since images taken at different points in time can be displayed, it is possible to reproduce changes in scenery such as night views and scenery at the time of events such as fireworks displays.

なお、異時点映像DB825は、一つの撮影地点について、撮影日時の異なる複数の異時点映像データを記憶してもよい。また、異時点映像処理部836が、撮影日時や撮影時の気象状況等の条件の指定を含む異時点映像表示のリクエストを受け付け、指定された条件に合致する異時点映像データを特定するような構成であってもよい。   The different time point video DB 825 may store a plurality of different time point video data with different shooting dates and times for one shooting point. Also, the different time point video processing unit 836 receives a request for different time point video display including designation of conditions such as the shooting date and time and the weather condition at the time of shooting, and identifies the different time point video data that matches the specified condition. It may be a configuration.

なお、異時点映像DB825は、例えば撮影地点に加えて、撮影方向をさらに記憶してもよく、また撮影地点を緯度経度、高度その他の情報により記憶してもよい。これにより、例えば、地下を移動中に、対応する地上の風景を再現することもできる。さらに、異時点映像DB825は、撮影日時に加えて、撮影時点の気象状況や、イベント開催状況等を記憶してもよい。   Note that the different time point image DB 825 may further store the shooting direction in addition to the shooting point, for example, and may store the shooting point by latitude and longitude, altitude, and other information. Thereby, for example, a corresponding landscape on the ground can be reproduced while moving in the basement. Further, the different time point image DB 825 may store the weather situation at the time of shooting, the event holding situation, and the like in addition to the shooting date and time.

また、異時点映像処理部836は、搭乗者から異時点映像表示のリクエストを受け付けた場合に加えて、日時や天候などが所定の条件に合致した場合に、異時点映像を表示させるような構成であってもよい。例えば、異時点映像処理部836が、図示しない照度センサ等から取得した照度が、予め記憶部820に記憶された閾値を下回ると判定された場合に、異時点映像を表示させるような構成であってもよい。   Further, the different time point video processing unit 836 is configured to display the different time point image when the date and time, the weather, or the like matches a predetermined condition in addition to the case where the request for displaying the different time point image is received from the passenger. It may be. For example, when the illuminance acquired from the illuminance sensor (not shown) or the like by the different time point image processing unit 836 is determined to be lower than the threshold value stored in advance in the storage unit 820, the different time point image is displayed. May be.

また、異時点映像処理部836が、所定の対象物を含む異時点映像と、同一地点において風景撮影装置200により撮影された現在の映像とを比較し、比較結果に基づいて異時点映像を表示させるような構成であってもよい。例えば、異時点映像処理部836が、現在の映像において所定の対象物が視認できないと判定された場合に、異時点映像を表示させるような構成とすることもできる。   Also, the different time point image processing unit 836 compares the different time point image including the predetermined object with the current image shot by the landscape photographing device 200 at the same point, and displays the different time point image based on the comparison result. The structure which makes it do may be sufficient. For example, the different time point video processing unit 836 may be configured to display the different time point image when it is determined that a predetermined object cannot be visually recognized in the current video.

なお、本実施例における映像出力部134は、異時点映像と現在の映像とを重畳して表示させてもよく、また公知の映像認識技術を用いて、異時点映像と現在の映像との差分を算出して表示させてもよい。   Note that the video output unit 134 in this embodiment may superimpose and display the different time point video and the current video, or use a known video recognition technique to calculate the difference between the different time point video and the current video. May be calculated and displayed.

ところで、観光バスや列車、旅客機等の大型の移動体においては、搭乗者の人数も多く、また搭乗者の着席位置によって搭乗者から視認できる風景が異なる場合もある。例えば、観光バスの左側の座席に着席した搭乗者からは、右側の座席に着席した搭乗者から見える観光バスの右側の風景が見えにくい場合がある。そこで、本実施例においては、搭乗者の着席位置を特定し、着席位置に応じた映像を表示させる構成について説明する。   By the way, in a large-sized moving body such as a sightseeing bus, a train, and a passenger plane, the number of passengers is large, and the scenery that can be visually recognized from the passenger may vary depending on the seating position of the passenger. For example, a passenger seated on the left seat of the sightseeing bus may not easily see the scenery on the right side of the sightseeing bus seen by the passenger seated on the right seat. Therefore, in the present embodiment, a configuration will be described in which a seating position of a passenger is specified and an image corresponding to the seating position is displayed.

本実施例における映像出力装置900は、例えば観光バスなどの大型の移動体において実装される。図15は、実施例4の映像出力装置を実装した移動体の一例を示す図である。図15に示すように、映像出力装置900は、例えば観光バス5000の天井などに設置される。なお、以下の実施例において、動作DB122、映像出力部134、風景撮影装置200及び表示装置500は実施例1と同様の処理を行うため、詳細な説明は省略する。   The video output device 900 in the present embodiment is mounted on a large mobile body such as a sightseeing bus. FIG. 15 is a diagram illustrating an example of a moving object on which the video output device according to the fourth embodiment is mounted. As shown in FIG. 15, the video output device 900 is installed on the ceiling of a sightseeing bus 5000, for example. In the following embodiments, the operation DB 122, the video output unit 134, the landscape photographing device 200, and the display device 500 perform the same processing as in the first embodiment, and thus detailed description thereof is omitted.

本実施例において、観光バス5000は、進行方向に向かって左側の風景を撮影する風景撮影装置200aと、向かって右側の風景を撮影する風景撮影装置200bとの2つの風景撮影装置200を有する。同様に、観光バス5000は、向かって左側の座席に着席する搭乗者5500aの動作を検出する動作撮影装置300aと、向かって右側の座席に着席する搭乗者5500bの動作を検出する動作撮影装置300bとの2つの動作撮影装置300を有する。なお、観光バス5000は、左右にそれぞれ表示装置500a及び500bを有するが、これに限られず、表示装置500を一つだけ有するような構成であってもよく、また各搭乗者の座席に表示装置が設けられるような構成であってもよい。   In this embodiment, the sightseeing bus 5000 has two landscape photographing devices 200, a landscape photographing device 200a that photographs a landscape on the left side in the traveling direction and a landscape photographing device 200b that photographs a landscape on the right side. Similarly, the sightseeing bus 5000 detects the motion of the passenger 5500a seated in the left seat and the motion photographing device 300b detects the motion of the passenger 5500b seated in the right seat. And two motion photographing apparatuses 300. The sightseeing bus 5000 has the display devices 500a and 500b on the left and right, respectively, but is not limited thereto, and may be configured to have only one display device 500, and the display device is provided in each passenger's seat. May be provided.

[機能構成]
次に、図16を用いて、本実施例における映像出力装置900の機能構成について説明する。図16は、実施例4における機能構成の一例を示す図である。なお、以下の実施例において、同一の部位には同一の符号を付し、重複する説明は省略される。
[Function configuration]
Next, the functional configuration of the video output apparatus 900 in this embodiment will be described with reference to FIG. FIG. 16 is a diagram illustrating an example of a functional configuration according to the fourth embodiment. Note that, in the following embodiments, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図16に示すように、本実施例における映像出力装置900は、記憶部920と、制御部930とを有する。記憶部920は、映像出力装置900が使用するプログラムやデータを記憶する。また、記憶部920は、制御部930が行う各処理に用いられる情報を適宜記憶する。図16に示すように、記憶部920は、映像DB921と、動作DB122とを有する。   As shown in FIG. 16, the video output device 900 in this embodiment includes a storage unit 920 and a control unit 930. The storage unit 920 stores programs and data used by the video output device 900. Further, the storage unit 920 appropriately stores information used for each process performed by the control unit 930. As illustrated in FIG. 16, the storage unit 920 includes a video DB 921 and an operation DB 122.

本実施例における映像DB921は、風景撮影装置200a及び200bから取得した映像データを、撮影日時、撮影地点及び撮影方向とともに記憶する。図17は、実施例4における映像DBの一例を示す図である。図17に示すように、映像DB921は、「撮影日時」と、「撮影地点」と、「撮影方向」と、「ファイル名」とを対応付けて記憶する。   The video DB 921 in this embodiment stores the video data acquired from the landscape imaging devices 200a and 200b together with the shooting date / time, shooting location, and shooting direction. FIG. 17 is a diagram illustrating an example of a video DB according to the fourth embodiment. As illustrated in FIG. 17, the video DB 921 stores “shooting date / time”, “shooting point”, “shooting direction”, and “file name” in association with each other.

本実施例において、風景撮影装置200aから取得された映像データは、「撮影方向」に「左側」が記憶され、風景撮影装置200bから取得された映像データは、「撮影方向」に「右側」が記憶される。例えば、映像DB921には、ファイル名が「XXXXXR01.mp4」のファイルは、「2016/08/01 13:00:00」に「○○高速道路 10.0km地点」において、風景撮影装置200bにより撮影されたものであることが記録されている。   In the present embodiment, “left side” is stored in the “shooting direction” for the video data acquired from the landscape shooting apparatus 200a, and “right side” is displayed in the “shooting direction” for the video data acquired from the landscape shooting apparatus 200b. Remembered. For example, in the video DB 921, a file with the file name “XXXXR01.mp4” is photographed by the landscape photographing device 200b at “2016/08/01 13:00:00” at “XX Expressway 10.0 km point”. Is recorded.

次に、制御部930の各機能について説明する。例えば、制御部930は、CPUやMPU等によって、映像出力装置900内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部930は、ASICやFPGA等の集積回路により実現されてもよい。   Next, each function of the control unit 930 will be described. For example, the control unit 930 is realized by executing various programs stored in a storage device in the video output apparatus 900 using the RAM as a work area by a CPU, an MPU, or the like. The control unit 930 may be realized by an integrated circuit such as an ASIC or FPGA.

制御部930は、映像記録部931と、動作検出部932a及び932bと、映像抽出部933と、映像出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部930の内部構成は、図16に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、映像記録部931、動作検出部932a、932b及び映像抽出部933は、プロセッサなどの電子回路の一例またはプロセッサなどが実行するプロセスの一例である。   The control unit 930 includes a video recording unit 931, motion detection units 932a and 932b, a video extraction unit 933, and a video output unit 134, and realizes or executes information processing functions and operations described below. Note that the internal configuration of the control unit 930 is not limited to the configuration illustrated in FIG. 16, and may be another configuration as long as the information processing described below is performed. In addition, the video recording unit 931, the motion detection units 932a and 932b, and the video extraction unit 933 are examples of electronic circuits such as a processor or processes executed by the processor.

本実施例における映像記録部931は、移動中の移動体から撮影された映像を、撮影方向と対応付けて記録する処理部である。映像記録部931は、風景撮影装置200aにより撮影された映像を取得し、映像データのファイルを、撮影された時間、撮影地点及び撮影方向「左側」に対応付けて映像DB921に記憶する。また、映像記録部931は、風景撮影装置200bにより撮影された映像を取得し、映像データのファイルを、撮影された時間、撮影地点及び撮影方向「右側」に対応付けて映像DB921に記憶する。   The video recording unit 931 in this embodiment is a processing unit that records a video shot from a moving moving body in association with a shooting direction. The video recording unit 931 acquires the video shot by the landscape shooting device 200a, and stores the video data file in the video DB 921 in association with the shooting time, shooting point, and shooting direction “left side”. Also, the video recording unit 931 acquires a video shot by the landscape shooting device 200b, and stores a video data file in the video DB 921 in association with the shooting time, shooting point, and shooting direction “right”.

動作検出部932aは、移動体の左側の座席に着席する搭乗者5500aの動作を検出する処理部である。また、動作検出部932bは、移動体の右側の座席に着席する搭乗者5500bの動作を検出する処理部である。動作検出部932a及び932bにおける処理は、動作検出部132と同様であるため、詳細な説明は省略する。   The motion detection unit 932a is a processing unit that detects the motion of the passenger 5500a seated in the left seat of the moving object. The motion detection unit 932b is a processing unit that detects the motion of the passenger 5500b seated in the right seat of the moving object. Since the processing in the motion detection units 932a and 932b is the same as that in the motion detection unit 132, detailed description thereof is omitted.

映像抽出部933は、検出された搭乗者の動作と、搭乗者の着席位置から推定される映像を抽出する処理部である。例えば、図15に示すような例において、映像抽出部933は、動作検出部932aから、搭乗者5500aが左後方を指さすことを示す動作データの出力を受ける。この場合において、映像抽出部933は、動作DB122に記憶された動作に合致する場合、合致した動作に対応する時間帯又は対象物を特定する。そして、映像抽出部933は、特定された時間帯又は対象物に対応する、撮影方向が「左側」である映像データを特定する。また、映像抽出部933は、動作検出部932bから出力された動作データに合致する動作に対応する時間帯又は対象物を特定し、特定された時間帯又は対象物に対応する、撮影方向が「右側」である映像データを特定する。   The video extraction unit 933 is a processing unit that extracts a video estimated from the detected movement of the passenger and the seating position of the passenger. For example, in the example shown in FIG. 15, the video extraction unit 933 receives an output of operation data indicating that the passenger 5500a points to the left rear from the operation detection unit 932a. In this case, when the video extraction unit 933 matches the motion stored in the motion DB 122, the video extraction unit 933 specifies a time zone or an object corresponding to the matched motion. Then, the video extraction unit 933 specifies video data corresponding to the specified time zone or the object whose shooting direction is “left side”. In addition, the video extraction unit 933 specifies a time zone or an object corresponding to the operation that matches the operation data output from the operation detection unit 932b, and the shooting direction corresponding to the specified time zone or the object is “ Identify the video data that is "right".

[処理の流れ]
次に、本実施例における映像出力装置900の処理の流れについて、図18を用いて説明する。図18は、実施例4における処理の流れの一例を示すフローチャートである。なお、以下の説明において、図6に示すステップと同じ符号については同様のステップであるため、詳細な説明を省略する。
[Process flow]
Next, the flow of processing of the video output apparatus 900 in this embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating an example of a process flow according to the fourth embodiment. In the following description, the same reference numerals as those shown in FIG. 6 are the same steps, and detailed description thereof will be omitted.

動作検出部932a及び932bは、それぞれ動作撮影装置300a及び300bから映像データの入力を受けて、搭乗者の動作を検出し、動作データを映像抽出部933に出力する。動作データの入力を受けた映像抽出部933は、ステップS111乃至S117に示す各処理を実施する。   The motion detection units 932a and 932b receive video data input from the motion imaging apparatuses 300a and 300b, respectively, detect a passenger's motion, and output the motion data to the video extraction unit 933. Receiving the operation data, the video extraction unit 933 performs each process shown in steps S111 to S117.

ステップS111乃至S117において各動作が検出された場合、映像抽出部133は、動作DB122を参照し、ステップS111乃至S117において検出された視線の変化、表情の変化、手の動き又は画面へのタッチに対応する時間帯又は対象物を推定する。また、映像抽出部933は、動作検出部932aにおいて動作が検出された場合、撮影方向が「左側」であることを特定し、動作検出部932bにおいて動作が検出された場合、撮影方向が「右側」であることを特定する。そして、映像抽出部933は、映像DB921から、推定された時間帯又は対象物及び撮影方向に対応する映像データを特定し(ステップS401)、ステップS193に移行する。   When each motion is detected in steps S111 to S117, the video extraction unit 133 refers to the motion DB 122, and changes the line of sight, facial expression, hand movement, or screen touch detected in steps S111 to S117. Estimate the corresponding time zone or object. In addition, the video extraction unit 933 specifies that the shooting direction is “left side” when the motion is detected in the motion detection unit 932a, and the motion direction is “right side” when the motion is detected in the motion detection unit 932b. ”. Then, the video extraction unit 933 specifies video data corresponding to the estimated time zone or the object and the shooting direction from the video DB 921 (step S401), and proceeds to step S193.

本実施例によれば、風景が見える席とは反対側の席に座っている搭乗者も、風景が見える席に座っている搭乗者と同様に、風景を楽しむことができる。なお、例えば観光バス5000の右側の車窓を表示装置500bとして、左側の風景撮影装置200aにより撮影された映像を表示させる場合、車両の進行方向と映像が動く方向とが一致するように、振り返り映像を左右反転させて表示させてもよい。   According to the present embodiment, a passenger sitting in a seat on the opposite side of the seat where the scenery can be seen can enjoy the scenery as well as a passenger sitting in the seat where the scenery can be seen. For example, when displaying an image captured by the landscape photographing device 200a on the left side using the vehicle window on the right side of the sightseeing bus 5000 as the display device 500b, a look-back image so that the traveling direction of the vehicle coincides with the direction in which the image moves. May be displayed by reversing left and right.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。例えば、図6、図10、図14及び図18に示す各処理は、上記の順番に限定されるものではなく、図6のステップS111乃至S117など、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. For example, the processes shown in FIGS. 6, 10, 14, and 18 are not limited to the above-described order, and are performed simultaneously within a range that does not contradict the process contents, such as steps S111 to S117 in FIG. Alternatively, the order may be changed.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、映像出力装置100において、映像抽出部133及び映像出力部134を統合するような構成であってもよく、又は動作検出部132を、視線を検出する処理部と手の動きを検出する処理部とに分散するような構成であってもよい。また、動作撮影装置300及び音声取得装置400を統合するような構成であってもよい。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure. That is, all or a part of them can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. For example, in the video output device 100, the video extraction unit 133 and the video output unit 134 may be integrated, or the motion detection unit 132 may be a processing unit that detects the line of sight and a process that detects the movement of the hand. The configuration may be such that it is distributed to each part. Moreover, the structure which integrates the action | operation imaging | photography apparatus 300 and the audio | voice acquisition apparatus 400 may be sufficient. Further, all or a part of each processing function performed in each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware by wired logic.

また、各実施例においては、映像出力装置が音声検出及び動作検出のいずれかを行う構成について説明したが、これに限られず、映像出力装置が音声検出と動作検出との両方を行う構成であってもよい。また、映像出力装置が、視線の変化、表情の変化及び手の動きのうち、少なくともいずれか1つを行うような構成であってもよい。例えば、映像出力装置100が、図6の符号S111乃至S117に示す各判定処理のうち、少なくともいずれか1つを実行するような処理の流れであってもよい。また、図6のS111乃至S117又は図10のS211乃至S231に示す各処理以外の方法により、搭乗者が特定の時間帯又は地点を指定したことを示す情報を検出する処理を含むような構成であってもよい。例えば、音声検出部735が、所定の音量(例えば80db以上)の音声を検出した場合に、映像抽出部733が対応する時間帯又は対象物を特定するような構成であってもよい。   In each embodiment, the configuration in which the video output device performs either audio detection or motion detection has been described. However, the configuration is not limited to this, and the video output device has a configuration in which both audio detection and motion detection are performed. May be. Further, the video output device may be configured to perform at least one of a change in line of sight, a change in facial expression, and a hand movement. For example, the processing flow may be such that the video output apparatus 100 executes at least one of the determination processes indicated by reference numerals S111 to S117 in FIG. In addition, the configuration includes a process of detecting information indicating that the passenger has specified a specific time zone or point by a method other than the processes shown in S111 to S117 of FIG. 6 or S211 to S231 of FIG. There may be. For example, when the sound detection unit 735 detects sound having a predetermined volume (for example, 80 db or more), the video extraction unit 733 may identify a corresponding time zone or object.

また、映像出力部134は、通常は映像を表示させず、搭乗者の音声又は動作を検出した場合に映像を表示させるような構成であってもよい。このような構成においては、例えば表示装置500が移動体の窓を兼ねるような場合において、映像が表示されていないときは移動体の外界を映像ではなく直接視認することができる。   In addition, the video output unit 134 may be configured to display a video when a passenger's voice or motion is detected, normally without displaying the video. In such a configuration, for example, when the display device 500 also serves as a window of the moving body, when the video is not displayed, the outside world of the moving body can be directly viewed instead of the video.

なお、映像記録部131、931又は映像取得部831は、映像出力部134が映像を表示装置500に表示させている最中も、引き続き風景撮影装置200から映像データを取得するような構成であってもよい。この場合において、動作検出部132、932a及び932b並びに音声検出部735が、映像出力部134が映像を表示装置500に表示させている最中においても、さらに音声又は動作を検出するような構成であってもよい。これにより、搭乗者の音声又は動作に基づいて特定された時間帯又は地点の映像データを再生している場合においても、さらに搭乗者の音声又は動作に基づいて時間帯又は地点を特定し、映像データを再生することができる。   Note that the video recording units 131 and 931 or the video acquisition unit 831 are configured to continuously acquire video data from the landscape photographing device 200 while the video output unit 134 displays the video on the display device 500. May be. In this case, the operation detection units 132, 932a and 932b and the audio detection unit 735 are configured to further detect audio or operation even while the video output unit 134 is displaying video on the display device 500. There may be. As a result, even when the video data of the time zone or point specified based on the voice or action of the passenger is being reproduced, the time zone or point is further specified based on the voice or action of the passenger, and the video Data can be played back.

なお、動作又は音声と、対象となる時間帯又は地点との対応関係は、例えば予め記憶されたテーブルに基づいて特定されるが、これに限られず、例えば動作と時間帯との対応関係を定めた数式に動作データを当てはめることにより、時間帯を特定してもよい。   Note that the correspondence between the action or voice and the target time zone or point is specified based on, for example, a pre-stored table, but is not limited to this. For example, the correspondence between the operation and the time zone is determined. The time zone may be specified by applying the operation data to the formula.

また、映像出力部134が出力する映像データは、例えばリアルタイムで撮影された動画データであるが、これに限られず、静止画像やコマ送り画像などの映像データであってもよい。なお、図3又は図17に示す映像DBは一例であり、例えば連続して記録された一つの映像データに対して付されたタイムスタンプを記憶するような構成であってもよい。   The video data output by the video output unit 134 is, for example, moving image data captured in real time, but is not limited thereto, and may be video data such as a still image or a frame advance image. Note that the video DB shown in FIG. 3 or FIG. 17 is an example, and for example, a configuration in which a time stamp attached to one video data recorded continuously may be stored.

また、映像抽出部133、733及び933は、搭乗者による指示などに基づいて、表示させる映像とは異なる時間帯の映像をさらに表示させるような構成であってもよい。例えば、図5に示す地点3000において、映像抽出部133が時点3001において撮影された映像データを抽出したが、搭乗者1500が振り返りたい風景は時点3001のものではなく時点3010のものである場合がある。この場合、動作検出部132は、例えば搭乗者1500が表示装置500をスワイプし、又は搭乗者1500が後方を指さしたことを検出し、映像抽出部133が時点3001において撮影された映像データを抽出するような構成であってもよい。これにより、映像抽出部133は、抽出した映像データが搭乗者1500の意図したものではない場合であっても、搭乗者の意図する映像データをさらに抽出することができる。   Further, the video extraction units 133, 733, and 933 may be configured to further display a video in a time zone different from the video to be displayed based on an instruction from the passenger. For example, at the point 3000 shown in FIG. 5, the video extraction unit 133 may extract the video data taken at the time point 3001, but the scenery that the passenger 1500 wants to look back at is not the time point 3001 but the time point 3010. is there. In this case, for example, the motion detection unit 132 detects that the passenger 1500 swipes the display device 500 or points to the rear of the passenger 1500, and the video extraction unit 133 extracts video data captured at the time point 3001. Such a configuration may be adopted. Thereby, the video extraction unit 133 can further extract the video data intended by the passenger even if the extracted video data is not intended by the passenger 1500.

さらに、映像抽出部133、733及び933が、搭乗者による動作又は音声による学習結果に従って、動作DB122、音声DB723又はランドマークDB724を更新するような構成であってもよい。例えば、特定の店舗を含む映像データが複数回再生された場合、映像抽出部733が、ランドマークDB724に、当該店舗に関する情報を新たに登録してもよい。   Further, the video extraction units 133, 733, and 933 may be configured to update the operation DB 122, the audio DB 723, or the landmark DB 724 in accordance with an operation by a passenger or a learning result by audio. For example, when video data including a specific store is reproduced a plurality of times, the video extraction unit 733 may newly register information regarding the store in the landmark DB 724.

また、音声検出部735が「ちょっと前」という音声を検出し、映像抽出部733が音声DB723を参照して「10秒前」の映像データを出力した場合において、搭乗者が「10秒前」の映像ではなく「2秒前」の映像を要求する場合がある。このような要求が連続した場合において、映像抽出部733が、音声DB723の「ちょっと前」に対応する「Rt(秒)」を、「10」から「2」に更新するような構成であってもよい。   In addition, when the voice detection unit 735 detects the voice “slightly before” and the video extraction unit 733 refers to the voice DB 723 and outputs the video data “10 seconds ago”, the passenger is “10 seconds ago”. In some cases, a video of “2 seconds ago” is requested instead of the video of. When such requests are continuous, the video extraction unit 733 updates “Rt (seconds)” corresponding to “a little before” in the audio DB 723 from “10” to “2”. Also good.

また、映像抽出部133、733及び933が、搭乗者の動作又は音声に基づいて時間帯又は対象物を特定する構成は、上記したものに限られない。例えば、映像抽出部733が、搭乗者1500の音声が検出された時点における位置情報を取得し、ランドマークDB724を参照して、当該位置情報に該当するランドマークを含む映像を抽出するような構成であってもよい。また、映像出力部134が、複数の時点において撮影された画像を表示装置500にサムネイル表示させ、このうち搭乗者1500が選択する画像に該当する映像データを出力するような構成であってもよい。   Moreover, the structure which the image | video extraction parts 133, 733, and 933 specify a time slot | zone or a target object based on a passenger | crew's operation | movement or an audio | voice is not restricted above. For example, the video extraction unit 733 acquires position information at the time when the voice of the passenger 1500 is detected, and refers to the landmark DB 724 to extract a video including a landmark corresponding to the position information. It may be. Further, the video output unit 134 may display the images taken at a plurality of time points on the display device 500 as thumbnails, and output video data corresponding to the images selected by the passenger 1500. .

[ハードウェア構成]
本実施形態に係る映像出力装置100、700、800及び900は、図19に一例として示す構成のコンピュータ600で実現することができる。図19は、映像出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
[Hardware configuration]
The video output devices 100, 700, 800, and 900 according to the present embodiment can be realized by a computer 600 having a configuration shown as an example in FIG. FIG. 19 is a hardware configuration diagram illustrating an example of a computer that implements the functions of the video output apparatus.

コンピュータ600は、CPU(Central Processing Unit)610と、ROM(Read Only Memory)620と、RAM(Random Access Memory)630と、HDD(Hard Disk Drive)640とを備える。また、コンピュータ600は、メディアインターフェイス(I/F)650と、通信インターフェイス(I/F)660と、入出力インターフェイス(I/F)670とを備える。   The computer 600 includes a CPU (Central Processing Unit) 610, a ROM (Read Only Memory) 620, a RAM (Random Access Memory) 630, and an HDD (Hard Disk Drive) 640. The computer 600 also includes a media interface (I / F) 650, a communication interface (I / F) 660, and an input / output interface (I / F) 670.

なお、コンピュータ600は、SSD(Solid State Drive)を備え、かかるSSDがHDD640の一部または全ての機能を実行するようにしてもよい。また、HDD640に代えてSSDを設けることとしてもよい。   The computer 600 may include an SSD (Solid State Drive), and the SSD may execute a part or all of the functions of the HDD 640. Further, an SSD may be provided instead of the HDD 640.

CPU610は、ROM620およびHDD640の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM620は、コンピュータ600の起動時にCPU610によって実行されるブートプログラムや、コンピュータ600のハードウェアに依存するプログラムなどを格納する。HDD640は、CPU610によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。   The CPU 610 operates based on a program stored in at least one of the ROM 620 and the HDD 640 and controls each unit. The ROM 620 stores a boot program executed by the CPU 610 when the computer 600 starts up, a program depending on the hardware of the computer 600, and the like. The HDD 640 stores a program executed by the CPU 610, data used by the program, and the like.

メディアI/F650は、記憶媒体680に格納されたプログラムやデータを読み取り、RAM630を介してCPU610に提供する。CPU610は、かかるプログラムを、メディアI/F650を介して記憶媒体680からRAM630上にロードし、ロードしたプログラムを実行する。あるいは、CPU610は、かかるデータを用いてプログラムを実行する。記憶媒体680は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。   The media I / F 650 reads programs and data stored in the storage medium 680 and provides them to the CPU 610 via the RAM 630. The CPU 610 loads such a program from the storage medium 680 onto the RAM 630 via the media I / F 650, and executes the loaded program. Alternatively, the CPU 610 executes a program using such data. The storage medium 680 is, for example, a magneto-optical recording medium such as a DVD (Digital Versatile Disc), an SD card, or a USB memory.

通信I/F660は、ネットワーク690を介して映像サーバ210等の他の機器からデータを受信してCPU610に送り、CPU610が生成したデータを、ネットワーク690を介して他の機器へ送信する。あるいは、通信I/F660は、ネットワーク690を介して他の機器からプログラムを受信してCPU610に送り、CPU610がかかるプログラムを実行する。通信I/F660は、例えば、通信部810の機能を実現する。   The communication I / F 660 receives data from other devices such as the video server 210 via the network 690 and sends the data to the CPU 610, and transmits the data generated by the CPU 610 to other devices via the network 690. Alternatively, the communication I / F 660 receives a program from another device via the network 690, sends the program to the CPU 610, and the CPU 610 executes the program. The communication I / F 660 realizes the function of the communication unit 810, for example.

CPU610は、入出力I/F670を介して、風景撮影装置200、動作撮影装置300、音声取得装置400及び表示装置500等を制御する。CPU610は、入出力I/F670を介して、風景撮影装置200、動作撮影装置300及び音声取得装置400等からデータを取得する。また、CPU610は、通信I/F660を介して、映像サーバ210等からデータを取得する。また、CPU610は、生成したデータを入出力I/F670を介して表示装置500等に出力する。   The CPU 610 controls the landscape photographing device 200, the motion photographing device 300, the sound acquisition device 400, the display device 500, and the like via the input / output I / F 670. The CPU 610 acquires data from the landscape imaging device 200, the motion imaging device 300, the sound acquisition device 400, and the like via the input / output I / F 670. In addition, the CPU 610 acquires data from the video server 210 or the like via the communication I / F 660. In addition, the CPU 610 outputs the generated data to the display device 500 or the like via the input / output I / F 670.

例えば、コンピュータ600が映像出力装置100、700、800又は900として機能する場合、コンピュータ600のCPU610は、RAM630上にロードされたプログラムを実行する。これにより、CPU610は、映像記録部131又は931、映像取得部831、動作検出部132、932a又は932b、映像抽出部133、733、933、映像出力部134、音声検出部735及び異時点映像処理部836の各部の機能を実現する。   For example, when the computer 600 functions as the video output device 100, 700, 800, or 900, the CPU 610 of the computer 600 executes a program loaded on the RAM 630. Thereby, the CPU 610 includes the video recording unit 131 or 931, the video acquisition unit 831, the motion detection unit 132, 932a or 932b, the video extraction unit 133, 733, 933, the video output unit 134, the audio detection unit 735, and the different time video processing. The function of each unit of the unit 836 is realized.

コンピュータ600のCPU610は、例えばこれらのプログラムを記憶媒体680から読み取って実行するが、他の例として、他の装置からネットワーク690を介してこれらのプログラムを取得してもよい。   For example, the CPU 610 of the computer 600 reads these programs from the storage medium 680 and executes them, but as another example, these programs may be acquired from other devices via the network 690.

100、700、800、900 映像出力装置
120、720、820、920 記憶部
121、921 映像DB
122 動作DB
130、730、830、930 制御部
131、931 映像記録部
132、932a、932b 動作検出部
133、733、933 映像抽出部
134 映像出力部
723 音声DB
724 ランドマークDB
735 音声検出部
810 通信部
811 操作部
825 異時点映像DB
831 映像取得部
836 異時点映像処理部
200、200a、200b 風景撮影装置
210 映像サーバ
300、300a、300b 動作撮影装置
400 音声取得装置
500、500a、500b 表示装置
100, 700, 800, 900 Video output device 120, 720, 820, 920 Storage unit 121, 921 Video DB
122 Operation DB
130, 730, 830, 930 Control unit 131, 931 Video recording unit 132, 932a, 932b Motion detection unit 133, 733, 933 Video extraction unit 134 Video output unit 723 Audio DB
724 Landmark DB
735 Audio detection unit 810 Communication unit 811 Operation unit 825 Different time point video DB
831 Video acquisition unit 836 Inter-time point video processing unit 200, 200a, 200b Scene shooting device 210 Video server 300, 300a, 300b Motion shooting device 400 Audio acquisition device 500, 500a, 500b Display device

Claims (8)

搭乗者を輸送する移動体の移動中に撮影装置により撮影された前記移動体の外界の風景を、映像データとして記憶する記憶部と、
前記移動体の移動中に前記搭乗者による反応を検出する検出部と、
記憶された前記映像データのうち、検出された前記反応に対応する映像データを出力する出力部と
を有することを特徴とする映像出力装置。
A storage unit for storing, as video data, an external landscape of the moving body imaged by the imaging device during movement of the moving object that transports the passenger;
A detection unit for detecting a reaction by the passenger during the movement of the moving body;
An output unit that outputs video data corresponding to the detected reaction among the stored video data.
過去の時間帯又は過去に通過した地点から撮影された対象物を特定する特定部をさらに有し、
前記検出部は、前記反応として、前記搭乗者が前記外界の風景を見落としたことを示すジェスチャを発したことを検出し、
前記特定部は、前記ジェスチャと時間帯又は対象物との対応関係を用いて、前記過去の時間帯又は前記対象物を特定し、
前記出力部は、特定された前記時間帯又は前記対象物に対応する映像データを出力することを特徴とする請求項1に記載の映像出力装置。
It further has a specifying unit for specifying an object photographed from a past time zone or a point that has passed in the past,
The detection unit detects, as the reaction, that the passenger has issued a gesture indicating that the scenery of the outside world has been overlooked,
The specifying unit specifies the past time zone or the object using a correspondence relationship between the gesture and a time zone or the object,
The video output apparatus according to claim 1, wherein the output unit outputs video data corresponding to the specified time zone or the object.
前記記憶部は、複数の前記搭乗者のそれぞれの搭乗位置から見える外界の風景を撮影した映像を、それぞれ異なる映像データとして記憶し、
前記検出部は、前記反応が検出された搭乗者の搭乗位置を検出し、
前記出力部は、記憶された複数の前記映像データのうち、検出された前記搭乗者の搭乗位置から見える外界の風景の映像データを、前記反応が検出された搭乗者の搭乗位置と異なる搭乗位置の搭乗者に対して出力することを特徴とする請求項1又は2に記載の映像出力装置。
The storage unit stores, as different video data, videos obtained by photographing the scenery of the outside world seen from the boarding positions of the plurality of passengers,
The detection unit detects a boarding position of a passenger from which the reaction is detected,
The output unit is a boarding position different from the boarding position of the passenger from which the reaction is detected, out of a plurality of the stored video data, video data of an external scenery seen from the boarding position of the passenger is detected. The video output device according to claim 1, wherein the video output device outputs to a passenger.
前記検出部は、前記ジェスチャとして、前記搭乗者の視線の変化、表情の変化、又は手の動きを検出し、
前記特定部は、前記視線の変化、前記表情の変化、又は前記手の動きと、前記時間帯又は前記対象物との対応関係を用いて、検出された前記視線の変化、前記表情の変化、又は前記手の動きに対応する時間帯又は対象物を特定し、
前記出力部は、特定された前記時間帯又は前記対象物に対応する映像データを出力することを特徴とする請求項2に記載の映像出力装置。
The detection unit detects, as the gesture, a change in the line of sight of the passenger, a change in facial expression, or a hand movement,
The specifying unit uses the correspondence between the change in the line of sight, the change in the facial expression, or the movement of the hand and the time zone or the object, and the change in the visual line detected, the change in the facial expression, Or identify the time zone or object corresponding to the hand movement,
The video output apparatus according to claim 2, wherein the output unit outputs video data corresponding to the specified time zone or the object.
前記検出部は、前記搭乗者の音声を検出し、
前記出力部は、前記音声が発生した時間帯に撮影された前記映像データを出力することを特徴とする請求項1乃至4のいずれか1つに記載の映像出力装置。
The detection unit detects the voice of the passenger,
5. The video output apparatus according to claim 1, wherein the output unit outputs the video data captured in a time zone in which the sound is generated.
前記検出部は、前記搭乗者の音声に含まれる文言を抽出し、
前記特定部は、前記文言に対応付けられる時間、又は前記文言が示す対象物を特定し、
前記出力部は、前記検出された時点から特定された前記時間の分だけ遡った時点の映像データ、又は特定された前記対象物が撮影された映像データを出力することを特徴とする請求項2に記載の映像出力装置。
The detection unit extracts a word included in the passenger's voice,
The specifying unit specifies a time associated with the word or an object indicated by the word,
The output unit outputs video data at a time point that is traced back by the specified time from the detected time point, or video data obtained by photographing the specified object. The video output device described in 1.
前記記憶部は、前記映像データと対応し、前記移動体の外界の風景が撮影された時点とは異なる時点において撮影された異時点映像データをさらに記憶し、
前記出力部は、特定された前記時間帯又は前記対象物に対応する前記異時点映像データを出力することを特徴とする請求項2に記載の映像出力装置。
The storage unit further stores different time point video data shot at a time point different from the time point when the outside landscape of the moving object was shot, corresponding to the video data.
The video output device according to claim 2, wherein the output unit outputs the video at different time points corresponding to the specified time zone or the object.
コンピュータが、
搭乗者を輸送する移動体の移動中に撮影装置により撮影された、前記移動体の外界の風景を映像データとして記憶し、
前記移動体の移動中に前記搭乗者による反応を検出し、
記憶された前記映像データのうち、検出された前記反応に対応する映像データを出力する
処理を実行することを特徴とする映像出力方法。
Computer
Storing, as video data, the scenery of the outside of the moving body, which was captured by the imaging device during the movement of the moving body that transports the passenger,
Detecting a reaction by the passenger during the movement of the moving body;
A video output method comprising: executing a process of outputting video data corresponding to the detected reaction among the stored video data.
JP2016172192A 2016-09-02 2016-09-02 Image output device and image output method Pending JP2018038009A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172192A JP2018038009A (en) 2016-09-02 2016-09-02 Image output device and image output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172192A JP2018038009A (en) 2016-09-02 2016-09-02 Image output device and image output method

Publications (2)

Publication Number Publication Date
JP2018038009A true JP2018038009A (en) 2018-03-08
JP2018038009A5 JP2018038009A5 (en) 2019-09-26

Family

ID=61567766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172192A Pending JP2018038009A (en) 2016-09-02 2016-09-02 Image output device and image output method

Country Status (1)

Country Link
JP (1) JP2018038009A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068436A (en) * 2018-10-23 2020-04-30 東京瓦斯株式会社 Information processing system and program
WO2020137881A1 (en) 2018-12-26 2020-07-02 パイオニア株式会社 Display control device, operation detection device, display control method, and display control program
WO2020137883A1 (en) 2018-12-26 2020-07-02 パイオニア株式会社 Display control device, display control method, and display control program
JP2023085170A (en) * 2021-12-08 2023-06-20 亞視亨國際企業股▲ふん▼有限公司 Modular vehicle control system
JP7442933B2 (en) 2020-03-20 2024-03-05 アルパイン株式会社 Vehicle image processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244709A (en) * 2002-02-19 2003-08-29 Fuji Photo Film Co Ltd Digital camera
JP2004128680A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Image pickup apparatus, editing apparatus, editing system, and editing method
JP2005176076A (en) * 2003-12-12 2005-06-30 Toshiba Corp Camera monitoring system and its monitoring control method
JP2009093076A (en) * 2007-10-11 2009-04-30 Mitsubishi Electric Corp Image display system in train

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244709A (en) * 2002-02-19 2003-08-29 Fuji Photo Film Co Ltd Digital camera
JP2004128680A (en) * 2002-09-30 2004-04-22 Fuji Photo Film Co Ltd Image pickup apparatus, editing apparatus, editing system, and editing method
JP2005176076A (en) * 2003-12-12 2005-06-30 Toshiba Corp Camera monitoring system and its monitoring control method
JP2009093076A (en) * 2007-10-11 2009-04-30 Mitsubishi Electric Corp Image display system in train

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068436A (en) * 2018-10-23 2020-04-30 東京瓦斯株式会社 Information processing system and program
JP7166139B2 (en) 2018-10-23 2022-11-07 東京瓦斯株式会社 Information processing system and program
WO2020137881A1 (en) 2018-12-26 2020-07-02 パイオニア株式会社 Display control device, operation detection device, display control method, and display control program
WO2020137883A1 (en) 2018-12-26 2020-07-02 パイオニア株式会社 Display control device, display control method, and display control program
JPWO2020137881A1 (en) * 2018-12-26 2021-11-18 パイオニア株式会社 Display control device, operation detection device, display control method and display control program
JPWO2020137883A1 (en) * 2018-12-26 2021-11-18 パイオニア株式会社 Display control device, display control method and display control program
US11361796B2 (en) 2018-12-26 2022-06-14 Pioneer Corporation Display control device, operation detection device, display control method, and display control program
JP2022121459A (en) * 2018-12-26 2022-08-19 パイオニア株式会社 Display control device, operation detection device, display control method, and display control program
EP3904158A4 (en) * 2018-12-26 2022-10-12 Pioneer Corporation Display control device, operation detection device, display control method, and display control program
US11758092B2 (en) 2018-12-26 2023-09-12 Pioneer Corporation Display control device, display control method, and display control program
JP7442933B2 (en) 2020-03-20 2024-03-05 アルパイン株式会社 Vehicle image processing device
JP2023085170A (en) * 2021-12-08 2023-06-20 亞視亨國際企業股▲ふん▼有限公司 Modular vehicle control system

Similar Documents

Publication Publication Date Title
KR102432614B1 (en) A shared experience for vehicle occupants and remote users
US20210081650A1 (en) Command Processing Using Multimodal Signal Analysis
JP2018038009A (en) Image output device and image output method
US9864559B2 (en) Virtual window display system
US9918038B2 (en) System and method for multimedia capture
EP3244591B1 (en) System and method for providing augmented virtual reality content in autonomous vehicles
US20220058407A1 (en) Neural Network For Head Pose And Gaze Estimation Using Photorealistic Synthetic Data
US20130265333A1 (en) Augmented Reality Based on Imaged Object Characteristics
JP4669448B2 (en) Information recording apparatus, information recording method, and program
US20140277833A1 (en) Event triggered trip data recorder
US20230093446A1 (en) Information processing device, information processing method, and program
US20200351478A1 (en) Display control device and display control method, display device, and mobile device
US9983407B2 (en) Managing points of interest
JP2016053880A (en) On-vehicle system, information processing method, and computer program
CN112954486B (en) Vehicle-mounted video trace processing method based on sight attention
US20220092860A1 (en) Extended reality for moving platforms
US20200342764A1 (en) Providing a model of a vehicle to a rider at an accurate orientation
JP2021044779A (en) Image display device, image display method, and image display system
JP2021093008A (en) Vehicle-purpose recording control device, vehicle-purpose recording control method, and program
WO2022004394A1 (en) Information processing device, information processing method, and program
JP2022183498A (en) Information providing device and information providing method
WO2024078740A1 (en) Celestial observation system for vehicle and celestial observation method for vehicle
JP2021190801A (en) Recording control device, and recording system
JP2021190800A (en) Recording control device, and recording system
JP2024080254A (en) Location information acquisition control device and location information acquisition method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201222