JP2019106097A - Network system, server, and information processing method - Google Patents

Network system, server, and information processing method Download PDF

Info

Publication number
JP2019106097A
JP2019106097A JP2017239378A JP2017239378A JP2019106097A JP 2019106097 A JP2019106097 A JP 2019106097A JP 2017239378 A JP2017239378 A JP 2017239378A JP 2017239378 A JP2017239378 A JP 2017239378A JP 2019106097 A JP2019106097 A JP 2019106097A
Authority
JP
Japan
Prior art keywords
user
server
cpu
drive recorder
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017239378A
Other languages
Japanese (ja)
Inventor
淳一 白川
Junichi Shirakawa
淳一 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017239378A priority Critical patent/JP2019106097A/en
Publication of JP2019106097A publication Critical patent/JP2019106097A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

To provide a network system, a server, or an information processing method capable of effectively utilizing an acquired image.SOLUTION: A network system 1 is provided which is comprised of: a drive recorder 200B of a first user; databases 120 and 100B for acquiring moving images of the drive recorder 200B; and a server 100 for inquiring of the first user whether a moving image may be provided to a second user and providing the moving image to terminals 300A and 200A of the second user based on a result of the inquiry.SELECTED DRAWING: Figure 9

Description

本発明は、画像データを有効利用するための技術に関する。   The present invention relates to a technique for effectively using image data.

従来から、ドライブレコーダに関する技術が知られている。たとえば、特開2017−117005号公報(特許文献1)には、事故通知システム、通知システム、車載通知装置及び事故通知方法が開示されている。特許文献1によると、事故発生を検出した車両は、車両及びサーバ装置へ事故発生位置情報を含む事故発生通知を送信する。事故発生通知を受信した車両は、事故発生位置情報と自車両の位置情報とが所定条件を満たす場合、車載カメラの撮像画像を事故状況通知としてサーバ装置へ送信する。サーバ装置は、車両又は車両からの通知を受信した場合、事故発生位から所定範囲内に存在する車両へ事故発生通知を行う。サーバ装置からの事故発生通知を受信した車両は、通知された事故発生位置情報と自車両の位置情報とが所定条件を満たす場合、車載カメラの撮像画像を事故状況通知としてサーバ装置へ送信する。   Conventionally, techniques related to drive recorders are known. For example, an accident notification system, a notification system, an in-vehicle notification device, and an accident notification method are disclosed in JP-A-2017-117005 (Patent Document 1). According to Patent Document 1, a vehicle having detected an accident occurrence transmits an accident occurrence notification including accident occurrence position information to the vehicle and the server device. When the accident occurrence position information and the position information of the own vehicle satisfy the predetermined conditions, the vehicle that has received the accident occurrence notification transmits the captured image of the on-vehicle camera to the server device as the accident condition notification. When receiving the notification from the vehicle or the vehicle, the server device notifies the vehicle existing in the predetermined range from the accident occurrence position of the occurrence of the accident. The vehicle receiving the accident occurrence notification from the server device transmits the captured image of the in-vehicle camera as the accident condition notification to the server device when the notified accident occurrence position information and the position information of the own vehicle satisfy the predetermined conditions.

また、特開2010−20386号公報(特許文献2)には、事故情報取得装置が開示されている。特許文献2によると、事故情報取得装置は、車両に搭載されており、制御部と、事故検出部と、撮影部と、表示部と、通信部と、リムーバブルメモリとを備えている。制御部は、車両事故発生が検出されると、周辺車両に撮影データの提供を要求し、撮影部が保持する撮影データをリムーバブルメモリに格納する。又、周辺車両から撮影データの提供の要求がある場合にも、撮影部が保持する撮影データをリムーバブルメモリに格納する。   Moreover, the accident information acquisition apparatus is disclosed by Unexamined-Japanese-Patent No. 2010-20386 (patent document 2). According to Patent Document 2, the accident information acquisition device is mounted on a vehicle, and includes a control unit, an accident detection unit, a photographing unit, a display unit, a communication unit, and a removable memory. When the occurrence of a vehicle accident is detected, the control unit requests the surrounding vehicle to provide imaging data, and stores the imaging data held by the imaging unit in the removable memory. Also, even when there is a request for provision of imaging data from a surrounding vehicle, the imaging data held by the imaging unit is stored in the removable memory.

また、特開2010−72845号公報(特許文献3)には、ドライブレコーダシステム、ドライブレコーダ及び情報処理装置が開示されている。特許文献3によると、ドライブレコーダと情報処理装置とがネットワークを介して接続されたドライブレコーダシステムで、ドライブレコーダは、撮像手段と、撮像した画像データを記憶する第一の記憶手段と、事故発生検知手段と、位置検出手段と、送受信手段とを備え、ドライブレコーダが備える送受信手段は事故発生検知手段により事故の発生を検知した場合に、前記事故発生時の画像データを前記第一の記憶手段から抽出し、情報処理装置に送信し、事故発生時刻及び事故発生位置を示す情報を送信し、前記情報処理装置は、前記ドライブレコーダから受信した画像データを記憶する第二の記憶手段を備え、前記ドライブレコーダから受信した事故発生時刻及び事故発生位置を示す情報に基づき、前記事故発生時の画像データを取得し、前記第二の記憶手段に記憶する。   Moreover, the drive recorder system, the drive recorder, and the information processing apparatus are disclosed by Unexamined-Japanese-Patent No. 2010-72845 (patent document 3). According to Patent Document 3, in a drive recorder system in which a drive recorder and an information processing apparatus are connected via a network, the drive recorder comprises an imaging means, a first storage means for storing captured image data, and an accident occurrence. The first storage means comprises image data at the time of occurrence of the accident when the occurrence of the accident is detected by the accident occurrence detection means, the transmission / reception means provided with the detection means, the position detection means, and the transmission / reception means and the drive recorder includes , And transmits information indicating an accident occurrence time and an accident occurrence position, and the information processing apparatus includes second storage means for storing the image data received from the drive recorder, The image data at the time of the accident occurrence is acquired based on the information indicating the accident occurrence time and the accident occurrence position received from the drive recorder It is stored in the second storage means.

特開2017−117005号公報JP, 2017-117005, A 特開2010−20386号公報Unexamined-Japanese-Patent No. 2010-20386 特開2010−72845号公報JP, 2010-72845, A

本発明の目的は、取得された画像を有効に活用することができるネットワークシステム、サーバ、または情報処理方法を提供することにある。   An object of the present invention is to provide a network system, a server, or an information processing method capable of effectively utilizing an acquired image.

この発明のある態様に従うと、第1のユーザのドライブレコーダと、ドライブレコーダの動画像を取得するデータベースと、動画像を第2のユーザに提供してもよいか否かを第1のユーザに問い合わせて、当該問い合わせ結果に基づいて動画像を第2のユーザの端末に提供するためのサーバとを備える、ネットワークシステムが提供される。   According to an aspect of the present invention, it is provided to the first user the drive recorder of the first user, the database for acquiring the moving image of the drive recorder, and whether or not the moving image may be provided to the second user. There is provided a network system comprising: a server for inquiring and providing a moving image to a terminal of a second user based on the result of the inquiry.

以上のように、本発明によれば、取得された画像を有効に活用することができるネットワークシステム、サーバ、または情報処理方法が提供される。   As described above, according to the present invention, there is provided a network system, a server, or an information processing method capable of effectively utilizing an acquired image.

第1の実施の形態にかかるネットワークシステム1の全体構成を示すイメージ図である。FIG. 1 is an image diagram showing an entire configuration of a network system 1 according to a first embodiment. 第1の実施の形態にかかるネットワークシステム1の通信構成を示すイメージ図である。It is an image figure showing communication composition of network system 1 concerning a 1st embodiment. 第1の実施の形態にかかるサーバ100の構成を表わすブロック図である。It is a block diagram showing composition of server 100 concerning a 1st embodiment. 第1の実施の形態にかかる端末データ121を示すイメージ図である。It is an image figure showing terminal data 121 concerning a 1st embodiment. 第1の実施の形態にかかるイベントデータ122のデータ構造を示すイメージ図である。It is an image figure showing a data structure of event data 122 concerning a 1st embodiment. 第1の実施の形態にかかる撮影情報データ123のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the imaging | photography information data 123 concerning 1st Embodiment. 第1の実施の形態にかかるドライブレコーダ200の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a drive recorder 200 according to a first embodiment. 第1の実施の形態にかかる通信端末300の構成を示すブロック図である。It is a block diagram which shows the structure of the communication terminal 300 concerning 1st Embodiment. 第1の実施の形態にかかるネットワークシステム1の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process sequence of the network system 1 concerning 1st Embodiment. 第1の実施の形態にかかるスマートフォン300Bの画面を示すイメージ図である。It is an image figure showing the screen of smart phone 300B concerning a 1st embodiment. 第1の実施の形態にかかるスマートフォン300Aの画面を示すイメージ図である。It is an image figure showing the screen of smart phone 300A concerning a 1st embodiment. 第2の実施の形態にかかるネットワークシステム1の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process sequence of the network system 1 concerning 2nd Embodiment. 第3の実施の形態にかかるネットワークシステム1の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process sequence of the network system 1 concerning 3rd Embodiment. 第4の実施の形態にかかるネットワークシステム1の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process sequence of the network system 1 concerning 4th Embodiment. 第5の実施の形態にかかるネットワークシステム1の処理手順を示すシーケンス図である。It is a sequence diagram which shows the process sequence of the network system 1 concerning 5th Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステムの全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description about them will not be repeated.
First Embodiment
<Overall configuration of network system>

まず、本実施の形態にかかるネットワークシステム1の全体構成について説明する。図1を参照して、ネットワークシステム1は、主に、インターネットに接続されたサーバ100と、各種車両に搭載されたドライブレコーダ200A,200Bと、各種車両のユーザが有するスマートフォン300A,300Bとを含む。本実施の形態においては、通信端末としてスマートフォン300A,300Bを例にあげて説明するが、タブレットやパーソナルコンピュータやゲーム機やウェアラブル端末などであってもよい。
<ネットワークシステムの通信構成>
First, the overall configuration of the network system 1 according to the present embodiment will be described. Referring to FIG. 1, network system 1 mainly includes server 100 connected to the Internet, drive recorders 200A and 200B mounted on various vehicles, and smartphones 300A and 300B possessed by users of various vehicles. . In the present embodiment, smartphones 300A and 300B are described as an example of the communication terminal, but a tablet, a personal computer, a game machine, a wearable terminal or the like may be used.
<Communication configuration of network system>

次に、本実施の形態にかかるネットワークシステム1の通信構成について説明する。図2を参照して、ドライブレコーダ200A,200Bは、LTEなどのキャリア網やインターネットを介してサーバ100と通信する。スマートフォン300A,300Bも、LTEなどのキャリア網やインターネットを介してサーバ100と通信する。ドライブレコーダ200A,200Bは、Bluetooth(登録商標)やWiFi(登録商標)やキャリア網やインターネットなどの無線通信を利用してスマートフォン300A,300Bと通信する。
<ネットワークシステムの動作概要>
Next, the communication configuration of the network system 1 according to the present embodiment will be described. Referring to FIG. 2, drive recorders 200A and 200B communicate with server 100 via a carrier network such as LTE or the Internet. The smartphones 300A and 300B also communicate with the server 100 via a carrier network such as LTE or the Internet. The drive recorders 200A and 200B communicate with the smartphones 300A and 300B using wireless communication such as Bluetooth (registered trademark), WiFi (registered trademark), a carrier network, and the Internet.
<Operation outline of network system>

図1に戻って、本実施の形態にかかるネットワークシステム1は、車両Aが衝撃を受けたときに、当該車両Aの近傍に位置する車両Bのドライブレコーダ200Bが撮影した画像や音声を車両Aのユーザに提供するものである。特に、本実施の形態においては、ドライブレコーダ200Bのユーザに確認を得てから、ドライブレコーダ200Bが撮影した画像や音声を車両Aのユーザに提供する。以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。
<サーバ100のハードウェア構成>
Returning to FIG. 1, when the vehicle A receives an impact, the network system 1 according to the present embodiment receives the image or the sound captured by the drive recorder 200B of the vehicle B located in the vicinity of the vehicle A. Provided to users of In particular, in the present embodiment, after obtaining confirmation from the user of drive recorder 200B, the image and sound captured by drive recorder 200B are provided to the user of vehicle A. Hereinafter, the network system 1 for realizing such a function will be described in detail.
<Hardware Configuration of Server 100>

ここで、ネットワークシステム1を構成するサーバ100の構成の一態様について説明する。図3を参照して、サーバ100は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、操作部140と、通信インターフェイス160とを含む。   Here, one aspect of the configuration of the server 100 configuring the network system 1 will be described. Referring to FIG. 3, server 100 includes, as main components, central processing unit (CPU) 110, memory 120, operation unit 140, and communication interface 160.

CPU110は、メモリ120に記憶されているプログラムを実行することによって、サーバ100の各部を制御する。たとえば、CPU110は、メモリ120に格納されているプログラムを実行し、各種のデータを参照することによって、後述する各種の処理を実行する。   The CPU 110 controls each part of the server 100 by executing a program stored in the memory 120. For example, the CPU 110 executes a program stored in the memory 120, and executes various processes to be described later by referring to various data.

メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)などによって実現され、サーバ100に内包されているものであってもよいし、サーバ100の各種インターフェイスに着脱可能なものであってもよいし、サーバ100からアクセス可能な他の装置内のデータベース100Bであってもよい。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、端末データ121と、イベントデータ122と、撮影情報データ123と、音声を含む撮影画像自体やサムネイル画像や低画質画像データなどを記憶する。   The memory 120 may be realized by various RAMs (Random Access Memory), various ROMs (Read-Only Memory), or the like, and may be included in the server 100 or removable from various interfaces of the server 100. It may be the database 100 B in another device accessible from the server 100. The memory 120 is a program executed by the CPU 110, data generated by execution of the program by the CPU 110, terminal data 121, event data 122, shooting information data 123, a shot image itself including audio, a thumbnail image, Image quality image data etc. are stored.

ここで、図4を参照して、端末データ121は、ドライブレコーダ200A,200Bやスマートフォン300A,300Bなどの端末とユーザとの対応関係を格納する。   Here, referring to FIG. 4, the terminal data 121 stores the correspondence between a user and a terminal such as the drive recorders 200A and 200B and the smartphones 300A and 300B.

図5を参照して、イベントデータ122は、事故や事件などのイベント毎に、識別情報と、イベントに関係する端末の識別情報と、イベントの発生日時と、イベントの発生場所と、当該イベントが発生した際の車両の進行方向またはドライブレコーダ200A,200Bの撮影方向などの対応関係を格納する。   Referring to FIG. 5, event data 122 includes identification information, identification information of a terminal related to the event, date and time of occurrence of the event, occurrence location of the event, and the event for each event such as accident or incident. The correspondence relationship such as the traveling direction of the vehicle at the time of occurrence or the shooting direction of the drive recorders 200A and 200B is stored.

図6を参照して、撮影情報データ123は、撮影された画像毎に、当該画像を撮影した端末の識別情報と、撮影日時と、撮影場所と、撮影方向と、画像の提供の可否などの対応関係を格納する。   Referring to FIG. 6, the photographing information data 123 includes, for each photographed image, identification information of a terminal that photographed the image, photographing date and time, photographing location, photographing direction, availability of the image, etc. Store the correspondence.

図4に戻って、操作部140は、サービスの管理者などからの操作命令を受け付けてCPU110に入力する。   Returning to FIG. 4, the operation unit 140 receives an operation instruction from a service administrator or the like and inputs the operation instruction to the CPU 110.

通信インターフェイス160は、CPU110からのデータを、インターネットやキャリア網、ルータなどを介してドライブレコーダ200A,200Bやスマートフォン300A,300Bなどの他の装置に送信する。逆に、通信インターフェイス160は、インターネット、キャリア網、ルータなどを介して他の装置からのデータを受信して、CPU110に受け渡す。
<ドライブレコーダ200のハードウェア構成>
The communication interface 160 transmits data from the CPU 110 to other devices such as the drive recorders 200A and 200B and the smartphones 300A and 300B via the Internet, a carrier network, a router or the like. Conversely, the communication interface 160 receives data from other devices via the Internet, a carrier network, a router, etc., and passes it to the CPU 110.
<Hardware Configuration of Drive Recorder 200>

次に、ドライブレコーダ200A,200Bの構成の一態様について説明する。図7を参照して、ドライブレコーダ200A,200Bは、主たる構成要素として、CPU210と、メモリ220と、通信インターフェイス260と、マイク280と、カメラ290と、衝撃センサ295とを含む。   Next, one aspect of the configuration of drive recorders 200A and 200B will be described. Referring to FIG. 7, drive recorders 200A and 200B each include, as main components, a CPU 210, a memory 220, a communication interface 260, a microphone 280, a camera 290, and a shock sensor 295.

CPU210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、ドライブレコーダ200A,200Bの各部を制御する。すなわち、CPU210は、メモリ220に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The CPU 210 controls each part of the drive recorders 200A and 200B by executing a program stored in the memory 220 or an external storage medium. That is, the CPU 210 executes various programs described later by executing a program stored in the memory 220.

メモリ220は、各種のRAMや各種のROMなどによって実現され、ドライブレコーダ200A,200Bに内包されているものであってもよいし、ドライブレコーダ200A,200Bの各種インターフェイスに着脱可能なものであってもよいし、ドライブレコーダ200A,200Bからアクセス可能な他の装置の記録媒体であってもよい。メモリ220は、CPU210によって実行される各種プログラム、CPU210によるプログラムの実行に利用される各種データを記憶する。   The memory 220 may be realized by various types of RAM, various types of ROM, etc., and may be included in the drive recorders 200A, 200B, or may be removable from various interfaces of the drive recorders 200A, 200B. It may be a recording medium of another device accessible from the drive recorders 200A and 200B. The memory 220 stores various programs executed by the CPU 210 and various data used for the execution of programs by the CPU 210.

通信インターフェイス260は、アンテナやコネクタによって実現され、インターネットやキャリア網を介してサーバなどの他の装置との間でデータをやり取りする。また、通信インターフェイス260は、Bluetooth(登録商標)やWiFi(登録商標)を利用して、スマートフォン300A,300Bなどの他の装置との間でデータをやり取りする。   The communication interface 260 is realized by an antenna and a connector, and exchanges data with another device such as a server via the Internet or a carrier network. The communication interface 260 also exchanges data with other devices such as the smartphones 300A and 300B using Bluetooth (registered trademark) or WiFi (registered trademark).

マイク280は、周囲の音声に基づいて、音声データをCPU210に入力する。   The microphone 280 inputs audio data to the CPU 210 based on surrounding audio.

カメラ290は、動画像や静止画像を取得して、メモリ220に蓄積する。CPU210は、動画像や静止画像に音声データを組み合わせて、撮影画像として、メモリ220に蓄積する。   The camera 290 acquires a moving image or a still image and stores it in the memory 220. The CPU 210 combines voice data with moving images and still images, and stores the combined data in the memory 220 as a captured image.

衝撃センサ295は、加速度センサなどによって実現され、衝撃を検知する。本実施の形態においては、CPU210は、衝撃を検知した際に、メモリ220に蓄積された動画像のうち、その前後を含む動画像をすぐに上書きされたり消去されたりしないようにプロテクトする。
<通信端末のハードウェア構成>
The impact sensor 295 is realized by an acceleration sensor or the like to detect an impact. In the present embodiment, when an impact is detected, the CPU 210 protects the moving image stored in the memory 220, including those before and after it, from being immediately overwritten or deleted.
<Hardware configuration of communication terminal>

次に、スマートフォン300A,300Bなどの通信端末300の構成の一態様について説明する。図8を参照して、スマートフォン300A,300Bは、主たる構成要素として、CPU310と、メモリ320と、タッチパネル350(ディスプレイ330とポインティングデバイス340)と、通信インターフェイス360と、スピーカ370と、マイク380とを含む。   Next, one aspect of the configuration of the communication terminal 300 such as the smartphones 300A and 300B will be described. Referring to FIG. 8, smartphones 300A and 300B each include, as main components, CPU 310, memory 320, touch panel 350 (display 330 and pointing device 340), communication interface 360, speaker 370, and microphone 380. Including.

CPU310は、メモリ320あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、通信端末300の各部を制御する。すなわち、CPU310は、メモリ320に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The CPU 310 controls each unit of the communication terminal 300 by executing a program stored in the memory 320 or an external storage medium. That is, the CPU 310 executes various programs described later by executing a program stored in the memory 320.

メモリ320は、各種のRAMや各種のROMなどによって実現され、通信端末300に内包されているものであってもよいし、通信端末300の各種インターフェイスに着脱可能なものであってもよいし、通信端末300からアクセス可能な他の装置の記録媒体であってもよい。メモリ320は、CPU310によって実行される各種プログラム、CPU310によるプログラムの実行に利用される各種データなどを記憶する。   The memory 320 may be realized by various types of RAM, various types of ROM, etc., and may be included in the communication terminal 300 or may be removable from various interfaces of the communication terminal 300. It may be a recording medium of another device accessible from communication terminal 300. The memory 320 stores various programs executed by the CPU 310, various data used for the execution of programs by the CPU 310, and the like.

ディスプレイ330は、CPU310からの信号に基づいて、文字や画像を出力する。ポインティングデバイス340は、ユーザからの命令を受け付けて、当該命令をCPU310に入力する。なお、本実施の形態においては、通信端末300は、ディスプレイ330とポインティングデバイス340とが組み合わされたタッチパネル350を有する。   The display 330 outputs characters and an image based on a signal from the CPU 310. The pointing device 340 receives an instruction from the user and inputs the instruction to the CPU 310. In the present embodiment, communication terminal 300 has touch panel 350 in which display 330 and pointing device 340 are combined.

通信インターフェイス360は、アンテナやコネクタによって実現され、インターネットやキャリア網を介してサーバなどの他の装置との間でデータをやり取りする。また、通信インターフェイス360は、Bluetooth(登録商標)やWiFi(登録商標)を利用して、ドライブレコーダ200A,200Bなどの他の装置との間でデータをやり取りする。   The communication interface 360 is realized by an antenna and a connector, and exchanges data with another device such as a server via the Internet or a carrier network. The communication interface 360 also exchanges data with other devices such as the drive recorders 200A and 200B using Bluetooth (registered trademark) or WiFi (registered trademark).

スピーカ370は、CPU310からの音声信号に基づいて各種音声を出力する。マイク380は、周囲の音声に基づいて、音声データをCPU310に入力する。
<ネットワークシステム1における情報処理>
The speaker 370 outputs various sounds based on the sound signal from the CPU 310. The microphone 380 inputs audio data to the CPU 310 based on surrounding audio.
<Information processing in network system 1>

次に、図9を参照して、本実施の形態にかかるネットワークシステム1の情報処理について説明する。   Next, the information processing of the network system 1 according to the present embodiment will be described with reference to FIG.

まず、車両Aのドライブレコーダ200AのCPU210は、動画像を撮影しながら順次撮影画像のデータをメモリ220に蓄積したり、撮影位置や撮影方向や撮影日時などをサーバ100にアップロードしたりする(ステップS102)。同様に、車両Bのドライブレコーダ200BのCPU210は、動画像を撮影しながら順次撮影画像のデータをメモリ220に蓄積したり、撮影位置や撮影方向や撮影日時などをサーバ100にアップロードしたりする(ステップS104)。サーバ100のCPU110は、ドライブレコーダ200A,200Bからの撮影位置や撮影方向や撮影日時などを撮影情報データ123に蓄積していく。   First, the CPU 210 of the drive recorder 200A of the vehicle A sequentially stores the data of the photographed image in the memory 220 while photographing the moving image, uploads the photographing position, the photographing direction, the photographing date, etc. to the server 100 (step S102). Similarly, the CPU 210 of the drive recorder 200B of the vehicle B sequentially stores the data of the captured image in the memory 220 while capturing a moving image, uploads the shooting position, the shooting direction, the shooting date, etc. to the server 100 Step S104). The CPU 110 of the server 100 accumulates the shooting position, the shooting direction, the shooting date and time, and the like from the drive recorders 200A and 200B in the shooting information data 123.

車両Aが事故などに巻き込まれて衝撃を受けると、ドライブレコーダ200AのCPU210が当該衝撃の発生した位置や衝撃の発生した日時などをサーバ100に送信する(ステップS106)。サーバ100のCPU110は、衝撃の発生した位置や衝撃の発生した日時に基づいて、撮影情報データ123を参照して、当該位置や日時に撮影していた他のドライブレコーダ200Bを検索する(ステップS108)。   When the vehicle A is caught in an accident or the like and receives an impact, the CPU 210 of the drive recorder 200A transmits the position at which the impact is generated, the date and time when the impact is generated, and the like to the server 100 (step S106). The CPU 110 of the server 100 refers to the shooting information data 123 based on the position where the shock occurred and the date and time when the shock occurred, and searches for another drive recorder 200B that was photographed at the position and the date (step S108). ).

サーバ100のCPU110は、当該位置や日時に撮影していた他のドライブレコーダ200Bを特定する。CPU110は、端末データ121を参照して当該ドライブレコーダ200Bに対応するユーザおよび当該ユーザのスマートフォン300Bを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Bに、ドライブレコーダ200Bの撮影画像の提供を要求する(ステップS110)。   The CPU 110 of the server 100 specifies another drive recorder 200B that has been photographed at the position and date and time. The CPU 110 refers to the terminal data 121 to specify the user corresponding to the drive recorder 200B and the smartphone 300B of the user. The CPU 110 requests the smartphone 300B to provide a photographed image of the drive recorder 200B via the communication interface 160 (step S110).

本実施の形態においては、スマートフォン300BのCPU310は、サーバ100からの指示に基づいて、図10(A)に示すようにユーザに撮影画像の提供を呼びかける。CPU310は、ユーザからの指示に基づいて、図10(B)に示すように撮影画像を提供してもよいか否かの回答を受け付ける。CPU310は、撮影画像を提供してもよい旨の回答を受け付けると、その旨をサーバ100に送信する。サーバ100は、撮影画像の提供が許可された旨を撮影情報データ123に登録する。なお、図10(C)に示すように、サーバ100は、許可してくれたユーザにポイントを付与する(図9のステップS122)。   In the present embodiment, based on an instruction from server 100, CPU 310 of smartphone 300B calls on the user to provide a photographed image as shown in FIG. 10 (A). The CPU 310 receives an answer as to whether or not the photographed image may be provided as shown in FIG. 10B based on the instruction from the user. When the CPU 310 receives an answer indicating that the photographed image may be provided, the CPU 310 transmits a message to that effect to the server 100. The server 100 registers in the photographing information data 123 that the provision of the photographed image is permitted. As shown in FIG. 10C, the server 100 gives points to the permitted user (step S122 in FIG. 9).

図9に戻って、スマートフォン300BのCPU310は、ユーザの許可を得ると、ドライブレコーダ200Bから撮影画像を取得する(ステップS112)。CPU310は、通信インターフェイス360を介して、撮影画像をサーバ100にアップロードする(ステップS114)。   Returning to FIG. 9, upon obtaining the permission of the user, the CPU 310 of the smartphone 300B acquires a photographed image from the drive recorder 200B (step S112). The CPU 310 uploads the photographed image to the server 100 via the communication interface 360 (step S114).

サーバ100のCPU110は、通信インターフェイス160を介して、端末データ121を参照してドライブレコーダ200Aに対応するユーザおよび当該ユーザのスマートフォン300Aを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Aに問い合わせる(ステップS116)。より詳細には、スマートフォン300AのCPU310は、図11(A)に示すように、他のドライブレコーダ200Bからの撮影画像の提供を検討するか否かを受け付ける画面を表示する。   The CPU 110 of the server 100 refers to the terminal data 121 via the communication interface 160 to identify the user corresponding to the drive recorder 200A and the smartphone 300A of the user. The CPU 110 inquires the smartphone 300A via the communication interface 160 (step S116). More specifically, as shown in FIG. 11A, the CPU 310 of the smart phone 300A displays a screen for accepting whether to consider providing a captured image from another drive recorder 200B.

ユーザが画像の確認を希望すると、CPU310は通信インターフェイス360を介してサーバ100から、その時点で撮影画像の提供が許可されている撮影画像のサムネイル画像を取得する。図11(B)に示すように、CPU310は、当該撮影画像を選択可能にディスプレイ330に表示させる。CPU310は、ユーザの選択命令を受け付けると、通信インターフェイス360を介してサーバ100に撮影画像自体を要求する(ステップS118)。スマートフォン300Aは、サーバ100から撮影画像自体をダウンロードする(ステップS120)。これによって、図11(C)に示すように、スマートフォン300AのCPU310は、ダウンロードした撮影画像をディスプレイ330に表示することができる。   When the user wishes to confirm the image, the CPU 310 acquires, from the server 100 via the communication interface 360, a thumbnail image of a photographed image for which provision of the photographed image is permitted at that time. As shown in FIG. 11B, the CPU 310 causes the display 330 to selectably display the captured image. When CPU 310 receives the user's selection command, CPU 310 requests server 100 for the photographed image itself via communication interface 360 (step S118). The smartphone 300A downloads the photographed image itself from the server 100 (step S120). Thus, as shown in FIG. 11C, the CPU 310 of the smartphone 300A can display the downloaded captured image on the display 330.

このように、本実施の形態にかかるネットワークシステム1は、他のドライブレコーダ200Bが撮影した画像を利用することができつつ、当該画像の利用に関する他のドライブレコーダ200Bのユーザの許可を得るために意図しないプライバシーの侵害が生じ難い。
<第2の実施の形態>
As described above, the network system 1 according to the present embodiment can use the image captured by the other drive recorder 200B, and obtain the permission of the user of the other drive recorder 200B regarding the use of the image. Unintended breach of privacy is unlikely to occur.
Second Embodiment

第1の実施の形態においては、プライバシーを重視して、画像の提供の許可を受けてから、画像データをサーバ100にアップロードするものであった。しかしながら、ユーザからの許可が遅れると画像データが上書きされて消去されてしまう可能性が高くなる。そこで、図12に示すように、先に画像データをサーバ100が取得してから、他のユーザへの提供の許可を得てもよい。   In the first embodiment, with emphasis on privacy, image data is uploaded to the server 100 after receiving permission to provide an image. However, if the permission from the user is delayed, there is a high possibility that the image data will be overwritten and deleted. Therefore, as shown in FIG. 12, after the server 100 first acquires the image data, permission for provision to other users may be obtained.

すなわち、車両Aが事故などに巻き込まれて衝撃を受けると、ドライブレコーダ200AのCPU210が当該衝撃の発生した位置や衝撃の発生した日時などをサーバ100に送信する(ステップS106)。サーバ100のCPU110は、衝撃の発生した位置や衝撃の発生した日時に基づいて、撮影情報データ123を参照して、当該位置や日時に撮影していた他のドライブレコーダ200Bを検索する(ステップS108)。   That is, when the vehicle A is caught in an accident or the like and receives an impact, the CPU 210 of the drive recorder 200A transmits the position where the impact occurred, the date when the impact occurs, and the like to the server 100 (step S106). The CPU 110 of the server 100 refers to the shooting information data 123 based on the position where the shock occurred and the date and time when the shock occurred, and searches for another drive recorder 200B that was photographed at the position and the date (step S108). ).

サーバ100のCPU110は、当該位置や日時に撮影していた他のドライブレコーダ200Bを特定する。CPU110は、通信インターフェイス160を介して、当該他のドライブレコーダ200Bに撮影画像を要求し(ステップS212)、当該撮影画像を取得する(ステップS214)。   The CPU 110 of the server 100 specifies another drive recorder 200B that has been photographed at the position and date and time. The CPU 110 requests the other drive recorder 200B for a photographed image via the communication interface 160 (step S212), and acquires the photographed image (step S214).

CPU110は、端末データ121を参照して当該ドライブレコーダ200Bに対応するユーザおよび当該ユーザのスマートフォン300Bを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Bに、ドライブレコーダ200Bの撮影画像の他のユーザへの提供の許可を要求する(ステップS216)。   The CPU 110 refers to the terminal data 121 to specify the user corresponding to the drive recorder 200B and the smartphone 300B of the user. The CPU 110 requests the smartphone 300B to permit provision of the photographed image of the drive recorder 200B to other users via the communication interface 160 (step S216).

本実施の形態においては、スマートフォン300BのCPU310は、サーバ100からの指示に基づいて、図10(A)に示すようにユーザに撮影画像の提供を呼びかける。CPU310は、ユーザからの指示に基づいて、図10(B)に示すように撮影画像を提供してもよいか否かの回答を受け付ける。CPU310は、撮影画像を提供してもよい旨の回答を受け付けると、その旨をサーバ100に送信する。サーバ100は、撮影画像の提供が許可された旨を撮影情報データ123に登録する。なお、図10(C)に示すように、サーバ100は、許可してくれたユーザにポイントを付与する(ステップS122)。   In the present embodiment, based on an instruction from server 100, CPU 310 of smartphone 300B calls on the user to provide a photographed image as shown in FIG. 10 (A). The CPU 310 receives an answer as to whether or not the photographed image may be provided as shown in FIG. 10B based on the instruction from the user. When the CPU 310 receives an answer indicating that the photographed image may be provided, the CPU 310 transmits a message to that effect to the server 100. The server 100 registers in the photographing information data 123 that the provision of the photographed image is permitted. As shown in FIG. 10C, the server 100 gives points to the authorized user (step S122).

スマートフォン300Bからユーザの許可を得ると(ステップS218)、サーバ100のCPU110は、端末データ121を参照してドライブレコーダ200Aに対応するユーザおよび当該ユーザのスマートフォン300Aを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Aに問い合わせる(ステップS116)。以降の処理は、第1の実施の形態と同様であるため、ここではそれらの説明を繰り返さない。
<第3の実施の形態>
When the user's permission is obtained from the smartphone 300B (step S218), the CPU 110 of the server 100 refers to the terminal data 121 and identifies the user corresponding to the drive recorder 200A and the smartphone 300A of the user. The CPU 110 inquires the smartphone 300A via the communication interface 160 (step S116). The subsequent processing is the same as that of the first embodiment, and therefore the description thereof will not be repeated here.
Third Embodiment

あるいは、図13に示すように、先にサムネイル画像や低画質の動画像をサーバ100が取得してもよい。   Alternatively, as shown in FIG. 13, the server 100 may first acquire a thumbnail image or a low-quality moving image.

すなわち、車両Aが事故などに巻き込まれて衝撃を受けると、ドライブレコーダ200AのCPU210が当該衝撃の発生した位置や衝撃の発生した日時などをサーバ100に送信する(ステップS106)。サーバ100のCPU110は、衝撃の発生した位置や衝撃の発生した日時に基づいて、撮影情報データ123を参照して、当該位置や日時に撮影していた他のドライブレコーダ200Bを検索する(ステップS108)。   That is, when the vehicle A is caught in an accident or the like and receives an impact, the CPU 210 of the drive recorder 200A transmits the position where the impact occurred, the date when the impact occurs, and the like to the server 100 (step S106). The CPU 110 of the server 100 refers to the shooting information data 123 based on the position where the shock occurred and the date and time when the shock occurred, and searches for another drive recorder 200B that was photographed at the position and the date (step S108). ).

サーバ100のCPU110は、当該位置や日時に撮影していた他のドライブレコーダ200Bを特定する。CPU110は、通信インターフェイス160を介して、当該他のドライブレコーダ200Bに該当する撮影画像のサムネイル画像や低画質の動画像を要求し(ステップS312)、当該撮影画像のサムネイル画像や低画質の動画像を取得する(ステップS314)。   The CPU 110 of the server 100 specifies another drive recorder 200B that has been photographed at the position and date and time. The CPU 110 requests a thumbnail image or low-quality moving image of the captured image corresponding to the other drive recorder 200B via the communication interface 160 (step S312), and generates a thumbnail image or low-quality moving image of the captured image. Is acquired (step S314).

サーバ100のCPU110は、通信インターフェイス160を介して、端末データ121を参照してドライブレコーダ200Aに対応するユーザおよび当該ユーザのスマートフォン300Aを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Aに問い合わせる(ステップS116)。より詳細には、スマートフォン300AのCPU310は、図11(A)に示すように、他のドライブレコーダ200Bの撮影画像の提供を検討するか否かを受け付ける画面を表示する。   The CPU 110 of the server 100 refers to the terminal data 121 via the communication interface 160 to identify the user corresponding to the drive recorder 200A and the smartphone 300A of the user. The CPU 110 inquires the smartphone 300A via the communication interface 160 (step S116). More specifically, as shown in FIG. 11A, the CPU 310 of the smartphone 300A displays a screen for accepting whether to consider providing a captured image of another drive recorder 200B.

ユーザが画像の確認を希望すると、CPU310は通信インターフェイス360を介してサーバ100から、撮影画像のサムネイル画像を取得する。図11(B)に示すように、CPU310は、当該撮影画像を選択可能にディスプレイ330に表示させる。CPU310は、ユーザの選択命令を受け付けると、対象となる撮影画像をサーバ100に要求する(ステップS118)。   When the user desires to confirm the image, the CPU 310 acquires a thumbnail image of the captured image from the server 100 via the communication interface 360. As shown in FIG. 11B, the CPU 310 causes the display 330 to selectably display the captured image. When the CPU 310 receives the user's selection command, the CPU 310 requests the server 100 to obtain a target photographed image (step S118).

サーバ100のCPU110は、端末データ121を参照して、選択された撮影画像のドライブレコーダ200Bに対応するユーザおよび当該ユーザのスマートフォン300Bを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Bに、ドライブレコーダ200Bの撮影画像の提供を要求する(ステップS110)。   The CPU 110 of the server 100 refers to the terminal data 121, and identifies the user corresponding to the drive recorder 200B of the selected captured image and the smartphone 300B of the user. The CPU 110 requests the smartphone 300B to provide a photographed image of the drive recorder 200B via the communication interface 160 (step S110).

本実施の形態においては、スマートフォン300BのCPU310は、サーバ100からの指示に基づいて、図10(A)に示すようにユーザに撮影画像の提供を呼びかける。CPU310は、ユーザからの指示に基づいて、図10(B)に示すように撮影画像を提供してもよいか否かの回答を受け付ける。CPU310は、撮影画像を提供してもよい旨の回答を受け付けると、ドライブレコーダ200Bから高画質の撮影画像を取得する(ステップS112)。CPU310は、通信インターフェイス360を介して、撮影画像をサーバ100にアップロードする(ステップS114)。   In the present embodiment, based on an instruction from server 100, CPU 310 of smartphone 300B calls on the user to provide a photographed image as shown in FIG. 10 (A). The CPU 310 receives an answer as to whether or not the photographed image may be provided as shown in FIG. 10B based on the instruction from the user. When the CPU 310 receives an answer indicating that the photographed image may be provided, the CPU 310 acquires a high-quality photographed image from the drive recorder 200B (step S112). The CPU 310 uploads the photographed image to the server 100 via the communication interface 360 (step S114).

サーバ100は、当該撮影画像自体をスマートフォン300Aにダウンロードする(ステップS120)。サーバ100は、撮影画像の提供が許可された旨を撮影情報データ123に登録する。なお、図10(C)に示すように、サーバ100は、許可してくれたユーザにポイントを付与する(ステップS122)。   The server 100 downloads the photographed image itself to the smartphone 300A (step S120). The server 100 registers in the photographing information data 123 that the provision of the photographed image is permitted. As shown in FIG. 10C, the server 100 gives points to the authorized user (step S122).

スマートフォン300BのCPU310は、図11(C)に示すように、ダウンロードした撮影画像をディスプレイ330に表示することができる。
<第4の実施の形態>
The CPU 310 of the smartphone 300B can display the downloaded photographed image on the display 330, as shown in FIG.
Fourth Embodiment

あるいは、図14に示すように、常に撮影画像をドライブレコーダ200A,200Bからサーバ100にアップロードし続ける形態であってもよい。   Alternatively, as shown in FIG. 14, the captured image may be constantly uploaded from the drive recorders 200A and 200B to the server 100.

すなわち、車両Aのドライブレコーダ200AのCPU210は、動画像を撮影しながら順次データをメモリ220に蓄積したり、撮影位置や撮影方向や撮影日時や撮影画像自体などをサーバ100にアップロードしたりする(ステップS402)。同様に、車両Bのドライブレコーダ200BのCPU210は、動画像を撮影しながら順次データをメモリ220に蓄積したり、撮影位置や撮影方向や撮影日時や撮影画像自体などをサーバ100にアップロードしたりする(ステップS404)。サーバ100のCPU110は、ドライブレコーダ200A,200Bからの撮影位置や撮影方向や撮影日時などを撮影情報データ123に蓄積していく。   That is, the CPU 210 of the drive recorder 200A of the vehicle A sequentially stores data in the memory 220 while shooting a moving image, or uploads a shooting position, shooting direction, shooting date, shooting image itself, etc. to the server 100 Step S402). Similarly, the CPU 210 of the drive recorder 200B of the vehicle B sequentially stores data in the memory 220 while shooting a moving image, or uploads a shooting position, a shooting direction, a shooting date, a shooting image itself, etc. to the server 100 (Step S404). The CPU 110 of the server 100 accumulates the shooting position, the shooting direction, the shooting date and time, and the like from the drive recorders 200A and 200B in the shooting information data 123.

車両Aが事故などに巻き込まれて衝撃を受けると、ドライブレコーダ200AのCPU210が当該衝撃の発生した位置や衝撃の発生した日時などをサーバ100に送信する(ステップS106)。サーバ100のCPU110は、衝撃の発生した位置や衝撃の発生した日時に基づいて、撮影情報データ123を参照して、当該位置や日時に撮影していた他のドライブレコーダ200Bを検索する(ステップS108)。   When the vehicle A is caught in an accident or the like and receives an impact, the CPU 210 of the drive recorder 200A transmits the position at which the impact is generated, the date and time when the impact is generated, and the like to the server 100 (step S106). The CPU 110 of the server 100 refers to the shooting information data 123 based on the position where the shock occurred and the date and time when the shock occurred, and searches for another drive recorder 200B that was photographed at the position and the date (step S108). ).

サーバ100のCPU110は、当該位置や日時に撮影していた他のドライブレコーダ200Bを特定する。CPU110は、端末データ121を参照して当該ドライブレコーダ200Bに対応するユーザおよび当該ユーザのスマートフォン300Bを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Bに、ドライブレコーダ200Bの撮影画像の他のユーザへの提供の許可を要求する(ステップS216)。   The CPU 110 of the server 100 specifies another drive recorder 200B that has been photographed at the position and date and time. The CPU 110 refers to the terminal data 121 to specify the user corresponding to the drive recorder 200B and the smartphone 300B of the user. The CPU 110 requests the smartphone 300B to permit provision of the photographed image of the drive recorder 200B to other users via the communication interface 160 (step S216).

本実施の形態においては、スマートフォン300BのCPU310は、サーバ100からの指示に基づいて、図10(A)に示すようにユーザに撮影画像の提供を呼びかける。CPU310は、ユーザからの指示に基づいて、図10(B)に示すように撮影画像を提供してもよいか否かの回答を受け付ける。CPU310は、撮影画像を提供してもよい旨の回答を受け付けると、その旨をサーバ100に送信する(ステップS218)。サーバ100は、撮影画像の提供が許可された旨を撮影情報データ123に登録する。なお、図10(C)に示すように、サーバ100は、許可してくれたユーザにポイントを付与する(ステップS122)。   In the present embodiment, based on an instruction from server 100, CPU 310 of smartphone 300B calls on the user to provide a photographed image as shown in FIG. 10 (A). The CPU 310 receives an answer as to whether or not the photographed image may be provided as shown in FIG. 10B based on the instruction from the user. When receiving an answer indicating that the photographed image may be provided, the CPU 310 transmits a message to that effect to the server 100 (step S218). The server 100 registers in the photographing information data 123 that the provision of the photographed image is permitted. As shown in FIG. 10C, the server 100 gives points to the authorized user (step S122).

サーバ100のCPU110は、通信インターフェイス160を介して、端末データ121を参照してドライブレコーダ200Aに対応するユーザおよび当該ユーザのスマートフォン300Aを特定する。CPU110は、通信インターフェイス160を介して、スマートフォン300Aに問い合わせる(ステップS116)。以降の処理は、第1の実施の形態と同様であるため、ここではそれらの説明を繰り返さない。
<第5の実施の形態>
The CPU 110 of the server 100 refers to the terminal data 121 via the communication interface 160 to identify the user corresponding to the drive recorder 200A and the smartphone 300A of the user. The CPU 110 inquires the smartphone 300A via the communication interface 160 (step S116). The subsequent processing is the same as that of the first embodiment, and therefore the description thereof will not be repeated here.
Fifth Embodiment

上記の実施の形態のネットワークシステム1の各装置の役割の一部または全部を他の装置が実行してもよい。たとえば、サーバ100やドライブレコーダ200A,200Bやスマートフォン300A,300Bの各々の役割の一部または全部を別の装置が担ったり、サーバ100やドライブレコーダ200A,200Bやスマートフォン300A,300Bの各々の役割の一部または全部を複数の装置で担ったりしてもよい。具体的には、サーバ100の役割をクラウド上の複数のサーバで担ったり、サーバ100の役割をスマートフォン300A,300Bのアプリケーションが担ったりすることができる。または、図15に示すように、スマートフォン300A,300Bの役割をディスプレイを有するドライブレコーダ200A,200Bが担ったり、ドライブレコーダ200A,200Bの役割をカメラを有するスマートフォン300A,300Bが担ったりすることも可能である。
<まとめ>
Other devices may execute some or all of the roles of the devices of the network system 1 of the above-described embodiment. For example, another device plays a part or all of the roles of each of the server 100, the drive recorders 200A and 200B, and the smartphones 300A and 300B, or the roles of each of the server 100, the drive recorders 200A and 200B, and the smartphones 300A and 300B. Some or all of them may be carried by a plurality of devices. Specifically, the role of the server 100 can be played by a plurality of servers on the cloud, and the role of the server 100 can be played by an application of the smartphones 300A and 300B. Alternatively, as shown in FIG. 15, drive recorders 200A and 200B having a display may play a role of smartphones 300A and 300B, and smartphones 300A and 300B having a camera may play a role of drive recorders 200A and 200B. It is.
<Summary>

上記の実施の形態においては、第1のユーザのドライブレコーダ200Bと、ドライブレコーダ200Bの動画像を取得するデータベース120,100Bと、動画像を第2のユーザに提供してもよいか否かを第1のユーザに問い合わせて、当該問い合わせ結果に基づいて動画像を第2のユーザの端末300A,200Aに提供するためのサーバ100とを備える、ネットワークシステム1が提供される。   In the above embodiment, the first user's drive recorder 200B, databases 120 and 100B for acquiring the moving image of the drive recorder 200B, and whether or not the moving image may be provided to the second user There is provided a network system 1 comprising: a server 100 for inquiring a first user and providing a moving image to a second user's terminal 300A, 200A based on the result of the inquiry.

好ましくは、第2のユーザのドライブレコーダ200Aが衝撃を検知した際に、サーバ100が、衝撃のタイミングの前後の動画像を第2のユーザに提供してもよいか否かを第1のユーザに問い合わせる。   Preferably, when the drive recorder 200A of the second user detects a shock, the first user may determine whether the server 100 may provide the second user with moving images before and after the timing of the shock. Contact

好ましくは、第2のユーザのドライブレコーダ200Aが衝撃を検知した際に、サーバ100は、衝撃のタイミングの前後のドライブレコーダ200Bの動画像をデータベース120,100Bに蓄積する。   Preferably, when the drive recorder 200A of the second user detects a shock, the server 100 stores moving images of the drive recorder 200B before and after the timing of the shock in the databases 120 and 100B.

好ましくは、サーバ100は、衝撃のタイミングの前後の動画像を第2のユーザに提供してもよいか否かを第1のユーザに問い合わせた結果が肯定的である場合に、ドライブレコーダ200Bの動画像をデータベース120,100Bに蓄積する。   Preferably, when the server 100 makes an inquiry to the first user whether or not the moving image before and after the timing of the shock may be provided to the second user, the result of the drive recorder 200 B is positive. The moving image is stored in the databases 120 and 100B.

好ましくは、サーバ100は、動画像を第2のユーザに提供してもよいか否かを、第1のユーザのドライブレコーダ200Bとは別の第1のユーザの端末300Aに問い合わせる。   Preferably, the server 100 inquires of the terminal 300A of the first user different from the drive recorder 200B of the first user whether the moving image may be provided to the second user.

上記の実施の形態においては、通信インターフェイス160と、通信インターフェイス160を介して、第1のユーザのドライブレコーダ200Bから取得された動画像を第2のユーザに提供してもよいか否かを第1のユーザに問い合わせて、当該問い合わせ結果に基づいて動画像を第2のユーザの端末300A,200Aに提供するためのプロセッサ110とを備えるサーバ100が提供される。   In the above embodiment, whether or not the moving image acquired from the drive recorder 200B of the first user may be provided to the second user via the communication interface 160 and the communication interface 160 is referred to as “No. There is provided a server 100 including a processor 110 for inquiring one user and providing a moving image to the second user's terminal 300A, 200A based on the result of the inquiry.

上記の実施の形態においては、サーバ100による情報処理方法が提供される。当該方法は、第1のユーザのドライブレコーダ200Bから取得された動画像を第2のユーザに提供してもよいか否かを第1のユーザに問い合わせるステップと、当該問い合わせ結果に基づいて動画像を第2のユーザの端末300A,200Aに提供するステップとを備える。   In the above embodiment, an information processing method by the server 100 is provided. The method inquires of the first user whether or not the moving image acquired from the drive recorder 200B of the first user may be provided to the second user, the moving image based on the result of the inquiry Providing the second user's terminal 300A, 200A.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiments disclosed herein are illustrative and non-restrictive in every respect. The scope of the present invention is indicated not by the above description but by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims.

1 :ネットワークシステム
100 :サーバ
100B :他のデータベース
110 :CPU
120 :データベース(メモリ)
121 :端末データ
122 :イベントデータ
123 :撮影情報データ
140 :操作部
160 :通信インターフェイス
200 :通信端末
200A :ドライブレコーダ
200B :ドライブレコーダ
210 :CPU
220 :メモリ
260 :通信インターフェイス
290 :カメラ
295 :衝撃センサ
300 :通信端末
300A :スマートフォン
300B :スマートフォン
310 :CPU
320 :メモリ
330 :ディスプレイ
340 :ポインティングデバイス
350 :タッチパネル
360 :通信インターフェイス
370 :スピーカ
380 :マイク
A :車両
B :車両
1: Network system 100: Server 100B: Other database 110: CPU
120: Database (memory)
121: terminal data 122: event data 123: imaging information data 140: operation unit 160: communication interface 200: communication terminal 200A: drive recorder 200B: drive recorder 210: CPU
220: Memory 260: Communication interface 290: Camera 295: Impact sensor 300: Communication terminal 300A: Smartphone 300B: Smartphone 310: CPU
320: Memory 330: Display 340: Pointing device 350: Touch panel 360: Communication interface 370: Speaker 380: Microphone A: Vehicle B: Vehicle

Claims (7)

第1のユーザのドライブレコーダと、
前記ドライブレコーダの動画像を取得するデータベースと、
前記動画像を第2のユーザに提供してもよいか否かを前記第1のユーザに問い合わせて、当該問い合わせ結果に基づいて前記動画像を前記第2のユーザの端末に提供するためのサーバとを備える、ネットワークシステム。
A first user's drive recorder,
A database for acquiring moving images of the drive recorder;
A server for asking the first user whether or not the moving image may be provided to a second user, and providing the moving image to the terminal of the second user based on the result of the inquiry And a network system.
前記第2のユーザのドライブレコーダが衝撃を検知した際に、前記サーバが、前記衝撃のタイミングの前後の動画像を第2のユーザに提供してもよいか否かを前記第1のユーザに問い合わせる、請求項1に記載のネットワークシステム。   When the drive recorder of the second user detects a shock, the first user may indicate whether the server may provide the second user with a moving image before and after the timing of the shock. The network system according to claim 1, which inquires. 前記第2のユーザのドライブレコーダが衝撃を検知した際に、前記サーバは、前記衝撃のタイミングの前後の前記ドライブレコーダの動画像を前記データベースに蓄積する、請求項1に記載のネットワークシステム。     The network system according to claim 1, wherein when the second user's drive recorder detects an impact, the server stores moving images of the drive recorder before and after the timing of the impact in the database. 前記サーバは、前記衝撃のタイミングの前後の動画像を第2のユーザに提供してもよいか否かを前記第1のユーザに問い合わせた結果が肯定的である場合に、前記ドライブレコーダの動画像を前記データベースに蓄積する、請求項1に記載のネットワークシステム。   When the server inquires the first user whether or not the moving image before and after the timing of the impact may be provided to the second user, the moving image of the drive recorder is The network system according to claim 1, wherein the image is stored in the database. 前記サーバは、前記動画像を第2のユーザに提供してもよいか否かを、前記第1のユーザのドライブレコーダとは別の前記第1のユーザの端末に問い合わせる、請求項1から4のいずれか1項に記載のネットワークシステム。   The server inquires of the terminal of the first user different from the drive recorder of the first user whether the video may be provided to the second user or not. Network system according to any one of the above. 通信インターフェイスと、
前記通信インターフェイスを介して、第1のユーザのドライブレコーダから取得された動画像を第2のユーザに提供してもよいか否かを前記第1のユーザに問い合わせて、当該問い合わせ結果に基づいて前記動画像を前記第2のユーザの端末に提供するためのプロセッサとを備えるサーバ。
Communication interface,
The first user is inquired as to whether or not the moving image acquired from the drive recorder of the first user may be provided to the second user via the communication interface, and based on the inquiry result A processor for providing the moving image to a terminal of the second user.
サーバによる情報処理方法であって、
第1のユーザのドライブレコーダから取得された動画像を第2のユーザに提供してもよいか否かを前記第1のユーザに問い合わせるステップと、
当該問い合わせ結果に基づいて前記動画像を前記第2のユーザの端末に提供するステップとを備える情報処理方法。
It is an information processing method by a server, and
Inquiring of the first user whether or not the moving image acquired from the drive recorder of the first user may be provided to the second user;
Providing the moving image to the terminal of the second user based on the inquiry result.
JP2017239378A 2017-12-14 2017-12-14 Network system, server, and information processing method Pending JP2019106097A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017239378A JP2019106097A (en) 2017-12-14 2017-12-14 Network system, server, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017239378A JP2019106097A (en) 2017-12-14 2017-12-14 Network system, server, and information processing method

Publications (1)

Publication Number Publication Date
JP2019106097A true JP2019106097A (en) 2019-06-27

Family

ID=67062045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239378A Pending JP2019106097A (en) 2017-12-14 2017-12-14 Network system, server, and information processing method

Country Status (1)

Country Link
JP (1) JP2019106097A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021039772A1 (en) * 2019-08-28 2021-03-04
JP2021047666A (en) * 2019-09-19 2021-03-25 Kddi株式会社 Information processing device, information processing system, information processing method, and program
JP7409920B2 (en) 2020-03-17 2024-01-09 本田技研工業株式会社 Image management system, image management method, server device, and program
JP7444145B2 (en) 2021-07-30 2024-03-06 トヨタ自動車株式会社 Control device, system, vehicle, and control method
JP7463120B2 (en) 2020-02-04 2024-04-08 株式会社デンソーテン Information processing device, distribution system, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293558A (en) * 2005-04-07 2006-10-26 Ntt Docomo Inc Accident information acquisition system
WO2007080921A1 (en) * 2006-01-13 2007-07-19 Nec Corporation Information recording system, information recording device, information recording method, and information collection program
US20130285803A1 (en) * 2012-04-25 2013-10-31 Industrial Technology Research Institute Cooperative event data record system and method
JP2015103089A (en) * 2013-11-26 2015-06-04 富士通株式会社 Analysis support program, analysis support method and analysis support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293558A (en) * 2005-04-07 2006-10-26 Ntt Docomo Inc Accident information acquisition system
WO2007080921A1 (en) * 2006-01-13 2007-07-19 Nec Corporation Information recording system, information recording device, information recording method, and information collection program
US20130285803A1 (en) * 2012-04-25 2013-10-31 Industrial Technology Research Institute Cooperative event data record system and method
JP2015103089A (en) * 2013-11-26 2015-06-04 富士通株式会社 Analysis support program, analysis support method and analysis support device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021039772A1 (en) * 2019-08-28 2021-03-04
WO2021039772A1 (en) * 2019-08-28 2021-03-04 京セラ株式会社 Base station, traffic communication system, and traffic communication method
JP2021047666A (en) * 2019-09-19 2021-03-25 Kddi株式会社 Information processing device, information processing system, information processing method, and program
JP7023909B2 (en) 2019-09-19 2022-02-22 Kddi株式会社 Information processing equipment, information processing systems, information processing methods, and programs
JP7463120B2 (en) 2020-02-04 2024-04-08 株式会社デンソーテン Information processing device, distribution system, and information processing method
JP7409920B2 (en) 2020-03-17 2024-01-09 本田技研工業株式会社 Image management system, image management method, server device, and program
JP7444145B2 (en) 2021-07-30 2024-03-06 トヨタ自動車株式会社 Control device, system, vehicle, and control method

Similar Documents

Publication Publication Date Title
JP2019106097A (en) Network system, server, and information processing method
EP2837167B1 (en) Pairing a mobile terminal with a wireless device
KR101899351B1 (en) Method and apparatus for performing video communication in a mobile terminal
JP2018515818A (en) Video data management method, apparatus, terminal, server, program, and recording medium
TWI554909B (en) Privacy zone
US20140298368A1 (en) Authentication system and method of operating the same
CN111355774B (en) Service communication method, device and system based on P2P
US10404867B2 (en) System and information processing method
JP5935694B2 (en) Moving image distribution system and moving image distribution method
JP2014082591A (en) Imaging device, information processing method, and program
JP6729680B2 (en) Service providing system, service transfer system, service providing method, and program
US10728375B2 (en) International one-way recorded transmitter over a cellular network
US20230247233A1 (en) Live stream screen display method and apparatus, storage medium, and electronic device
JP6688485B2 (en) Service providing system, service transfer system, service providing method, and program
US11128623B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
US11076010B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
JP5891828B2 (en) Mobile terminal, photographed image disclosure method, program
EP2563008B1 (en) Method and apparatus for performing video communication in a mobile terminal
CN111147745B (en) Shooting method, shooting device, electronic equipment and storage medium
JP7279416B2 (en) Intermediary terminal, communication system, input system, intermediary control method, and program
US11108772B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
JP2016178355A (en) Communication device, communication system, communication device control method, and program
JP7352762B1 (en) Information processing system, information processing method, program
KR20100034893A (en) Terminal location check image service system and terminal location check image service method
JP6169543B2 (en) Remote control system and remote control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220308