JP6457156B2 - 録画画像共有システム、方法及びプログラム - Google Patents

録画画像共有システム、方法及びプログラム Download PDF

Info

Publication number
JP6457156B2
JP6457156B2 JP2018520252A JP2018520252A JP6457156B2 JP 6457156 B2 JP6457156 B2 JP 6457156B2 JP 2018520252 A JP2018520252 A JP 2018520252A JP 2018520252 A JP2018520252 A JP 2018520252A JP 6457156 B2 JP6457156 B2 JP 6457156B2
Authority
JP
Japan
Prior art keywords
trigger
predetermined
recorded image
recorded
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018520252A
Other languages
English (en)
Other versions
JPWO2017208352A1 (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Publication of JPWO2017208352A1 publication Critical patent/JPWO2017208352A1/ja
Application granted granted Critical
Publication of JP6457156B2 publication Critical patent/JP6457156B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、ウェアラブル端末で撮像された撮像画像の録画画像を、接続されたオペレータ端末と共有する録画画像共有システムに関する。
従来、ハンズフリーで連続的に撮像および録画することができるウェアラブル端末が知られている。
このようなウェアラブル端末として、身体に装着するCCDカメラ手段であって、身体前方に指向する撮像レンズと、この撮像レンズの近傍に配置したボタン動作のレーザ光発生手段とを有するCCDカメラ手段と、体に装着するポーチ手段に収納するエンコードサーバー手段であって、CCDカメラ手段からの映像信号及び内蔵のクロック手段からの日時情報信号をエンコードし、また文字情報に変換した日時情報をスーパーインポーズ手段を介して撮像した映像にスーパーインポーズして記録可能なエンコードサーバー手段と、給電するバッテリ手段とを具えたウェアラブル監視カメラシステムが提案されている(特許文献1参照)。特許文献1のウェアラブル監視カメラシステムによれば、身体に装着するCCDカメラ手段により身体前方の映像を撮像するため、CCDカメラ手段の装着者が身体部分を向けることができる全方位にわたる映像を連続的にハンズフリーで撮像し、エンコードサーバー手段でエンコードされ、かつ日時情報を刻印した状態で録画することができる。
特開2006−148842号公報
しかしながら、特許文献1のウェアラブル監視カメラシステムは、連続的に映像を録画するものの、連続的に録画された録画画像の中から、所望する録画箇所を見たい場合には、この録画画像を順次再生し、目視により、所望する録画箇所を探すしかなかった。
本発明は、これらの課題に鑑み、所定のトリガーを検知して、録画された録画画像のうち検知された所定のトリガーを含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システム、方法及びプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、
ウェアラブル端末で撮像された撮像画像の録画画像を、接続されたオペレータ端末と共有する録画画像共有システムであって、
前記ウェアラブル端末で撮像された撮像画像を録画する録画手段と、
所定のトリガーを検知する検知手段と、
前記録画された録画画像のうち、前記検知された所定のトリガーを含む所定時間の録画画像を、前記オペレータ端末の表示手段に表示する表示制御手段と、
を備えることを特徴とする録画画像共有システムを提供する。
第1の特徴に係る発明によれば、ウェアラブル端末で撮像された撮像画像の録画画像を、接続されたオペレータ端末と共有する録画画像共有システムは、録画手段と、検知手段と、表示制御手段と、を備える。録画手段は、ウェアラブル端末で撮像された撮像画像を録画する。検知手段は、所定のトリガーを検知する。表示制御手段は、録画された録画画像のうち、検知された所定のトリガーを含む所定時間の録画画像を、オペレータ端末の表示手段に表示する。
第1の特徴に係る発明は、システムのカテゴリであるが、方法及びプログラムであっても同様の作用、効果を奏する。
したがって、所定のトリガーを検知して、録画された録画画像のうち検知された所定のトリガーを含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システム、方法及びプログラムを提供できる。
第2の特徴に係る発明は、第1の特徴に係る発明に加え、
前記検知手段は、所定のトリガーとして、前記ウェアラブル端末のユーザの動作を検知することを特徴とする録画画像共有システムを提供する。
第2の特徴に係る発明によれば、ウェアラブル端末のユーザの動作を検知して、録画された録画画像のうち、このユーザの動作がされた時間を含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システムを提供できる。これにより、例えば、ウェアラブル端末を装着しているユーザが、例えば、安全確認や録画対象物の特定を指さし動作で行っている場合、所定のトリガーを、この指さし動作とすることで、指さし動作により安全確認を行った時間や録画対象物が録画された時間を含む所定時間の録画画像を、オペレータ端末の表示手段に表示できる。
第3の特徴に係る発明は、第1の特徴に係る発明に加え、
前記ウェアラブル端末で集音された音声を録音する録音手段を備え、
前記検知手段は、前記所定のトリガーとして、前記ウェアラブル端末のユーザの声を検知することを特徴とする録画画像共有システムを提供する。
第3の特徴に係る発明によれば、ウェアラブル端末のユーザの声を検知して、録画された録画画像のうち、このユーザの声が発生された時間を含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システムを提供できる。これにより、例えば、ウェアラブル端末を装着しているユーザが、例えば、開始の合図や録画対象物の名称を発声している場合、所定のトリガーを、この開始の合図や録画対象物の名称を発声した声とすることで、これらの声を発した時間を含む所定時間の録画画像を、オペレータ端末の表示手段に表示できる。
第4の特徴に係る発明は、第1の特徴に係る発明に加え、
前記ウェアラブル端末で集音された音声を録音する録音手段を備え、
前記検知手段は、前記所定のトリガーとして、前記ウェアラブル端末のユーザの動作と声の組み合わせを検知することを特徴とする録画画像共有システムを提供する。
第4の特徴に係る発明によれば、ウェアラブル端末のユーザの動作と声の組み合わせを検知して、録画された録画画像のうち、このユーザの動作が行われ、この声が発生された時間を含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システムを提供できる。これにより、例えば、ウェアラブル端末を装着しているユーザが、例えば、指さし動作とともに、録画対象物の名称を発声している場合、所定のトリガーを、これらの指さし動作と録画対象物の名称を発声した声とすることで、指さし動作とともに録画対象物の名称を発声した時間を含む所定時間の録画画像を、オペレータ端末の表示手段に表示できる。
第5の特徴に係る発明は、第1の特徴に係る発明に加え、
前記検知手段は、前記所定のトリガーとして、所定の環境音を検知することを特徴とする録画画像共有システムを提供する。
第5の特徴に係る発明によれば、所定の環境音を検知して、録画された録画画像のうち、この環境音が発生した時間を含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システムを提供できる。これにより、例えば、ウェアラブル端末を装着しているユーザが、例えば、事故に遭遇した場合、所定のトリガーを、衝撃音や急ブレーキ音とすることで、事故が発生した時間を含む所定時間の録画画像を、オペレータ端末の表示手段に表示できる。
第6の特徴に係る発明は、第1の特徴に係る発明に加え、
前記所定時間を前記検知手段が検知した対象又は録画された画像に応じて変更する時間変更手段を備えることを特徴とする録画画像共有システムを提供する。
第6の特徴に係る発明によれば、オペレータ端末の表示手段に表示する録画画像の時間を、所定のトリガーや録画された画像に応じて変更できる録画画像共有システムを提供できる。これにより、録画する対象の所要録画時間に応じて、所定のトリガーを異ならせておくことで、過不足無く録画画像を抜き出して、オペレータ端末の表示手段に表示できる。
第7の特徴に係る発明は、第1の特徴に係る発明に加え、
前記ウェアラブル端末の表示部に、前記検知された所定のトリガーを含む所定時間の録画画像を表示することを特徴とする録画画像共有システムを提供する。
第7の特徴に係る発明によれば、所定のトリガーを検知して、録画された録画画像のうち検知された所定のトリガーを含む所定時間の録画画像を、オペレータ端末の表示手段とともに、ウェアラブル端末の表示部にも表示できる録画画像共有システムを提供できる。これにより、例えば、ウェアラブル端末を装着したユーザは、オペレータ端末を視認できない場合でも、録画画像を確認できる。
本発明によれば、所定のトリガーを検知して、録画された録画画像のうち検知された所定のトリガーを含む所定時間の録画画像をオペレータ端末の表示手段に表示する録画画像共有システム、方法及びプログラムを提供することが可能となる。
図1は、本発明の好適な実施形態である録画画像共有システム1の概要を説明するための図である。 図2は、録画画像共有システム1の全体構成図である。 図3は、録画画像共有システム1におけるウェアラブル端末10の機能ブロックと各機能の関係を示す図である。 図4は、録画画像共有システム1におけるオペレータ端末20の機能ブロックと各機能の関係を示す図である。 図5は、オペレータ端末20が実行する録画画像共有処理のフローチャートである。 図6は、オペレータ端末20の記憶部22に記憶されたトリガーデータ210を説明する図である。 図7は、オペレータ端末20が実行する録画画像共有処理の一例を説明する図である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
[録画画像共有システムの概要]
図1は、本発明の好適な実施形態である録画画像共有システム1の概要を説明するための図である。この図1に基づいて、録画画像共有システム1の概要を説明する。録画画像共有システム1は、ウェアラブル端末10と、オペレータ端末20と、を備える。
録画画像共有システム1は、ユーザに装着されたウェアラブル端末10で撮像された撮像画像の録画画像を、接続されたオペレータ端末20と共有する。
録画画像共有システム1は、ウェアラブル端末10で撮像された撮像画像や集音された音声を、例えば、無線LAN(Local Area Network)で接続されたオペレータ端末20に送信し、オペレータ端末20が送信された撮像画像や音声を録画・録音する。そして、オペレータ端末20は、所定のトリガーを検知すると、録画・録音した録画画像の中から、検知された所定のトリガーを含む所定時間の録画画像を表示する。
本実施形態において、「所定のトリガー」は、ウェアラブル端末10のユーザによる所定の動作(例えば、指さし動作等)や、当該ユーザの声(例えば、開始の合図や録画対象物の名称を発声した声等)や、これらを組み合わせたものや、所定の環境音(例えば、衝撃音や急ブレーキ音等)が含まれる。
図1に示す例では、ユーザは、ウェアラブル端末10で富士山を撮像しているときに、ユーザが指さし動作を行うとともに、「富士山」と発声する。そして、録画画像共有システム1において、ウェアラブル端末10は、この指さし動作を撮像し、この発声を集音し、オペレータ端末20にこれら撮像画像や集音した音声のデータを送信する。
オペレータ端末20は、この受信したデータに、予め設定された所定のトリガーとして、指さし動作の撮像画像や録画対象物の名称(図1に示す例では「富士山」)を発声した声が含まれていることを検出した場合には、撮像画像の時間軸上の位置に、当該所定のトリガーと対応付けたインデックスを付加して録画・録音する。
次に、オペレータ端末20は、ユーザの操作に基づき、録画・録音したデータを再生する。このとき、オペレータ端末20は、ウェアラブル端末10から、所定のトリガーである、指さし動作の撮像画像や録画対象物の名称(図1に示す例では「富士山」)を発声した音声のデータを受信した場合には、この所定のトリガーを検知する。
そして、オペレータ端末20は、録画・録音された録画画像の中から、検知された所定のトリガーが対応付けられたインデックスを検索し、当該インデックスが付加された時間軸上の位置を含む所定時間の録画画像を、表示する。
これにより、連続的に録画された録画画像のうち、所望する録画箇所を速やかに再生することができる。
[録画画像共有システムのシステム構成]
図2は、録画画像共有システム1の全体構成図である。録画画像共有システム1は、ウェアラブル端末10と、ウェアラブル端末10に、例えば、無線LANで接続されたオペレータ端末20と、を備える。なお、録画画像共有システム1において、ウェアラブル端末10とオペレータ端末20とは、無線に限らず、有線により接続されていてもよい。
本実施形態において、ウェアラブル端末10は、例えば、メガネ型であり、メガネのフレームに制御部11、記憶部12、通信部13、撮像部(例えば、CCDカメラ)14及び集音部(例えば、マイク)15が設けられ、メガネのレンズに表示部(例えば、透過型液晶表示装置)16が設けられている。なお、ウェアラブル端末10は、オペレータ端末20を操作するユーザに装着でき、画像が撮像可能であり、音声を集音可能であり、撮像した画像データや集音した音声データをオペレータ端末20に送信できれば、例えば、小型のビデオカメラ等の任意の構成とすることができる。
また、本実施形態において、オペレータ端末20は、一般的な情報端末であってよく、後述する機能を備える情報機器であり、例えば、スマートフォン、ノート型PC、ネットブック端末、スレート端末、電子書籍端末、電子辞書端末、携帯型音楽プレーヤ、携帯型コンテンツ再生・録画プレーヤといった携帯型端末であってもよい。
[各機能の説明]
図3は、録画画像共有システム1におけるウェアラブル端末10の機能ブロックと各機能の関係を示す図である。図4は、録画画像共有システム1におけるオペレータ端末20の機能ブロックと各機能の関係を示す図である。
図3に示すように、ウェアラブル端末10は、制御部11として、CPU(Central Processing Unit),RAM(Random Access Memory),ROM(Read Only Memory)等を備え、記憶部12として、ハードディスクや半導体メモリによる、データのストレージ部を備え、通信部13として、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイス(有線であってもよい)等を備える。記憶部12は、制御プログラム100、その他、ウェアラブル端末10の制御に必要なデータを記憶する。また、ウェアラブル端末10は、撮像部14として、CCDカメラ等を備え、集音部15として、マイク等を備え、表示部16として、透過型液晶表示装置等を備える。
ウェアラブル端末10において、制御部11が制御プログラム100を読み込むことで、記憶部12、通信部13及び撮像部14と協働して、撮像モジュール101を実現する。また、ウェアラブル端末10において、制御部11が制御プログラム100を読み込むことで、記憶部12、通信部13及び集音部15と協働して、集音モジュール102を実現する。また、ウェアラブル端末10において、制御部11が制御プログラム100を読み込むことで、記憶部12、通信部13及び表示部16と協働して、表示モジュール103を実現する。
図4に示すように、オペレータ端末20は、ウェアラブル端末10と同様に、制御部21として、CPU,RAM,ROM等を備え、記憶部22として、データのストレージ部を備え、通信部23として、例えば、IEEE802.11に準拠したWiFi対応デバイス、第3世代、第4世代移動通信システム等の国際電気通信連合の規格に準拠した無線デバイス等を備え、記憶部22は、録画画像共有プログラム200、トリガーデータ210、録音・録画データ220、その他、オペレータ端末20の制御に必要なデータを記憶する。また、オペレータ端末20は、表示部24として、液晶表示装置等を備える。
トリガーデータ210は、所定のトリガーとなる、ユーザによる所定の動作を検知するためのトリガー基準画像データや、ユーザの声を検知するためのトリガー基準音声データや、所定の環境音を検知するためのトリガー基準環境音データ等が含まれる。また、録音・録画データ220は、ウェアラブル端末10から送信された撮像画像や集音された音声のデータを録画・録音したデータである。
オペレータ端末20において、制御部21が録画画像共有プログラム200を読み込むことで、記憶部22及び通信部23と協働して、録画モジュール201、録音モジュール202、インデックスモジュール203、検知モジュール204及び時間変更モジュール205を実現する。また、オペレータ端末20において、制御部21が録画画像共有プログラム200を読み込むことで、記憶部22、通信部23及び表示部24と協働して、表示制御モジュール206を実現する。
[録画画像共有処理]
図5は、オペレータ端末20が実行する録画画像共有処理のフローチャートである。上述したオペレータ端末20の各種モジュールが行う録画画像共有処理について説明する。
ステップS1において、録画モジュール201及び録音モジュール202は、ウェアラブル端末10から撮像画像や集音された音声のデータを受信し、録画・録音し、録音・録画データ220を生成し、記憶部22に記憶する。
ステップS2において、インデックスモジュール203は、ウェアラブル端末10から受信した撮像画像や集音された音声のデータに、トリガーデータ210に規定された所定のトリガーが含まれていることを検出した場合には、録音・録画データ220における撮像画像の時間軸上の位置に、当該所定のトリガーと対応付けたインデックスを付加する。
図6は、オペレータ端末20の記憶部22に記憶されたトリガーデータ210を説明する図である。トリガーデータ210は、所定のトリガーである指さし動作を示す情報であるトリガーIDに、所定のトリガーを検知するための基準データと、当該所定のトリガーを検知した場合に、当該所定のトリガーを含む録画画像を表示する時間である所定時間が対応付けられている。
基準データは、所定のトリガーが所定の動作(例えば、指さし動作等)であれば、当該所定の動作を多様な角度や状況から撮像した画像から生成されたトリガー基準画像データであり、所定のトリガーが所定のユーザの声や所定の環境音であれば、予め当該声や当該環境音の波形データから生成されたトリガー基準音声データである。
なお、所定時間は、所定のトリガー毎に異なる時間を設定しているが、これに限らず、録画された画像に応じて変更してもよい。
図7は、オペレータ端末20が実行する録画画像共有処理の一例を説明する図である。具体的には、図7に示すように、インデックスモジュール203は、ウェアラブル端末10から受信した撮像画像と、トリガーデータ210(図6参照)の基準データと、を対比し、近似した撮像画像を検出した場合(図7に示す例では、トリガー基準画像データ01と近似した撮像画像を検出している。)には、録音・録画データ220における当該撮像画像の時間軸上の位置に、トリガーID(図7に示す例では、所定のトリガーである指さし動作が対応付けられている「01」)を対応付けたインデックスを付加する。
また、例えば、トリガーデータ210(図6参照)に、所定のユーザの声(例えば、開始の合図や録画対象物の名称(例えば、「富士山」)を発声した声等)を検知するための基準データが規定されていた場合、インデックスモジュール203は、ウェアラブル端末10から受信した音声のデータ(例えば、波形データ)と、トリガーデータ210(図6参照)の基準データ(トリガー基準音声データ01等)と、を対比し、近似した波形を検出した場合には、録音・録画データ220における当該波形を検出した時間軸上の位置に、当該基準データのトリガーIDを対応付けたインデックスを付加する。
また、例えば、トリガーデータ210(図6参照)に、所定の環境音(例えば、衝撃音や急ブレーキ音等)を検知するための基準データが規定されていた場合、インデックスモジュール203は、ウェアラブル端末10から受信した音声のデータ(例えば、波形データ)と、トリガーデータ210(図6参照)の基準データ(トリガー基準音声データ10等)と、を対比し、近似した波形を検出した場合には、録音・録画データ220における当該波形を検出した時間軸上の位置に、当該基準データのトリガーIDを対応付けたインデックスを付加する。
また、インデックスモジュール203は、複数種類の所定のトリガーを(例えば、指さし動作と「富士山」と発声したユーザの声)、同時又は時間的に近いタイミングで検出した場合には、検出した複数種類の所定のトリガーのトリガーIDを組み合わせて対応付けたインデックスを付加する。
図5に戻って、ステップS3において、録画モジュール201及び録音モジュール202は、ウェアラブル端末10から撮像画像や集音された音声のデータの録画・録音を終了する。
ステップS4において、検知モジュール204は、ウェアラブル端末10から受信した撮像画像や集音された音声のデータに、トリガーデータ210に規定された所定のトリガーが含まれていることを検知した場合には、録音・録画データ220に付加されたインデックスの中から、検知した所定のトリガーを示すトリガーIDが対応付けられているインデックスを抽出する。
ステップS5において、時間変更モジュール205は、トリガーデータ210(図6参照)を参照して、ステップS4で検知モジュール204が抽出したインデックスのトリガーIDの所定時間を、検知された所定のトリガーを含む録画画像を表示する所定時間としてセットする。このような時間変更モジュール205は、所定時間を検知手段が検知した対象に応じて変更する時間変更手段として機能する。
ステップS6において、表示制御モジュール206は、ステップS1で録画モジュール201及び録音モジュール202により録画・録音された録音・録画データ220のうち、ステップS4で検知モジュール204により抽出されたインデックスを含む録画画像を、ステップS5で時間変更モジュール205がセットした所定時間表示する。即ち、表示制御モジュール206は、録画された録画画像のうち、検知された所定のトリガーを含む所定時間の録画画像を、オペレータ端末20の表示手段に表示する表示制御手段として機能する。また、本ステップにおいて、表示制御モジュール206は、当該録画画像を、ウェアラブル端末10の表示部16に表示してもよい。
具体的には、図7に示すように、検知モジュール204は、ウェアラブル端末10から受信した撮像画像と、トリガーデータ210(図6参照)の基準データと、を対比し、近似した撮像画像を検出した場合(図7に示す例では、トリガー基準画像データ01と近似した撮像画像を検出している。)には、記憶部22に記憶された録音・録画データ220に付加されたインデックスの中から、検知した所定のトリガーのトリガーID(図7に示す例では、所定のトリガーである指さし動作が対応付けられている「01」)が対応付けられているインデックスを抽出する。
また、例えば、トリガーデータ210(図6参照)に、所定のユーザの声(例えば、開始の合図や録画対象物の名称(例えば、「富士山」)を発声した声等)を検知するための基準データが規定されていた場合、検知モジュール204は、ウェアラブル端末10から受信した音声のデータ(例えば、波形データ)と、トリガーデータ210(図6参照)の基準データ(トリガー基準音声データ01等)と、を対比し、近似した波形を検出した場合には、記憶部22に記憶された録音・録画データ220に付加されたインデックスの中から、検知した所定のトリガーのトリガーIDが対応付けられているインデックスを抽出する。
また、例えば、トリガーデータ210(図6参照)に、所定の環境音(例えば、衝撃音や急ブレーキ音等)を検知するための基準データが規定されていた場合、検知モジュール204は、ウェアラブル端末10から受信した音声のデータ(例えば、波形データ)と、トリガーデータ210(図6参照)の基準データ(トリガー基準音声データ10等)と、を対比し、近似した波形を検出した場合には、記憶部22に記憶された録音・録画データ220に付加されたインデックスの中から、検知した所定のトリガーのトリガーIDが対応付けられているインデックスを抽出する。
そして、表示制御モジュール206は、録音・録画データ220のうち、検知モジュール204により抽出されたインデックスを含む録画画像(図7に示す例では、指さし動作と富士山が撮像された画像を含む所定時間の録画画像)を、時間変更モジュール205がセットした所定時間(図6に示す例において、トリガーIDが「01」の場合、15秒)、表示部24やウェアラブル端末10の表示部16に表示する。なお、時間変更モジュール205は、検知モジュール204が、あるインデックスに複数種類のトリガーIDを組み合わせて対応付けていた場合には、トリガーデータ210(図6参照)においてより長い方の所定時間をセットしてもよい。具体的には、図6に示す例では、時間変更モジュール205は、検知モジュール204が、あるインデックスにトリガーID「01」と「10」を組み合わせて対応付けていた場合には、所定時間として30秒をセットする。
上述した手段、機能は、コンピュータ(CPU,情報処理装置,各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD−ROM等)、DVD(DVD−ROM、DVD−RAM等)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置からコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1 録画画像共有システム、10 ウェアラブル端末、20 オペレータ端末、24 表示部、201 録画モジュール、204 検知モジュール、206 表示制御モジュール

Claims (8)

  1. ウェアラブル端末で撮像された撮像画像の録画画像を、接続されたオペレータ端末と共有する録画画像共有システムであって、
    所定のトリガーであることを示すトリガーIDに、所定のトリガーを検知するための基準データと、当該所定のトリガーを検知した場合に当該所定のトリガーを含む録画画像を表示する時間である所定時間とが対応付けられたトリガーデータが予め記憶される記憶手段と、
    前記ウェアラブル端末で撮像された撮像画像を録画する録画手段と、
    前記基準データを参照して、前記録画された録画画像から所定のトリガーを検知する検知手段と、
    前記トリガーデータを参照し、前記検知された所定のトリガーを含む録画画像を表示する時間である所定時間を変更する時間変更手段と、
    前記録画された録画画像のうち、前記検知された所定のトリガーを含む録画画像を、前記時間変更手段によって変更された所定時間の間、前記オペレータ端末の表示手段に表示する表示制御手段と、
    を備えることを特徴とする録画画像共有システム。
  2. 前記検知手段は、所定のトリガーとして、前記ウェアラブル端末のユーザの動作を検知する、
    ことを特徴とする請求項1に記載の録画画像共有システム。
  3. 前記ウェアラブル端末で集音された音声を録音する録音手段を備え、
    前記検知手段は、前記所定のトリガーとして、前記ウェアラブル端末のユーザの声を検知する、
    ことを特徴とする請求項1に記載の録画画像共有システム。
  4. 前記ウェアラブル端末で集音された音声を録音する録音手段を備え、
    前記検知手段は、前記所定のトリガーとして、前記ウェアラブル端末のユーザの動作と声の組み合わせを検知する、
    ことを特徴とする請求項1に記載の録画画像共有システム。
  5. 前記検知手段は、前記所定のトリガーとして、所定の環境音を検知する、
    ことを特徴とする請求項1に記載の録画画像共有システム。
  6. 前記ウェアラブル端末の表示部に、前記検知された所定のトリガーを含む所定時間の録画画像を表示する、
    ことを特徴とする請求項1に記載の録画画像共有システム。
  7. ウェアラブル端末で撮像された撮像画像の録画画像を、接続されたオペレータ端末と共有する録画画像共有システムが実行する方法であって、
    所定のトリガーであることを示すトリガーIDに、所定のトリガーを検知するための基準データと、当該所定のトリガーを検知した場合に当該所定のトリガーを含む録画画像を表示する時間である所定時間とが対応付けられたトリガーデータを予め記憶するステップと、
    前記ウェアラブル端末で撮像された撮像画像を録画するステップと、
    前記基準データを参照して、前記録画された録画画像から所定のトリガーを検知するステップと、
    前記トリガーデータを参照し、前記検知された所定のトリガーを含む録画画像を表示する時間である所定時間を変更するステップと、
    前記録画された録画画像のうち、前記検知された所定のトリガーを含む録画画像を、前記変更するステップにて変更された所定時間の間、前記オペレータ端末の表示手段に表示するステップと、
    を備えることを特徴とする方法。
  8. ウェアラブル端末で撮像された撮像画像の録画画像を、接続されたオペレータ端末と共有する録画画像共有システムに、
    所定のトリガーであることを示すトリガーIDに、所定のトリガーを検知するための基準データと、当該所定のトリガーを検知した場合に当該所定のトリガーを含む録画画像を表示する時間である所定時間とが対応付けられたトリガーデータが予め記憶するステップ、
    前記ウェアラブル端末で撮像された撮像画像を録画するステップ、
    前記基準データを参照して、前記録画された録画画像から所定のトリガーを検知するステップ、
    前記トリガーデータを参照し、前記検知された所定のトリガーを含む録画画像を表示する時間である所定時間を変更するステップ、
    前記録画された録画画像のうち、前記検知された所定のトリガーを含む録画画像を、前記変更するステップにて変更された所定時間の間、前記オペレータ端末の表示手段に表示するステップ、
    を実行させるためのコンピュータ読み取り可能なプログラム。
JP2018520252A 2016-05-31 2016-05-31 録画画像共有システム、方法及びプログラム Active JP6457156B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/066038 WO2017208352A1 (ja) 2016-05-31 2016-05-31 録画画像共有システム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017208352A1 JPWO2017208352A1 (ja) 2018-09-13
JP6457156B2 true JP6457156B2 (ja) 2019-01-23

Family

ID=60478219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018520252A Active JP6457156B2 (ja) 2016-05-31 2016-05-31 録画画像共有システム、方法及びプログラム

Country Status (3)

Country Link
US (1) US10397468B2 (ja)
JP (1) JP6457156B2 (ja)
WO (1) WO2017208352A1 (ja)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153165A (ja) * 2001-11-19 2003-05-23 Mitsubishi Electric Corp 映像監視システム
JP2006148842A (ja) 2004-10-20 2006-06-08 Daimei Kk ウェアラブル監視カメラシステム
US7525568B2 (en) * 2004-11-09 2009-04-28 International Business Machines Corporation Personal multi-information recorder
JP2007221328A (ja) * 2006-02-15 2007-08-30 Sony Corp 指令システム、撮像装置、指令装置、撮像処理方法、指令処理方法、プログラム
US20080144906A1 (en) * 2006-10-09 2008-06-19 General Electric Company System and method for video capture for fluoroscopy and navigation
US8675066B2 (en) * 2009-10-02 2014-03-18 Alarm.Com Incorporated Image surveillance and reporting technology
KR20120080376A (ko) * 2011-01-07 2012-07-17 삼성전자주식회사 디지털 영상 촬영 장치 및 이의 제어 방법
US20140347479A1 (en) * 2011-11-13 2014-11-27 Dor Givon Methods, Systems, Apparatuses, Circuits and Associated Computer Executable Code for Video Based Subject Characterization, Categorization, Identification, Tracking, Monitoring and/or Presence Response
US9256803B2 (en) * 2012-09-14 2016-02-09 Palo Alto Research Center Incorporated Automatic detection of persistent changes in naturally varying scenes
JP6171374B2 (ja) * 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR102067057B1 (ko) * 2013-07-24 2020-01-16 엘지전자 주식회사 디지털 디바이스 및 제어 방법
JP2015233188A (ja) * 2014-06-09 2015-12-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9626580B2 (en) * 2014-07-22 2017-04-18 Verizon Patent And Licensing Inc. Defining region for motion detection
JP6451133B2 (ja) * 2014-08-01 2019-01-16 株式会社リコー 異常検知装置、異常検知方法、異常検知システム、及びプログラム
US10231006B2 (en) * 2014-10-23 2019-03-12 Hoyt Mac Layson, JR. Law enforcement real time digital information chain of custody assurance system and method

Also Published As

Publication number Publication date
US20180352149A1 (en) 2018-12-06
WO2017208352A1 (ja) 2017-12-07
JPWO2017208352A1 (ja) 2018-09-13
US10397468B2 (en) 2019-08-27

Similar Documents

Publication Publication Date Title
US10674056B2 (en) Wearable apparatus and method for capturing image data using multiple image sensors
JP6094190B2 (ja) 情報処理装置および記録媒体
JP2014090386A (ja) 情報処理システム、情報処理装置、およびプログラム
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
US20160099023A1 (en) Automatic generation of compilation videos
CN107018307A (zh) 摄像装置以及判定方法
JPWO2009001530A1 (ja) カメラ装置、および、撮影方法
JP7100824B2 (ja) データ処理装置、データ処理方法及びプログラム
CN102708120A (zh) 生活流式传输
JP2006238220A (ja) 撮像装置、撮像方法、及びプログラム
JP2015092646A (ja) 情報処理装置、制御方法、およびプログラム
CN103780808A (zh) 内容获取设备和存储介质
JP2019040005A (ja) 読み上げシステム及び読み上げ方法
JP2016111393A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2010178259A (ja) デジタルカメラ
JP6457156B2 (ja) 録画画像共有システム、方法及びプログラム
JP2015138534A (ja) 電子機器
JP2011188289A (ja) 画像音声記録システム
JP2020184678A (ja) ウェアラブルカメラおよび信号付与方法
JP6532600B2 (ja) ドライブレコーダ撮像画像送信システム、ドライブレコーダ撮像画像送信方法及びプログラム
US20200273497A1 (en) Wearable camera
US10541006B2 (en) Information processor, information processing method, and program
JP2005107895A (ja) セキュリティシステム及びセキュリティ方法
KR20170120849A (ko) 동영상 촬영에 의한 교통 사고 현황 정보 수집 방법 및 시스템
JP6447615B2 (ja) 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180623

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180623

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181219

R150 Certificate of patent or registration of utility model

Ref document number: 6457156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250