JP7164465B2 - ウェアラブルカメラ - Google Patents

ウェアラブルカメラ Download PDF

Info

Publication number
JP7164465B2
JP7164465B2 JP2019029282A JP2019029282A JP7164465B2 JP 7164465 B2 JP7164465 B2 JP 7164465B2 JP 2019029282 A JP2019029282 A JP 2019029282A JP 2019029282 A JP2019029282 A JP 2019029282A JP 7164465 B2 JP7164465 B2 JP 7164465B2
Authority
JP
Japan
Prior art keywords
wearable camera
angle
control unit
view
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019029282A
Other languages
English (en)
Other versions
JP2020136953A (ja
Inventor
覚 大藪
倫典 岸本
俊博 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I-PRO CO., LTD.
Original Assignee
I-PRO CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I-PRO CO., LTD. filed Critical I-PRO CO., LTD.
Priority to JP2019029282A priority Critical patent/JP7164465B2/ja
Priority to US16/789,932 priority patent/US11127435B2/en
Publication of JP2020136953A publication Critical patent/JP2020136953A/ja
Application granted granted Critical
Publication of JP7164465B2 publication Critical patent/JP7164465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、ウェアラブルカメラに関する。
近年、警察官または警備員等の業務を支援するため、ウェアラブルカメラが導入されている(例えば、特許文献1を参照)。ウェアラブルカメラは、警察官または警備員等の身体または着用した衣服等に装着され、現場等の映像を撮像する。
特開2016-181767号公報
ウェアラブルカメラは、広い範囲の映像を撮影できるように、一般的に画角が広く設定される。そのため、ウェアラブルカメラは、撮影した映像を用いて認証処理を実行すると、認証処理する撮影対象が小さく撮影され、認証精度が低くなるという問題がある。
本開示の非限定的な実施例は、撮影対象物の認証精度を向上できるウェアラブルカメラの提供に資する。
また、警察官は、例えば、ウェアラブルカメラで撮影(録画)した映像を端末装置で再生し、再生した映像に基づいて事件に関するレポートを作成する場合がある。映像データには、例えば、事件(レポート)と関連しない映像部分も含まれている場合があり、事件と関連する映像が直ちに端末装置で再生できれば、レポート作成が容易になる。
そこで、例えば、事件に関連する映像部分が端末装置で再生できるように、ウェアラブルカメラが、ウェアラブルカメラを装着した警察官の音声に基づいて、映像データに属性情報を付与することが考えられる。例えば、ウェアラブルカメラは、映像データに含まれる警察官が発した「事件」という音声から、「ストップ」という音声までの映像データにタグ情報を付与する。この場合、端末装置は、映像データに付与されたタグ情報に基づいて、「事件」という音声から、「ストップ」という音声までの映像を再生することが可能となる。
このように、ウェアラブルカメラは、ウェアラブルカメラを装着したユーザの音声に基づいてタグ情報を付与する場合、他者の音声でなく、ウェアラブルカメラを装着したユーザの音声に基づいて、映像データに属性情報を付与することが望まれる。
本開示の非限定的な実施例は、ウェアラブルカメラを装着したユーザの音声に基づいて、適切に映像データに属性情報を付与できるウェアラブルカメラの提供に資する。
本開示の一態様に係るウェアラブルカメラは、第1の画角と、前記第1の画角より狭い画角の第2の画角とに切替え可能な撮像部と、前記第1の画角の撮影中に所定の操作を受付けると、前記第2の画角に切替え、前記第2の画角において撮影される対象物の認証処理を実行する制御部と、を有し、前記制御部は、画角を前記第2の画角に切り替えた後、前記第2の画角の範囲を示すレーザ光を、筐体の正面に配置されたレーザから出力する。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様によれば、撮影対象物の認証精度を向上できる、あるいは、ウェアラブルカメラを装着したユーザの音声に基づいて、適切に映像データに属性情報を付与できる。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
第1の実施の形態に係るウェアラブルカメラシステムの構成例を示した図 ウェアラブルカメラを装着した警察官の上半身の一例を示した図 ウェアラブルカメラの外観例を示した図 ウェアラブルカメラの画角を説明する図 図3のウェアラブルカメラのブロック構成例を示した図 ウェアラブルカメラのレーザ出力を説明する図 ウェアラブルカメラの動作例を示したフローチャート 広角モードにおける認証処理を説明する図 第2の実施の形態に係るウェアラブルカメラの外観例を示した図 図9のウェアラブルカメラのブロック構成例を示した図 ウェアラブルカメラの動作例を示したフローチャート
以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(第1の実施の形態)
図1は、第1の実施の形態に係るウェアラブルカメラシステムの構成例を示した図である。図1に示すように、ウェアラブルカメラシステムは、ウェアラブルカメラ1と、車載システム2と、サーバ3と、端末装置4と、を有する。
車載システム2、サーバ3、および端末装置4は、ネットワーク5を介して接続される。ウェアラブルカメラ1は、車載システム2およびネットワーク5を介して、サーバ3および端末装置4と接続される。ネットワーク5は、例えば、携帯電話等の無線通信ネットワークおよびインターネット等のネットワークを含んでもよい。
ウェアラブルカメラ1は、例えば、警察官に装着または所持される(例えば、図2を参照)。ウェアラブルカメラ1は、例えば、Wi-Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信によって、車載システム2と通信する。
車載システム2は、例えば、警察車両A1に搭載される。車載システム2は、例えば、車載カメラ(図示せず)、パーソナルコンピュータ等の制御装置(図示せず)、および通信装置(図示せず)等を有している。
車載システム2は、例えば、ウェアラブルカメラ1から、ウェアラブルカメラ1が撮影した映像データを受信する。車載システム2は、ウェアラブルカメラ1から受信した映像データを、ネットワーク5を介して、サーバ3に送信する。また、車載システム2は、車載カメラが撮影した映像データを、ネットワーク5を介して、サーバ3に送信する。
サーバ3は、ウェアラブルカメラ1が撮影した映像データおよび車載システム2の車載カメラが撮影した映像データを記憶する。また、サーバ3は、端末装置4によって作成されたレポート等を記憶する。
端末装置4は、例えば、警察署A2において、警察官によって使用される。端末装置4は、警察官の操作に応じて、サーバ3にアクセスし、サーバ3に記憶されている映像データを表示装置に表示する。また、端末装置4は、警察官の操作に応じて、例えば、事件等に関するレポートを作成する。端末装置4は、作成したレポートを、ネットワーク5を介して、サーバ3に送信する。
なお、ウェアラブルカメラ1は、車載システム2およびネットワーク5を介して、サーバ3および端末装置4と接続されるとしたが、これに限られない。ウェアラブルカメラ1は、車載システム2を介さず、ネットワーク5を介して、サーバ3および端末装置4と接続されてもよい。
図2は、ウェアラブルカメラ1を装着した警察官U1の上半身の一例を示した図である。図2において、図1と同じものには同じ符号が付してある。
ウェアラブルカメラ1は、ユーザである警察官U1の前方を撮影するように、警察官U1の制服の前部に装着または保持される。ウェアラブルカメラ1は、例えば、首から紐で吊り下げた状態で制服の前部に固定されてもよい。ウェアラブルカメラ1は、ウェアラブルカメラ1の筐体の背面に取り付けられた取付具(例えば、取付用クリップ)と制服の前部に取り付けられた被取付具とが係合することで制服の前部に固定されてもよい。
図3は、ウェアラブルカメラ1の外観例を示した図である。図3に示すように、ウェアラブルカメラ1の筐体の正面には、カメラレンズ11a,11bと、レーザL1と、マイクロホンMC1と、スイッチSW1,SW2と、が配置されている。ウェアラブルカメラ1の筐体の側面には、スイッチSW3が配置されている。ウェアラブルカメラの筐体の上面には、LED(Light Emitting Diode)26a~26cと、ウェアラブルカメラ1が撮影している映像を表示する表示装置(図示せず)と、が配置されている。
カメラレンズ11aの画角は、カメラレンズ11bの画角より広い。ウェアラブルカメラ1は、警察官の操作に応じて、カメラレンズ11aとカメラレンズ11bとによる撮影を切替える。
図4は、ウェアラブルカメラ1の画角を説明する図である。図4の実線で示す画角A11は、カメラレンズ11aによる画角を示している。図4の点線で示す画角A12は、カメラレンズ11bによる画角を示している。画角A12は、画角A11より狭くなっている。
ウェアラブルカメラ1は、警察官の操作に応じて、画角を切替える。例えば、通常、ウェアラブルカメラ1は、カメラレンズ11aを通して(広角で)撮影する。警察官は、ウェアラブルカメラ1を用いて、例えば、顔認証または車両のナンバープレート等の認証を行う場合、ウェアラブルカメラ1のスイッチSW3(図2を参照)を押下する。ウェアラブルカメラ1は、スイッチSW3が押下されると、カメラレンズ11bを通して(狭角で)撮影する。
すなわち、ウェアラブルカメラ1は、通常、図4の画角A11に示すように、広角で撮影する。これにより、ウェアラブルカメラ1は、例えば、事件またはパトロール中の状況等を広い範囲で撮影できる。
一方、ウェアラブルカメラ1は、顔認証または車両のナンバープレート等の認証を行う場合、警察官の操作に応じて、図4の画角A12に示すように、狭角で撮影する。これにより、ウェアラブルカメラ1は、認証対象を大きく撮影でき、適切に認証処理を実行できる。
なお、上記したように、ウェアラブルカメラ1の筐体の上面には、表示装置が配置されている。表示装置には、カメラレンズ11a,11bを通して撮影される映像が表示される。これにより、警察官は、ウェアラブルカメラ1によってどのような映像が撮影されているか確認できる。
以下では、ウェアラブルカメラ1が広角で撮影している動作状態を、広角モードと呼ぶことがある。ウェアラブルカメラ1が狭角で撮影している動作状態を、狭角モードと呼ぶことがある。また、広角モードにおける画角は、第1の画角と呼ばれてもよい。狭角モードにおける画角は、第2の画角と呼ばれてもよい。
図3の説明に戻る。レーザL1は、後述するが、狭角による撮影時、撮影範囲(画角)を示すレーザ光を出力する(例えば、図6の実線で示すレーザ光A21を参照)。これにより、警察官は、狭角による撮影時、認証対象物(警察官が認証しようとする撮影対象物)に対し、ウェアラブルカメラ1の照準が合わせ易くなる。なお、レーザL1は、広角モードにおける撮影時には、レーザ光を出力しない。
マイクロホンMC1は、警察官の発する声および周囲の音を集音する。
スイッチSW1は、ウェアラブルカメラ1の撮影(動画像の録画)の開始/停止の操作を受付けるボタンスイッチである。例えば、ウェアラブルカメラ1は、スイッチSW1が1回押下されると、広角モードにおいて撮影を開始する。ウェアラブルカメラ1は、次にスイッチSW1が1回押下されると撮影を停止する。ウェアラブルカメラ1は、さらにスイッチSW1が1回押下されると、広角モードにおいて撮影を開始する。
スイッチSW2は、ウェアラブルカメラ1の静止画像の撮影操作を受付けるボタンスイッチである。例えば、ウェアラブルカメラ1は、スイッチSW2が1回押下されるたびに、静止画像を撮影する。
スイッチSW3は、ウェアラブルカメラ1の画角切替えの操作を受付けるボタンスイッチである。例えば、ウェアラブルカメラ1は、スイッチSW3が1回押下されるたびに、画角を切替える。より具体的には、ウェアラブルカメラ1は、スイッチSW3が1回押下されると、画角を狭角に切替える。ウェアラブルカメラ1は、次にスイッチSW3が1回押下されると、画角を広角に切替える。ウェアラブルカメラ1は、さらにスイッチSW3が1回押下されると、画角を狭角に切替える。
LED26a~26cは、点灯状態によって、ウェアラブルカメラ1の動作状態を示す。例えば、LED26a~26cは、点灯状態によって、ウェアラブルカメラ1が録画中であるか否かを示す。また、LED26a~26cは、点灯状態によって、ウェアラブルカメラ1の画角が広角であるか狭角であるか示す。
図5は、図3のウェアラブルカメラ1のブロック構成例を示した図である。図5に示すように、ウェアラブルカメラ1は、撮像部11と、GPIO(General Purpose Input/Output)12と、RAM(Random access memory)13と、ROM(Read Only Memory)14と、記憶部15と、EEPROM(Electrically Erasable Programmable Read-Only Memory)16と、RTC(Real Time Clock)17と、GPS(Global Positioning System)18と、制御部19と、通信部21と、USB(Universal Serial Bus)22と、コンタクトターミナル23と、電源部24と、バッテリ25と、LED26a,26b,26cと、バイブレータ27と、オーディオコーデック28と、スイッチSW1~SW3と、マイクロホンMC1と、レーザL1と、を有している。
撮像部11は、カメラレンズ11a,11b(図3を参照)と、2つの固体撮像素子(図示せず)とを有している。1つの個体撮像素子は、カメラレンズ11aを通して受けた光を電気信号に変換する。もう1つの個体撮像素子は、カメラレンズ11bを通して受けた光を電気信号に変換する。撮像部11は、制御部19の制御に応じて、2つの個体撮像素子のうちの1つの電気信号(映像データ)を制御部19に出力する。すなわち、撮像部11は、制御部19の制御に応じて、画角を切替えることができる。
GPIO12は、シリアルパラレル変換用のインタフェースである。GPIO12は、スイッチSW1~SW3、LED26a~26c、およびバイブレータ27と、制御部19との間の信号の入出力を行う。
RAM13は、制御部19の動作において使用されるワークメモリである。
ROM14は、制御部19を制御するためのプログラムおよびデータを予め記憶するメモリである。
記憶部15は、例えば、SDメモリ等の外部記憶媒体である。記憶部15は、撮像部11にて撮像して得られた映像データを記憶する。記憶部15は、ウェアラブルカメラ1の筐体本体に対して取付け及び取外しが可能である。
EEPROM16は、ウェアラブルカメラ1を識別する識別情報(例えば、カメラID)、および他の設定情報を記憶する。
RTC17は、現在の時刻情報をカウントして制御部19に出力する。
GPS18は、GPS発信機から送信されるGPS信号を受信して、現在のウェアラブルカメラ1の位置情報を算出する。GPS18は、算出した位置情報を制御部19に出力する。
制御部19は、ROM14に記憶されたプログラムおよびデータに従って動作し、ウェアラブルカメラ1全体を制御する。例えば、制御部19は、各部との間のデータの入出力処理、データの演算(計算)処理、およびデータの記憶処理を行う。制御部19は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)等によって構成されてもよい。
通信部21は、例えば、OSI(Open Systems Interconnection)参照モデルの第1層である物理層において、制御部19とネットワーク5との間を接続する。
USB22は、例えば、車載システム2との接続を可能とする。また、USB22は、例えば、警察署A2内の端末装置4との接続を可能とする。
コンタクトターミナル23は、クレードル(図示せず)または外付けアダプタ(図示せず)等と電気的に接続される端子である。コンタクトターミナル23は、USB22を介して制御部19に接続されるともに、電源部24と接続される。ウェアラブルカメラ1は、クレードルまたはアダプタを介して、充電が可能となり、または外部装置との通信が可能となる。
電源部24は、コンタクトターミナル23を介して、クレードルまたは外付けアダプタより供給される電源電力をバッテリ25に給電する。
バッテリ25は、充電可能な2次電池により構成され、ウェアラブルカメラ1の各部に電源電力を供給する。
スイッチSW1は、ウェアラブルカメラ1の撮影の開始/停止の操作を受付けるボタンスイッチである。スイッチSW2は、ウェアラブルカメラ1の静止画像の撮影操作を受付けるボタンスイッチである。スイッチSW3は、ウェアラブルカメラ1の画角切替えの操作を受付けるボタンスイッチである。
LED26a~26cは、点灯状態によって、ウェアラブルカメラ1の動作状態を示す。バイブレータ27は、振動によって、ウェアラブルカメラ1の動作状態を示す。
マイクロホンMC1は、ウェアラブルカメラ1を装着した警察官の発話音声および周囲の音を集音し、集音により得られた音声信号をオーディオコーデック28に出力する。オーディオコーデック28は、音声信号を符号化(圧縮)し、制御部19に出力する。
レーザ制御部29は、制御部19の指示に応じて、レーザL1の出力を制御する。
図6は、ウェアラブルカメラ1のレーザ出力を説明する図である。図6に示す実線のレーザ光A21は、ウェアラブルカメラ1のレーザL1から出力されるレーザ光を示す。図6に示す点線の画角A22は、ウェアラブルカメラ1の狭角モードにおける画角を示している。
ウェアラブルカメラ1を装着した警察官は、スイッチSW1を押し、広角モードで撮影しているとする。警察官は、例えば、不審車両を見つけ、ナンバープレートを照合するとする。警察官は、スイッチSW3を押下し、ウェアラブルカメラ1の撮影モードを、広角モードから狭角モードに変更する。ウェアラブルカメラ1の制御部19は、撮影モードを狭角モードにすると、レーザL1からレーザ光を出力する。
図6のレーザ光A21に示すように、ウェアラブルカメラ1のレーザL1は、ウェアラブルカメラ1の画角と一致(略一致も含む)するレーザ光を出力する。例えば、レーザL1は、ウェアラブルカメラ1の画角の範囲を示す線状のレーザ光を出力する。より具体的には、ウェアラブルカメラ1の画角の縁を示す四角形状の枠状のレーザ光を出力する。
従って、警察官は、車両のナンバープレートを撮影(照合)する際、枠状のレーザ光の中にナンバープレートが収まるように、ウェアラブルカメラ1を向ければよい。また、警察官は、車両のナンバープレートを撮影する際、枠状のレーザ光の中にナンバープレートが収まるように、前後に移動すればよい。
ウェアラブルカメラ1の制御部19は、狭角モードにおいて、画角内にナンバープレートが収まると、映像からナンバープレートの番号を読み取る。ウェアラブルカメラ1のRAM13、記憶部15、またはEEPROM16には、例えば、盗難車または容疑者等の車両のナンバープレートを記憶している。ウェアラブルカメラ1の制御部19は、映像から読み取ったナンバープレートと、ウェアラブルカメラ1のRAM13、記憶部15、またはEEPROM16(以下、認証情報記憶部と呼ぶことがある)に記憶されているナンバープレートとを照合する。
ウェアラブルカメラ1の制御部19は、映像から読み取ったナンバープレートと、認証情報記憶部に記憶されているナンバープレートとが一致した場合、LED26a~26cの点灯によって、一致したことを警察官に通知する。または、ウェアラブルカメラ1の制御部19は、映像から読み取ったナンバープレートと、認証情報記憶部に記憶されているナンバープレートとが一致した場合、バイブレータ27の振動によって、一致したことを警察官に通知する。または、ウェアラブルカメラ1の制御部19は、映像から読み取ったナンバープレートと、認証情報記憶部に記憶されているナンバープレートとが一致した場合、ウェアラブルカメラ1の上面に配置された表示装置に、一致したことを示す情報を表示する。
なお、盗難車または容疑者等の車両のナンバープレートは、例えば、サーバ3または端末装置4から送信される。サーバ3または端末装置4から送信されたナンバープレートは、ネットワーク5および車載システム2を介して、ウェアラブルカメラ1によって受信される。ウェアラブルカメラ1は、受信したナンバープレートを、RAM13、記憶部15、またはEEPROM16のいずれかに記憶する。
また、図6では、車両のナンバープレートの照合について説明したが、顔認証においても同様である。
図7は、ウェアラブルカメラ1の動作例を示したフローチャートである。ウェアラブルカメラ1を装着している警察官は、例えば、パトロールを開始し、ウェアラブルカメラ1のスイッチSW1を押下したとする。
ウェアラブルカメラ1の制御部19は、スイッチSW1の押下に応じて撮像部11を制御し、広角モードにおける撮影を行う(ステップS1)。
ここで、例えば、警察官は、不審車両または不審人物を発見したとする。警察官は、不審車両または不審人物を照合するため、スイッチSW3を押下する。
ウェアラブルカメラ1の制御部19は、スイッチSW3から、押下されたことを示す信号を受信する(ステップS2)。
ウェアラブルカメラ1の制御部19は、ステップS2の信号の受信に応じて、レーザ制御部29を制御し、レーザL1からレーザ光を出力する(ステップS3)。
ウェアラブルカメラ1の制御部19は、ステップS2の信号の受信に応じて撮像部11を制御し、狭角モードにおける撮影を行う(ステップS4)。すなわち、ウェアラブルカメラ1の制御部19は、第1の画角の撮影中にスイッチSW3の操作を受付けると、第2の画角に切替える。
なお、警察官は、撮影モードを狭角モードに切替えると、認証対象物がレーザL1のレーザ光の枠内に収まるように、ウェアラブルカメラ1の照準を合わせる。
ウェアラブルカメラ1の制御部19は、レーザ光の枠内に収まった認証対象物と、認証情報記憶部に記憶されている情報(認証対象人物の顔データまたはナンバープレート等の情報)とを照合する(ステップS5)。
ウェアラブルカメラ1の制御部19は、照合が一致した場合(S5の「Yes」)、例えば、LDE26a~26cを点灯させ、照合が一致したことを警察官に通知する(ステップS6)。そして、ウェアラブルカメラ1は、処理をステップS1に移行し、広角モードにて撮影を行う。これにより、警察官は、ウェアラブルカメラ1を操作することなく、照合が一致した認証対象物と、その周囲の風景および状況等との撮影を再開できる。
一方、ウェアラブルカメラ1の制御部19は、照合が一致しなかった場合(S5の「No」)、照合処理を続行する。これにより、警察官は、ウェアラブルカメラ1を操作することなく、別の認証対象物の照合を、連続して行うことができる。例えば、ある現場に、複数の不審車両が駐車されていた場合、警察官は、複数の不審車両のナンバープレートを連続して照合できる。
以上説明したように、ウェアラブルカメラ1は、第1の画角と、第1の画角より狭い第2の画角とに切替え可能な撮像部11と、第1の画角の撮影中に所定の操作を受付けると、画角を第2の画角に切替え、第2の画角において撮影される認証対象物の認証処理を実行する制御部19と、を有する。これにより、ウェアラブルカメラ1は、認証処理を実行する際、狭い画角で認証対象物を撮影するので、認証対象物を大きく撮影でき、認証対象物の認証精度を向上できる。
(変形例1)
ウェアラブルカメラ1の制御部19は、広角モードにおいて、レーザL1からレーザ光を出力してもよい。そして、ウェアラブルカメラ1の制御部19は、広角モードにおいて、認証処理を実行してもよい。
図8は、広角モードにおける認証処理を説明する図である。図8に示す実線のレーザ光A31は、広角モードにおいて、ウェアラブルカメラ1のレーザL1から出力されるレーザ光を示す。図6に示す点線の画角A32は、ウェアラブルカメラ1の広角モードにおける画角を示している。
図8に示すように、ウェアラブルカメラ1のレーザL1は、広角モードにおいて、認証処理ができる範囲を示すレーザ光を出力する。例えば、レーザL1は、ウェアラブルカメラ1の制御部19が認証処理できる範囲を示す線状のレーザ光を出力する。より具体的には、レーザL1は、ウェアラブルカメラ1の制御部19が認証できる範囲の縁を示す四角形状の枠状のレーザ光を出力する。
警察官は、車両のナンバープレートを撮影(照合)する際、枠状のレーザ光の中にナンバープレートが収まるように、ウェアラブルカメラ1を向ければよい。また、警察官は、車両のナンバープレートを撮影する際、枠状のレーザ光の中にナンバープレートが収まるように、前後に移動すればよい。
これにより、ウェアラブルカメラ1の制御部19は、図8のレーザ光A31内に収まるナンバープレートの認証処理を実行できる。
なお、ウェアラブルカメラ1は、例えば、筺体の側面に、広角モードにおいてレーザ光を出力するためのスイッチを備えてもよい。例えば、ウェアラブルカメラ1の制御部19は、広角モードにおいて、筺体の側面に設けられたスイッチが押下されると、図8に示すレーザ光A31を出力してもよい。
図8では、車両のナンバープレートの照合について説明したが、顔認証においても同様である。
(変形例2)
上記では、ウェアラブルカメラ1の制御部19は、狭角モードに移行した場合、広角による撮影(録画)を停止したが、これに限られない。ウェアラブルカメラ1の制御部19は、狭角モードに移行した場合であっても、広角による撮影(カメラレンズ11aによる撮影)を継続してもよい。ウェアラブルカメラ1の制御部19は、狭角モードに移行しても、広角による撮影を継続する場合、狭角モードにおける映像データも録画してもよい。
(変形例3)
ウェアラブルカメラ1の制御部19は、図7のステップS5において、照合が一致しなかった場合、照合処理を続行するとしたがこれに限られない。ウェアラブルカメラ1の制御部19は、一定時間経過(例えば、10秒経過)しても、照合が一致しなかった場合、ステップS1の広角モードに移行してもよい。
また、ウェアラブルカメラ1の制御部19は、スイッチSW3が押下されると、広角モードに移行してもよい。ウェアラブルカメラ1の制御部19は、再びスイッチSW3が押下されると、狭角モードに移行してもよい。すなわち、ウェアラブルカメラ1の制御部19は、スイッチSW3が押下されるたびに、広角モードと狭角モードとを切替えてもよい。
(変形例4)
上記では、2つのカメラレンズ11a,11bを備えるとしたが、これに限られない。ウェアラブルカメラ1は、例えば、1つのズームレンズ(光学ズームレンズ)と、1つの個体撮像素子とを備えた撮像部とを備えてもよい。ウェアラブルカメラ1の制御部19は、ズームレンズを制御し、画角を変更してもよい。
(変形例5)
状況によっては、レーザ光の出力を停止したい場合もある。例えば、周囲の人に分からないように、車両のナンバープレートの認証を行いたい場合もある。そこで、ウェアラブルカメラ1は、レーザ光の出力をオン/オフするスイッチを備えてもよい。スイッチがオフされた場合、ウェアラブルカメラ1の制御部19は、狭角モードに移行しても、レーザL1からレーザ光を出力しない。
(変形例6)
ウェアラブルカメラ1を装着するユーザは、警察官に限られない。ウェアラブルカメラ1を装着するユーザは、警備員等であってもよい。
(第2の実施の形態)
第2の実施の形態では、ウェアラブルカメラ1は、ウェアラブルカメラ1を装着する警察官の音声と、その他の音とを区別できるように複数のマイクを備える。また、ウェアラブルカメラ1は、警察官の音声に応じて、録画した映像データに、タグ情報(メタ情報)を付加する。以下では、第1の実施の形態と異なる部分について説明する。
図9は、第2の実施の形態に係るウェアラブルカメラ1の外観例を示した図である。図9において、図3と同じものには、同じ符号が付してある。図9に示すウェアラブルカメラ1は、図3に示したウェアラブルカメラ1に対し、マイクロホンMC2~MC4を有している。なお、図9に示すウェアラブルカメラ1は、図3に示したカメラレンズ11bおよびレーザL1を備えていない。
マイクロホンMC1は、ウェアラブルカメラ1の筐体の正面であって、ウェアラブルカメラ1の中心より上側に配置されている。マイクロホンMC1は、ウェアラブルカメラ1を装着した警察官の対面に位置する話者が発する音声を集音する。
マイクロホンMC2,MC3は、ウェアラブルカメラ1の筐体の正面であって、ウェアラブルカメラ1の中心より下側に配置されている。また、マイクロホンMC2,MC3は、ウェアラブルカメラ1の筐体の正面の、左右対称の位置に配置されている。マイクロホンMC3,MC4は、警察官および警察官の対面相手が発する音声以外の音を集音する。マイクロホンMC2,MC3は、ノイズキャンセル用のマイクロホンでもある。
マイクロホンMC4は、ウェアラブルカメラ1の筐体の上面に配置されている。MC4は、警察官が発する音声を集音する。
なお、上記では、マイクロホンMC2,MC3は、ウェアラブルカメラ1の筐体の正面に配置されるとしたが、これに限られない。マイクロホンMC2,MC3の各々は、ウェアラブルカメラ1の筐体の左右側面に1つずつ配置されてもよい。
図10は、図9のウェアラブルカメラ1のブロック構成例を示した図である。図10において、図5と同じものには同じ符号が付してある。図10に示すウェアラブルカメラ1は、図5に示したウェアラブルカメラ1のブロック構成に対し、マイクロホンMC2~MC4を有している。一方、図10に示すウェアラブルカメラ1は、図3に示したレーザ制御部29およびレーザL1を備えていない。
オーディオコーデック28は、ウェアラブルカメラ1を装着した警察官の音声を強調する処理を行う。例えば、オーディオコーデック28は、マイクロホンMC4から出力される音声信号から、マイクロホンMC1~MC3から出力される音声信号を減算する。これにより、対面相手の音声と、周囲の音とを抑制した、警察官の音声信号が得られる。
オーディオコーデック28は、マイクロホンMC1の音声信号を符号化し、制御部19に出力する。オーディオコーデック28は、マイクロホンMC2,3の音声信号を符号化し、制御部19に出力する。オーディオコーデック28は、マイクロホンMC4の音声強調処理した音声信号を符号化し、制御部19に出力する。なお、制御部19は、マイクロホンMC1~MC4の音声データを区別して、映像データに含めてもよい。
ここで、警察官は、例えば、ウェアラブルカメラ1で撮影(録画)した映像を端末装置4で再生し、再生した映像に基づいて、事件に関するレポートを作成する場合がある。映像データには、例えば、事件(レポート)と関連しない映像部分も含まれている場合があり、事件と関連する映像が直ちに端末装置4で再生できれば、警察官のレポート作成が容易になる。
そこで、ウェアラブルカメラ1の制御部19は、事件に関連する映像部分が端末装置4で再生できるように、ウェアラブルカメラ1を装着した警察官の音声に基づいて、記憶部15に記憶した映像データに属性情報を付与する。例えば、ウェアラブルカメラ1の制御部19は、映像データに含まれる警察官が発した「事件」という音声から、「ストップ」という音声までの映像データにタグ情報を付与する。この場合、端末装置4は、映像データに付与されたタグ情報に基づいて、「事件」という音声から、「ストップ」という音声までの映像を再生することが可能となる。
これにより、端末装置4は、ウェアラブルカメラ1で録画された映像データを再生する際、映像データに含まれるタグ情報によって、映像データを所定の位置から再生することが可能となる。例えば、端末装置4は、警察官が「事故」と発した位置から、「ストップ」と発した位置まで映像データを再生できる。従って、警察官は、交通事故は発生した箇所またはその前後から、交通事故に関する映像を再生でき、交通事故に関するレポートの作成が容易となる。
なお、ウェアラブルカメラ1の制御部19は、記憶部15に記憶された映像データに含まれる警察官の音声(マイクロホンMC4によって集音された音声)から、予め用意されたキーワードを抽出する。予め用意されたキーワードには、例えば、「事故」、「強盗」、および「ストップ」等の事件またはウェアラブルカメラ1の操作に関するワードが含まれる。ウェアラブルカメラ1の制御部19は、記憶部15に記憶された映像データに含まれる警察官の音声から、予め用意されたキーワードを抽出し、抽出したキーワードに基づいて、映像データにタグ情報を付与する。キーワードは、例えば、EEPROM16に記憶されてもよい。キーワードは、撮影状況に関するワードと捉えてもよい。
図11は、ウェアラブルカメラ1の動作例を示したフローチャートである。ウェアラブルカメラ1の制御部19は、映像データの録画中にスイッチSW1が押下され、映像データの録画を終了すると、図11に示すフローチャートの処理を実行する。
ウェアラブルカメラ1の制御部19は、マイクロホンMC4の音声によるタグ付け機能がオンされているか否かを判定する(ステップS11)。例えば、ウェアラブルカメラ1は、マイクロホンMC4の音声によるタグ付け機能をオン/オフするスイッチ(図示せず)を備えている。ウェアラブルカメラ1の制御部19は、マイクロホンMC4の音声によるタグ付け機能のスイッチのオン/オフ状態に基づいて、タグ付け機能がオンされているか否かを判定する。
ウェアラブルカメラ1の制御部19は、マイクロホンMC4の音声によるタグ付け機能がオフされている場合(S11の「No」)、処理を終了する。
一方、ウェアラブルカメラ1の制御部19は、マイクロホンMC4の音声によるタグ付け機能がオンされている場合(S11の「Yes」)、録画された映像データに「事故」という音声が含まれているか否かを判定する(ステップS12)。
ウェアラブルカメラ1の制御部19は、録画された映像データに「事故」という音声が含まれている場合(S12の「Yes」)、録画された映像データに「ストップ」という音声が含まれているか否かを判定する(ステップS13)。
ウェアラブルカメラ1の制御部19は、録画された映像データに「ストップ」という音声が含まれていると判定した場合(S13の「Yes」)、録画された映像データの「事故」から「ストップ」までの映像に対し、「事故」というタグ情報を付与する(ステップS14)。すなわち、ウェアラブルカメラ1の制御部19は、録画された映像データの「事故」から「ストップ」までの映像を、「事故」に関する映像としてタグ情報を付与する。
一方、ウェアラブルカメラ1の制御部19は、録画された映像データに「ストップ」という音声が含まれていないと判定した場合(S13の「No」)、録画された映像データの「事故」の音声箇所から所定時間分の映像を切り出し、切り出した映像に対し、「事故」というタグ情報を付与する(ステップS15)。すなわち、ウェアラブルカメラ1の制御部19は、録画された映像データに「ストップ」という音声が含まれていない場合、録画された映像データの「事故」の音声箇所から所定時間分切り出した映像を、「事故」に関する映像としてタグ情報を付与する。例えば、ウェアラブルカメラ1の制御部19は、録画された映像データに含まれる「事故」の音声箇所から、10分間の映像データを切り出し、「事故」というタグ情報を付与する。
ウェアラブルカメラ1の制御部19は、ステップS12において、録画された映像データに「事故」という音声が含まれていないと判定した場合(S12の「No」)、録画された映像データに「強盗」という音声が含まれているか否かを判定する(ステップS16)。
ウェアラブルカメラ1の制御部19は、録画された映像データに「強盗」という音声が含まれている場合(S16の「Yes」)、録画された映像データに「ストップ」という音声が含まれているか否かを判定する(ステップS17)。
ウェアラブルカメラ1の制御部19は、録画された映像データに「ストップ」という音声が含まれていると判定した場合(S17の「Yes」)、録画された映像データの「強盗」から「ストップ」までの映像に対し、「強盗」というタグ情報を付与する(ステップS18)。すなわち、ウェアラブルカメラ1の制御部19は、録画された映像データの「強盗」から「ストップ」までの映像を、「強盗」に関する映像としてタグ情報を付与する。
一方、ウェアラブルカメラ1の制御部19は、録画された映像データに「ストップ」という音声が含まれていないと判定した場合(S17の「No」)、録画された映像データの「強盗」の音声箇所から所定時間分の映像を切り出し、切り出した映像に対し、「強盗」というタグ情報を付与する(ステップS19)。すなわち、ウェアラブルカメラ1の制御部19は、録画された映像データに「ストップ」という音声が含まれていない場合、録画された映像データの「強盗」の音声箇所から所定時間分切り出した映像を、「強盗」に関する映像としてタグ情報を付与する。例えば、ウェアラブルカメラ1の制御部19は、録画された映像データに含まれる「強盗」の音声箇所から、10分間の映像データを切り出し、「強盗」というタグ情報を付与する。
ウェアラブルカメラ1の制御部19は、ステップS16において、録画された映像データに「強盗」という音声が含まれていないと判定した場合(S16の「No」)、ステップS12,S16の処理と同様に、録画された映像データに、予め用意されたキーワードが含まれているか否かを判定する。ウェアラブルカメラ1の制御部19は、録画された映像データが終了するまで、キーワードの抽出処理およびタグ情報の付与処理を実行する(ステップS20)。
なお、ウェアラブルカメラ1の制御部19は、図11のフローチャートの処理を終了すると、タグ情報を付与した映像データを車載システム2に送信する。
また、ステップS15,S19では、映像データに「ストップ」という音声が含まれていない場合、映像データを所定時間分切り出したが、これに限られない。ウェアラブルカメラ1の制御部19は、映像データに「ストップ」という音声が含まれていない場合、録画された映像データにタグ情報を付与しなくてもよい。
また、ウェアラブルカメラ1の制御部19は、タグ情報を、映像データの時間と関連付けて、映像データに付与してもよい。例えば、ウェアラブルカメラ1の制御部19は、録画された映像中において、警察官が「事故」と発していた場合、警察官が「事故」と発した映像データ中の時間と、「事故」というタグ情報とを関連付けてもよい。この場合、例えば、警察官が、端末装置4を用いて、「事故」というタグ情報を検索した場合、端末装置4は、「事故」と発した映像中の時間から、映像データを再生できる。
また、キーワードには、様々なシチュエーションに応じたワードが含まれてもよい。すなわち、キーワードには、警察官の様々な音声(警察官が発したワード)の種類が含まれてもよい。ウェアラブルカメラ1の制御部19は、様々なシチュエーションに応じたタグ情報を、映像データに付与してもよい。例えば、キーワードには、「止まれ」等の容疑者を制止するワードが含まれてもよい。この場合、警察官は、端末装置4を用いてレポートを作成する際、容疑者に対し「止まれ」と発した箇所から映像を再生することができる。
以上説明したように、撮像部11と、撮像部11により撮像された映像データを記憶する記憶部15と、筐体の上面に設けられ、ウェアラブルカメラ1を装着した警察官の音声を集音するマイクロホンMC4と、映像データに含まれる、撮影状況に関するユーザの音声を抽出し、抽出した音声に基づく属性情報を映像データに付与する制御部19と、を有する。このように、警察官の音声を集音するマイクロホンMC4は、ウェアラブルカメラ1の筐体の上面に設けられるため、警察官の音声を集音しやすくなる。このため、ウェアラブルカメラ1は、例えば、警察官の対面に位置する話者の音声でなく、ウェアラブルカメラ1を装着した警察官の音声に基づいて、適切に映像データに属性情報を付与できる。
(変形例1)
図9および図10に示したウェアラブルカメラ1は、第1の実施の形態で説明したカメラレンズ11b、レーザ制御部29、およびレーザL1を備えてもよい。そして、図9および図10に示したウェアラブルカメラ1は、第1の実施の形態で説明した広角モードおよび狭角モードの撮影モードを備えてもよい。
(変形例2)
ウェアラブルカメラ1の制御部19は、ウェアラブルカメラ1が映像データの録画だけでなく、音声データのみを録音できる機能を有している場合、音声データにもタグ情報を付与してもよい。
上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本開示は、例えば、警察官に装着され、撮影を行うウェアラブルカメラに有用である。
1 ウェアラブルカメラ
2 車載システム
3 サーバ
4 端末装置
11 撮像部
11a,11b カメラレンズ
12 GPIO
13 RAM
14 ROM
15 記憶部
16 EEPROM
17 RTC
18 GPS
19 制御部
21 通信部
22 USB
23 コンタクトターミナル
24 電源部
25 バッテリ
26a,26b,26c LED
27 バイブレータ
28 オーディオコーデック
29 レーザ制御部
SW1~SW3 スイッチ
MC1~MC4 マイクロホン
L1 レーザ
A1 警察車両
A2 警察署

Claims (2)

  1. 第1の画角と、前記第1の画角より狭い画角の第2の画角とに切替え可能な撮像部と、
    前記第1の画角の撮影中に所定の操作を受付けると、前記第2の画角に切替え、前記第2の画角において撮影される対象物の認証処理を実行する制御部と、を有し、
    前記制御部は、画角を前記第2の画角に切り替えた後、前記第2の画角の範囲を示すレーザ光を、筐体の正面に配置されたレーザから出力する
    ウェアラブルカメラ。
  2. 前記制御部は、前記認証処理において、前記対象物が予め登録された対象物と一致すると判定した場合、画角を前記第1の画角に切り替える、
    請求項1に記載のウェアラブルカメラ。
JP2019029282A 2019-02-21 2019-02-21 ウェアラブルカメラ Active JP7164465B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019029282A JP7164465B2 (ja) 2019-02-21 2019-02-21 ウェアラブルカメラ
US16/789,932 US11127435B2 (en) 2019-02-21 2020-02-13 Wearable camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029282A JP7164465B2 (ja) 2019-02-21 2019-02-21 ウェアラブルカメラ

Publications (2)

Publication Number Publication Date
JP2020136953A JP2020136953A (ja) 2020-08-31
JP7164465B2 true JP7164465B2 (ja) 2022-11-01

Family

ID=72143027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029282A Active JP7164465B2 (ja) 2019-02-21 2019-02-21 ウェアラブルカメラ

Country Status (2)

Country Link
US (1) US11127435B2 (ja)
JP (1) JP7164465B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204674A (ja) 2016-05-09 2017-11-16 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05158126A (ja) * 1991-09-11 1993-06-25 Olympus Optical Co Ltd カメラ
JPH05158196A (ja) * 1991-12-09 1993-06-25 Fuji Photo Film Co Ltd 多層ハロゲン化銀カラー写真感光材料
CN102884786B (zh) * 2010-05-07 2016-08-17 汤姆森特许公司 数字内容中最佳回放定位的方法和设备
US20120275614A1 (en) * 2011-04-28 2012-11-01 Sony Corporation Noise cancellation unit
US20170127746A1 (en) * 2013-01-04 2017-05-11 Bell Sports, Inc. Helmet with mounted camera
EP3039505A4 (en) * 2014-11-12 2017-06-28 Intel Corporation Wearable electronic devices and components thereof
US9661283B2 (en) * 2014-12-24 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Wearable camera
US9734870B2 (en) * 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
CA2913568C (en) * 2015-01-29 2024-01-02 Panasonic Intellectual Property Management Co., Ltd. Wearable camera system, and video recording control method for wearable camera system
JP2016181767A (ja) 2015-03-23 2016-10-13 パナソニックIpマネジメント株式会社 ウェアラブルカメラ及びウェアラブルカメラシステム
US9848120B2 (en) * 2015-05-08 2017-12-19 Fast Model Technology Llc System and method for preserving video clips from a handheld device
US9666233B2 (en) * 2015-06-01 2017-05-30 Gopro, Inc. Efficient video frame rendering in compliance with cross-origin resource restrictions
US9787887B2 (en) * 2015-07-16 2017-10-10 Gopro, Inc. Camera peripheral device for supplemental audio capture and remote control of camera
US10122904B2 (en) * 2016-07-11 2018-11-06 Gopro, Inc. Drain mechanism for camera controller
CN107995482B (zh) * 2016-10-26 2021-05-14 腾讯科技(深圳)有限公司 视频文件的处理方法和装置
CN106874057B (zh) * 2017-04-11 2018-06-29 惠州学院 一种信息录入方法及其设备
US20190043500A1 (en) * 2017-08-03 2019-02-07 Nowsportz Llc Voice based realtime event logging
US10921605B2 (en) * 2018-08-03 2021-02-16 Google Llc Systems, devices, and methods for notification management

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204674A (ja) 2016-05-09 2017-11-16 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法

Also Published As

Publication number Publication date
US20200273497A1 (en) 2020-08-27
JP2020136953A (ja) 2020-08-31
US11127435B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
US20200382749A1 (en) Dual lens camera unit
JP6011833B1 (ja) ウェアラブルカメラシステム及び人物報知方法
JPWO2018043225A1 (ja) 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
JP2014090386A (ja) 情報処理システム、情報処理装置、およびプログラム
JP2008523650A (ja) 生体情報読取機付無線画像撮影装置
CN101300839B (zh) 控制视线移动的方法和装置、视频会议系统、终端
CN104090383A (zh) 智能巡航眼镜及其控制系统
CN111326156A (zh) 一种智能头盔控制方法、装置
US9083860B2 (en) Method of and apparatus for automatically controlling operation of a user-mounted recording device based on user motion and event context
US20180229669A1 (en) Vehicle-mounted 360 degree field of view surveillance systems
JP6115874B2 (ja) ウェアラブルカメラシステム及び録画制御方法
JP5861073B1 (ja) ウェアラブルカメラ
JP7164465B2 (ja) ウェアラブルカメラ
US11284661B2 (en) Multi-featured miniature camera
CN108476273B (zh) 信息处理装置及其图像数据控制方法
US10855913B1 (en) Wearable camera, video playback system, and video playback method
CN111696578B (zh) 一种提醒方法、装置、耳机和耳机收纳装置
CN110166732A (zh) 一种执法记录仪
US20200296321A1 (en) Wearable camera and video data generating method
JP2001333171A (ja) カメラ付携帯電話
CN111527446B (zh) 摄像设备及其控制方法和记录介质
CN114257723A (zh) 摄像设备及其控制方法以及存储介质
JP2021027408A (ja) ウェアラブルカメラシステムおよび映像記録方法
JP7327792B2 (ja) 画像合成システムおよび画像合成方法
WO2019069380A1 (ja) カメラシステム、及びそれに用いるカメラ装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221020

R150 Certificate of patent or registration of utility model

Ref document number: 7164465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350