JP2017515368A - キャプチャモード付きビデオカメラ - Google Patents

キャプチャモード付きビデオカメラ Download PDF

Info

Publication number
JP2017515368A
JP2017515368A JP2016560667A JP2016560667A JP2017515368A JP 2017515368 A JP2017515368 A JP 2017515368A JP 2016560667 A JP2016560667 A JP 2016560667A JP 2016560667 A JP2016560667 A JP 2016560667A JP 2017515368 A JP2017515368 A JP 2017515368A
Authority
JP
Japan
Prior art keywords
image data
acquired
video camera
target event
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016560667A
Other languages
English (en)
Other versions
JP2017515368A5 (ja
JP6438046B2 (ja
Inventor
ランド、ピーター、ジャレッド
ジャナード、ジェイムス、エイチ.
Original Assignee
レッド.コム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レッド.コム,インコーポレイテッド filed Critical レッド.コム,インコーポレイテッド
Publication of JP2017515368A publication Critical patent/JP2017515368A/ja
Publication of JP2017515368A5 publication Critical patent/JP2017515368A5/ja
Application granted granted Critical
Publication of JP6438046B2 publication Critical patent/JP6438046B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Abstract

実施形態は、対象イベントを識別するカメラ制御のユーザ動作に応答して、記録ビデオのタグ付け、及び/又はビデオセグメントまたは画像シーケンスをキャプチャできるように構成されるビデオカメラを提供する。例えば、ユーザは、対象イベントが発生した時にボタンを押し、それに応じて、カメラは、そのイベントに対応するタイムスタンプで、キャプチャされたビデオファイルにタグ付けを行うことができるようにしてもよい。別の実施形態では、ユーザは、ボタンを押すことによって、対象イベントの発生時にビデオセグメントまたは画像シーケンスのキャプチャを開始することができるようにしてもよい。カメラは、ユーザがイベントのキャプチャを開始する前に発生したビデオセグメント及び/又は画像シーケンスをキャプチャできる画像データバッファを含むことができるようにしてもよい。ユーザインターフェースは、ユーザが対象イベントのキャプチャされたビデオもしくは画像シーケンスを迅速に検討することができるようにしてもよい。【選択図】図3A

Description

関連出願の相互参照
本願は、「VIDEO CAMERA WITH CAPTURE MODES」と題する、2014年4月4日出願の米国仮特許出願第61/975639号の利益を主張するものである。上記項目各々の開示内容全体を本明細書内に完全に記載しているかのごとく本願明細書の一部と見なし、含まれる全ての内容に対して、あらゆる目的のために、参照により本願明細書に引用したものとする。
本発明は、静止画像または動画像をキャプチャするためのデジタルカメラのようなデジタルカメラに関し、特に、ユーザ入力に応答して画像データをキャプチャするデジタルカメラに関する。
本明細書に記載されているシステム、方法、および装置は、それぞれ複数の態様を有し、望ましい属性にのみ関与しているものは1つもない。本開示の範囲を限定せずに、複数の非限定的な特徴について簡単に説明する。
一実施形態では、カメラは、ユーザが対象イベントに対応する記録ビデオのタグ付けを開始できるようにする。例えば、ユーザは、イベントが発生した時に、ボタンを押す、またはカメラのタッチスクリーンと対話してよい。それに応じて、カメラは、イベントの前、イベント時、およびイベントの後にキャプチャされた一定数の画像フレームを後で見ることができるように識別するために、例えば、イベントに対応するタイムスタンプで、(例えば、メタデータタグ付けなどによって)ビデオファイルにタグ付けを行う。
いくつかの実施形態では、カメラは、例えば、カメラがプレビューモードである場合に、対象イベントを識別するカメラ制御のユーザ動作に応答して、ビデオセグメントまたは画像シーケンスをキャプチャできるようにする、または制御動作に応答する場合以外は、カメラは、普通なら連続的にビデオを記録しない。例えば、ユーザは、ボタンを押す、またはタッチスクリーンと対話することによって、カメラにイベントの時間の近くおよび/またはイベントの時間を含むビデオセグメントまたは画像シーケンスの記録を開始する。例えば、カメラは、プレビューモードでは、キャプチャ画像を画像データバッファに書き込んで、そこで画像はキャプチャ後に(例えば、見るためにモニタに表示された後またはカメラから出力した後に)比較的迅速に破棄される。制御動作は、カメラに、永続的に記録して後で見るために、バッファから画像を出力させる。バッファリングすることにより、ユーザがイベントのキャプチャを開始する前および開始した後に撮られた画像を記録することができる。種々の実施形態では、ユーザインターフェースにより、ユーザが対象イベントに対応するキャプチャされたビデオもしくは画像シーケンスを迅速に検討することができるようにしてもよい。
一実施形態によれば、画像データを記録する方法であって、ビデオカメラの1つまたは複数の画像センサによって画像データを連続的に取得するステップと、取得された画像データを画像データバッファに一時的に記憶するステップと、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1のユーザ入力の前に取得された画像データバッファ内の取得画像データおよび第1のユーザ入力の後に連続的に取得された画像データの一部を画像データファイルに記録するステップと、画像データが連続的に取得される時に第2の対象イベントを識別する第2のユーザ入力の受信に応答して、第2のユーザ入力の前に取得された画像データバッファ内の取得画像データおよび第2のユーザ入力の後に連続的に取得された画像データの一部を画像データファイルに追加するステップとを含む方法が開示される。
一態様によれば、画像データバッファは、特定の期間または特定のフレーム数に対応する画像データを記憶するように構成される。
別の態様によれば、画像データは、ビデオデータまたは画像データのシーケンスのうちの少なくとも一方を含む。
さらに別の態様によれば、画像データファイルは、画像シーケンスの視覚的提示のために使用可能である。
別の態様によれば、画像データファイルは、ビデオカメラに記録される。
さらに別の態様によれば、第1のユーザ入力は、ボタン、タッチセンシティブディスプレイ、または音声入力装置のうちの少なくとも1つによって受信される。
別の態様によれば、画像データバッファ内の取得画像データの一部は、画像データファイルに記録される。
さらに別の態様によれば、画像データは、少なくとも1080pの解像度で取得される。
別の態様によれば、画像データは、2k〜10kの水平解像度で取得される。
さらに別の態様によれば、画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される。
別の態様によれば、画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される。
さらに別の態様によれば、上記方法は、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1の対象イベントの表示を生成するステップと、その表示を画像データファイルに記録するステップとをさらに含む。
別の態様によれば、第1の対象イベントの表示は、第1のユーザ入力が受信された時点を示すタイプスタンプを含む。
さらに別の態様によれば、第1の対象イベントの表示は、第1の対象イベントの表示と第1のユーザ入力の前に取得された画像データおよび第1のユーザ入力の後に連続的に取得された画像データの一部との関連性を示すメタデータを含む。
別の実施形態によれば、画像データを記憶する方法であって、ビデオカメラの1つまたは複数の画像センサによって画像データを連続的に取得するステップと、画像データが連続的に取得される時に対象イベントを識別するユーザ入力の受信に応答して、識別された対象イベントそれぞれに関連付けられた画像のシーケンスを含む画像データファイルを生成するステップと、識別された対象イベントそれぞれに関連付けられた画像の視覚的提示のためにビデオカメラによって使用可能な画像データファイルを記憶するステップとを含む方法が開示される。
一態様によれば、画像データファイルは、識別された対象イベントのタイムラインと組み合わせた画像サムネイルの視覚的提示のためにビデオカメラによって使用可能である。
別の態様によれば、画像データファイルは、識別された対象イベントそれぞれに関連付けられた画像の視覚的提示のために別のコンピューティングデバイスによって使用可能である。
さらに別の態様によれば、ユーザ入力は、ボタン、タッチセンシティブディスプレイ、または音声入力装置のうちの少なくとも1つによって受信される。
さらに別の実施形態によれば、ビデオカメラは、連続的に画像データを取得するように構成された1つまたは複数の画像センサと、連続的に取得された画像データの連続的に更新された部分を一時的に記憶するように構成された画像データバッファと、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1のユーザ入力の前に取得された画像データバッファ内の取得画像データおよび第1のユーザ入力の後に連続的に取得された画像データの一部を既存の画像データファイルに追加するように構成された画像プロセッサとを備える。
一態様によれば、ボタンは、対象イベントの発生を識別するために、画像データの取得時にビデオカメラのユーザが対話するために接触しやすいように位置決めされる。
別の態様によれば、画像データバッファは、特定の時間または特定のフレーム数に対応する画像データを記憶するように構成される。
さらに別の態様によれば、画像データは、ビデオデータまたは画像データのシーケンスの少なくとも一方を含む。
別の態様によれば、画像データファイルは、画像シーケンスの視覚的提示のために使用可能である。
さらに別の態様によれば、画像データは、ビデオカメラに記録される。
別の態様によれば、第1のユーザ入力は、ボタン、タッチセンシティブディスプレイ、または音声入力装置のうちの少なくとも1つによって受信される。
さらに別の態様によれば、画像データは、少なくとも1080pの解像度で取得される。
別の態様によれば、画像データは、2k〜10kの水平解像度で取得される。
さらに別の態様によれば、画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される。
別の態様によれば、画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される。
さらに別の態様によれば、画像プロセッサはさらに、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1の対象イベントの表示を生成し、該表示を画像データファイルに追加するように構成される。
別の態様によれば、第1の対象イベントの表示は、第1のユーザ入力が受信された時点を示すタイムスタンプを含む。
さらに別の態様によれば、第1の対象イベントの表示は、第1の対象イベントの表示と第1のユーザ入力の前に取得された画像データおよび第1のユーザ入力の後に連続的に取得された画像データの一部との関連性を示すメタデータを含む。
別の実施形態によれば、ユーザインターフェースを作成する方法であって、コンピュータ実行可能命令を有するように構成された1つまたは複数のプロセッサによって、各々がユーザによって識別された対象イベントに関連付けられた複数の画像シーケンスを含む画像データファイルにアクセスするステップと、1つまたは複数のプロセッサによって、個々の画像シーケンスに関連付けられた開始点および終了点の表示を含むタイムラインと、1つまたは複数の対象イベントに関連付けられ、個々の対象イベントに関連付けられた画像シーケンスから選択された1つまたは複数の画像サムネイルとを含むユーザインターフェースを作成するステップとを含む方法が開示される。
一態様によれば、該方法はさらに、データファイルが記憶された、または画像データファイルをキャプチャしているカメラ上に、作成されたユーザインターフェースを表示するステップを含む。
別の態様によれば、タイムラインに沿って位置インジケータを移動させることによって、ユーザインターフェースを更新して、位置インジケータで示されている対象イベントに関連付けられた画像サムネイルを表示させるステップを含む。
さらに別の態様によれば、画像のタイムラインは、ユーザが個々の対象イベントを識別した時点の表示を含む。
さらに別の実施形態によれば、コンピュータシステムは、1つまたは複数のコンピュータプロセッサと、各々がユーザによって識別された対象イベントに関連付けられた複数のイベントインジケータを含む画像データファイルを記憶するように構成されたコンピュータ可読記憶媒体と、コンピューティングシステムに、複数のイベントインジケータを含む画像データファイルにアクセスさせ、それぞれが対象イベントの1つを表し、それぞれが個々の関連イベントインジケータに対応する位置で画像データファイルから抽出された1つまたは複数の画像サムネイルを含むユーザインターフェースを作成させ、コンピュータシステムのディスプレイ上にユーザインターフェースを表示させるために1つまたは複数のコンピュータプロセッサによって実行されるように構成されたプログラム命令とを備える。
別の実施形態によれば、ユーザインターフェースを作成する方法は、コンピュータ実行可能命令を有するように構成された1つまたは複数のプロセッサによって、各々がユーザによって識別された対象イベントに関連付けられた複数のイベントインジケータを含む画像データファイルにアクセスするステップと、1つまたは複数のプロセッサによって、それぞれが対象イベントの1つを表し、それぞれが個々の関連イベントインジケータに対応する位置で画像データファイルから抽出された1つまたは複数の画像サムネイルを含むユーザインターフェースを作成するステップとを含む。
一態様によれば、ユーザインターフェースはさらに、複数のイベントインジケータそれぞれの表示を含むタイムラインを含む。
さらに別の態様によれば、該方法はさらに、データファイルが記憶されている、または画像データファイルをキャプチャしたカメラ上に、ユーザインターフェースを表示するステップを含む。
別の態様によれば、該方法さらに、対象イベントが、データファイルをリアルタイムで記憶するカメラのユーザによって対象イベントが識別されるステップを含む。
さらに別の態様によれば、該方法はさらに、対象イベントが、カメラに関連付けられたイベントセレクタの選択によってリアルタイムで識別されるステップを含む。
別の態様によれば、ユーザインターフェースはさらに、対象イベントを表す2枚以上の画像サムネイルを含み、2枚以上のサムネイルのうちの少なくとも1枚は、対象イベントの直前または対象イベントの直後にキャプチャされた画像を表示する。
さらに別の態様によれば、ユーザインターフェースはさらに、ビデオカメラの1つまたは複数のセンサによって、画像データを取得するステップと、対象イベントの発生時にユーザによって選択できるように構成されたイベントセレクタを使用して、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力を受信するステップと、画像データを画像データファイルに記憶するステップと、第1の対象イベントを表し、画像データファイル内の第1のユーザ入力が受信された時点に関連付けられたイベントインジケータを画像データファイルに追加するステップとを含む。
別の態様によれば、イベントインジケータそれぞれは、タイムスタンプに関連付けられる。
さらに別の態様によれば、画像データファイルは、少なくとも1080pの解像度の画像データを含む。
別の態様によれば、画像データファイルは、2k〜10kの水平解像度の画像データを含む。
さらに別の態様によれば、画像データファイルは、1秒当たり少なくとも12フレームのフレームレートの画像データを含む。
別の態様によれば、画像データファイルは、1秒当たり12フレーム〜250フレームのフレームレートの画像データを含む。
さらに別の実施形態によれば、ビデオカメラは、画像データを取得するように構成された1つまたは複数の画像センサと、画像データが取得される際に対象イベントの発生時にユーザによって選択できるように構成されたイベントセレクタと、1つまたは複数の画像センサおよびイベントセレクタと通信する画像プロセッサであって、イベントセレクタを使用して、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力を受信するのに応答して、既存の画像データファイルに第1の対象イベントの表示を追加するように構成された画像プロセッサとを備える。
一態様によれば、既存の画像データファイルは、連続的に取得された画像データを含む。
別の態様によれば、表示は、第1のユーザ入力が受信された時点を示すタイムスタンプを含む。
さらに別の態様によれば、表示は、既存の画像データファイルの先頭に追加される。
別の態様によれば、表示は、既存の画像データファイルの最後に追加される。
さらに別の態様によれば、表示は、既存の画像データファイルの中間部分に追加される。
別の態様によれば、表示は、表示と既存の画像データファイルとの関連性を示すメタデータを含む。
さらに別の態様によれば、イベントセレクタは、ビデオカメラの外表面に取り付けられたボタンを備える。
別の態様によれば、ビデオカメラはさらに、タッチセンシティブディスプレイを備え、イベントセレクタは、タッチセンシティブディスプレイ上に表示される選択可能な要素を備える。
さらに別の態様によれば、画像プロセッサはさらに、第1のユーザ入力の受信に応答して、画像データから、第1の対象イベントの一連の2枚以上の静止画像をキャプチャするように構成される。
別の態様によれば、2枚以上の静止画像は、第1のユーザ入力が受信された時点に対応する画像データ内の時点で画像データからキャプチャされる。
さらに別の態様によれば、画像データは、少なくとも1080pの解像度で取得される。
別の態様によれば、画像データは、2k〜10kの水平解像度で取得される。
さらに別の態様によれば、画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される。
別の態様によれば、画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される。
さらに別の実施形態によれば、可搬筐体と、所定のフレームレートの動画像データを取得するように構成された筐体内の1つまたは複数の画像センサと、取得された動画像データをビデオデータファイルに記憶するように構成された記憶装置と、対象イベントの発生を識別するために動画像データの取得時にビデオカメラのユーザが対話するために接触しやすいように位置決めされたボタンと、電子ディスプレイと、1つまたは複数のプロセッサであって、動画像データが連続的に取得される時に第1の対象イベントを識別する動画像データを取得する際のボタンによるユーザ対話の表示を受信するために機械可読命令を実行し、ボタンによるユーザ対話の表示の受信に応答して、ビデオデータファイルに第1の対象イベントの表示を追加し、画像データファイルを処理し、少なくとも画像データの処理に基づいて、ビデオデータファイルの少なくとも一部を表すタイムラインと第1の対象イベントに対応する画像データに対応するタイムラインの一部を識別するマーカーとを含むユーザインターフェースを電子ディスプレイ上に表示するために作成するように構成された1つまたは複数のプロセッサと備えるビデオカメラが開示される。
一態様によれば、第1の対象イベントの表示は、ボタンによるユーザ対話の表示が受信された時点を示すタイムスタンプを含む。
別の態様によれば、第1の対象イベントの表示は、ビデオデータファイルの先頭、ビデオデータファイルの最後、もしくはビデオデータファイルの中間部分のうちの少なくとも1つに追加される。
さらに別の態様によれば、第1の対象イベントの表示は、第1の対象イベントの表示とビデオデータファイルとの関連性を示すメタデータを含む。
別の態様によれば、ボタンは、ビデオカメラの外表面に取り付けられる。
さらに別の態様によれば、電子ディスプレイは、タッチセンシティブディスプレイを備え、ボタンは、ユーザインターフェースに含まれる選択可能な要素であって、対象イベントの発生を識別するために動画像データの取得時にビデオカメラのユーザが対話できるように構成された選択可能な要素を備える。
別の態様によれば、1つまたは複数のプロセッサは、さらに、ユーザインターフェースを使用して、マーカーの選択を示すユーザ対話の第2の表示を受信するのに応答して、第1の対象イベントに関連付けられたビデオデータファイルの一部を表示するようにユーザインターフェースを更新するために、機械可読命令を実行するように構成される。
さらに別の態様によれば、1つまたは複数のプロセッサは、さらにボタンによるユーザ対話の表示の受信に応答して、動画像データから第1の対象イベントの一連の2枚以上の静止画像をキャプチャするために、機械可読命令を実行するように構成される。
別の態様によれば、2枚以上の静止画像は、取得された動画像データから、ボタンによるユーザ対話の表示が受信された時点に対応する動画像データ内の時点でキャプチャされる。
さらに別の態様によれば、動画像データは、少なくとも1080pの解像度で取得される。
さらに別の態様によれば、動画像データは、2k〜10kの水平解像度で取得される。
さらに別の態様によれば、フレームレートは、1秒当たり少なくとも12フレームである。
別の態様によれば、フレームレートは、1秒当たり12フレーム〜250フレームである。
さらに別の態様によれば、ユーザインターフェースはさらに、第1の対象イベントを表す画像サムネイルであって、第1の対象イベントの表示に対応する位置でビデオデータファイルから抽出された画像サムネイルを含む。
別の態様によれば、ユーザインターフェースは、第1の対象イベントを表す2枚以上の画像サムネイルを含み、2枚以上のサムネイルのうちの少なくとも1枚は、第1の対象イベントの直前または直後にキャプチャされた画像を表示する。
別の実施形態によれば、可搬筐体と筐体内の1つまたは複数の画像センサと電子ディスプレイと記憶装置とを備えるビデオカメラの1つまたは複数の画像センサを使用して、所定のフレームレートで、動画像データを取得するステップと、ビデオカメラの記憶装置に、ビデオデータファイルとして取得動画像データを記憶するステップと、動画像データの取得時にビデオカメラのユーザが対話するために接触しやすいように位置決めされたビデオカメラのボタンを使用して、ビデオカメラの1つまたは複数の画像センサを使用して動画像データが連続的に取得される時に第1の対象イベントを識別するユーザ対話の表示を受信するステップと、ビデオデータファイルに第1の対象イベントの表示を追加するステップと、ビデオデータファイルを処理するステップと、少なくとも前記処理に基づいて、ビデオデータファイルの少なくとも一部を示すタイムラインおよび第1の対象イベントを表すタイムライン上のマーカーを少なくとも含むユーザインターフェースをビデオカメラの電子ディスプレイ上に表示するために作成するステップとを含む方法が開示される。
一態様によれば、第1のイベントの表示は、ボタンによるユーザ対話の表示が受信された時点を示すタイムスタンプを含む。
別の態様によれば、ボタンは、ビデオカメラの外表面に取り付けられる。
さらに別の態様によれば、電子ディスプレイは、タッチセンシティブディスプレイを備え、ボタンは、ユーザインターフェースに含まれる選択可能な要素であって、対象イベントの発生を識別するために動画像データの取得時にビデオカメラのユーザが対話できるように構成された選択可能な要素を備える。
別の態様によれば、上記方法は、ユーザインターフェースを使用して、マーカーの選択を示すユーザ対話の第2の表示を受信するのに応答して、第1の対象イベントに関連付けられたビデオデータファイルの一部を表示するようにユーザインターフェースを更新するステップを含む。
さらに別の態様によれば、該方法は、ボタンによるユーザ対話の表示の受信に応答して、動画像データから第1の対象イベントの一連の2枚以上の静止画像をキャプチャするステップを含む。
別の態様によれば、2枚以上の静止画像は、取得された動画像データから、ボタンによるユーザ対話の表示が受信された時点に対応する動画像データ内の時点でキャプチャされる。
さらに別の態様によれば、動画像データは、少なくとも1080pの解像度で取得される。
別の態様によれば、フレームレートは、1秒当たり12フレーム〜250フレームである。
さらに別の実施形態によれば、コンピューティングシステムであって、コンピュータプロセッサと、ビデオカメラの1つまたは複数の画像センサを使用して取得された画像データ、および対象イベントの表示であって、画像データが連続的に取得される時に対象イベントを識別するユーザからの入力に応答して画像データファイルに追加された対象イベントの表示を含む画像データファイルを記憶するように構成されたコンピュータ可読記憶媒体と、コンピューティングシステムに、画像データファイルを処理させて、画像データファイルの少なくとも一部を示すタイムライン、対象イベントの時点または対象イベント近くで取得された画像データに対応するタイムラインの一部を識別する第1のマーカー、対象イベントの前に取得された画像データに対応するタイムラインの一部を識別する第2のマーカー、および対象イベントの後に取得された画像データに対応するタイムラインの一部を識別する第3のマーカーを少なくとも含むユーザインターフェースを作成させるために、コンピュータプロセッサによって実行されるように構成されたプログラム命令とを備えるコンピュータシステムが開示される。
一態様によれば、第2のマーカーは、対象イベントの発生前の時点を示すようにタイムライン上に配置される。
別の態様によれば、第3のマーカーは、対象イベントの発生後の時点を示すようにタイムライン上に配置される。
さらに別の態様によれば、ユーザインターフェースはさらに、第1のマーカー、第2のマーカー、または第3のマーカーのうちの少なくとも1つに関連付けられた少なくとも1枚の画像サムネイルを含む。
別の態様によれば、プログラム命令は、コンピューティングシステムに、さらに、第1のマーカー、第2のマーカー、または第3のマーカーのうちの1つの選択を示すユーザ入力に応答して、選択された第1のマーカー、選択された第2のマーカー、または選択された第3のマーカーそれぞれに関連付けられた画像データをさらに含むようにユーザインターフェースを更新させるために、コンピュータプロセッサによって実行されるように構成される。
さらに別の態様によれば、プログラム命令は、コンピューティングシステムにさらに、再生ボタンの選択を示すユーザ入力に応答して、少なくとも第1の対象イベントに関連付けられた画像データを提示させるために、コンピュータプロセッサによって実行されるように構成される。
別の実施形態によれば、対象イベントに関連付けられた画像データを選択的に記録する方法であって、ビデオカメラの1つまたは複数の画像センサによって画像データを連続的に取得するステップと、取得された画像データを一時的に画像データバッファに記憶するステップと、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1のユーザ入力の前に取得された画像データバッファ内の取得画像データの少なくとも一部および第1のユーザ入力の時点または第1のユーザ入力の後に連続的に取得された画像データの少なくとも一部を画像データファイルに記録するステップと、画像データが連続的に取得される時に第2の対象イベントを識別する第2のユーザ入力の受信に応答して、第2のユーザ入力の前に取得された画像データバッファ内の取得画像データの少なくとも一部および第2のユーザ入力の時点または第2のユーザ入力の後に連続的に取得された画像データの少なくとも一部を画像データファイルに追加するステップと、ビデオカメラを使用して、バッファ内に一次的に記録されている画像データのうち画像データファイルに記録されていない残りの部分を記録せずに破棄するステップとを含む方法が開示される。
一態様によれば、該方法はさらに、一時的にバッファに記憶されている画像データをカメラの出力部に提供するステップを含み、出力部は、連続的に取得された画像データを監視するために電子ディスプレイに接続することができる。
別の態様によれば、該方法はさらに、前記記録するステップ、前記追加するステップ、そして前記破棄するステップの後に、連続記録モードのユーザ選択に応答して、ビデオカメラを使用して画像データバッファ内に取得されたデータを破棄せずに記録するステップを含む。
さらに別の態様によれば、画像データバッファは、特定の時間または特定のフレーム数に対応する画像データを記憶するように構成される。
別の態様によれば、画像データは、ビデオデータまたは画像データシーケンスの少なくとも一方を含む。
さらに別の態様によれば、画像データファイルは、画像シーケンスの視覚的提示のために使用可能である。
別の態様によれば、画像データファイルは、ビデオカメラに記録される。
さらに別の態様によれば、第1のユーザ入力は、ボタン、タッチセンシティブディスプレイ、または音声入力装置のうちの少なくとも1つによって受信される。
別の態様によれば、画像データは、少なくとも1080pの解像度で取得される。
さらに別の態様によれば、画像データは、2k〜10kの水平解像度で取得される。
別の態様によれば、画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される。
さらに別の態様によれば、画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される。
別の態様によれば、該方法はさらに、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1の対象イベントの表示を生成するステップと、その表示を画像データファイルに記録するステップとをさらに含む。
さらに別の態様によれば、第1の対象イベントの表示は、第1のユーザ入力が受信された時点を示すタイムスタンプを含む。
別の態様によれば、第1の対象イベントの表示は、第1の対象イベントの表示と第1のユーザ入力の前に取得された画像データおよび第1のユーザ入力の後に連続的に取得された画像データの一部との関連性を示すメタデータを含む。
さらに別の実施形態によれば、連続的に画像データを取得するように構成された1つまたは複数の画像センサと、連続的に取得された画像データを一時的に記憶するように構成された画像データバッファと、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1のユーザ入力の前に取得された画像データバッファ内の取得画像データの少なくとも一部および第1のユーザ入力の時点または第1のユーザ入力の後に連続的に取得された画像データの少なくとも一部を既存の画像データファイルに書き込むように構成された画像プロセッサとを備えるビデオカメラが開示される。
一態様によれば、画像プロセッサはさらに、ビデオカメラを使用して、画像データバッファ内に一時的に記憶されている取得画像データのうち既存の画像データファイルに書き込まれていない残りの部分を記録せずに破棄するように構成される。
別の態様によれば、画像プロセッサはさらに、画像データが連続的に取得される時に第2の対象イベントを識別する第2のユーザ入力の受信に応答して、第2のユーザ入力の前に取得された画像データバッファ内の取得画像データの少なくとも一部を既存の画像データファイルに追加するように構成され、この場合、第2のユーザ入力の前に取得された画像データバッファ内の取得画像データの一部は、既存のデータファイルの先頭、既存の画像データの最後、または既存のデータファイルの中間のうちの少なくとも1つに追加される。
さらに別の態様によれば、ビデオカメラはさらに、対象イベントの発生を識別するために画像データの取得時にビデオカメラのユーザが対話するために接触しやすいように位置決めされたボタンを備える。
別の態様によれば、画像データバッファは、特定の時間または特定のフレーム数に対応する画像データを記憶するように構成される。
さらに別の態様によれば、画像データは、ビデオデータまたは画像データシーケンスのうちの少なくとも一方を含む。
別の態様によれば、画像データファイルは、画像シーケンスの視覚的提示のために使用可能である。
さらに別の態様によれば、画像データファイルは、ビデオカメラに記録される。
別の態様によれば、第1のユーザ入力は、ボタン、タッチセンシティブディスプレイ、または音声入力装置のうちの少なくとも1つによって受信される。
さらに別の態様によれば、画像データは、少なくとも1080pの解像度で取得される。
別の態様によれば、画像データは、2k〜10kの水平解像度で取得される。
さらに別の態様によれば、画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される。
別の態様によれば、画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される。
さらに別の態様によれば、画像プロセッサはさらに、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1の対象イベントの表示を生成し、その表示を画像データファイルに追加するように構成される。
別の態様によれば、第1の対象イベント表示は、第1のユーザ入力が受信された時点を示すタイムスタンプを含む。
さらに別の態様によれば、第1の対象イベントの表示は、第1の対象イベントの表示と、第1のユーザ入力の前に取得された画像データおよび第1のユーザ入力の後に連続的に取得された画像データの一部との関連性を示すメタデータを含む。
別の実施形態によれば、画像データを選択的に記録する方法であって、ビデオカメラの1つまたは複数の画像センサによって連続的に画像データを取得するステップと、取得された画像データを画像データバッファに一時的に記憶するステップと、画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、第1の対象イベントに対応する画像データバッファ内の取得画像データの一部を既存の画像データファイルに記録するステップとを含む方法が開示される。
一態様によれば、該方法はさらに、ビデオカメラを使用して、バッファ内に一次的に記録された取得画像データのうち既存の画像データファイルに記録されていない残りの部分を記録せずに破棄するステップをさらに含む。
別の態様によれば、記録されている画像データバッファ内の取得画像データの少なくとも一部は、第1のユーザ入力を受信する前に取得された画像データを含む。
さらに別の態様によれば、記録されている画像データバッファ内の取得画像データの少なくとも一部は、第1のユーザ入力を受信する前に取得された画像データおよび第1のユーザ入力の受信時に取得された画像データを含む。
別の態様によれば、記録されている画像データバッファ内の取得画像データの少なくとも一部は、第1のユーザ入力を受信した後に取得された画像データを含む。
さらに別の態様によれば、記録されている画像データバッファ内の取得画像データの少なくとも一部は、第1のユーザ入力を受信する前に取得された画像データ、第1のユーザ入力の受信時に取得された画像データ、および第1のユーザ入力を受信した後に取得された画像データを含む。
種々の実施形態によれば、コンピュータシステムは、本明細書に開示されている方法および/またはプロセスのうちのいずれかを実行するためのソフトウェア命令を実行するように構成されてよい。
種々の実施形態によれば、コンピュータプログラムは、コンピュータ装置によって実行される時に本明細書に開示されている方法および/またはプロセスのうちのいずれかを実行するようにコンピュータ装置を制御する機械可読命令を含んでよい。
種々の実施形態によれば、装置は、本明細書に開示されている方法、プロセスおよび/またはシステムのうちのいずれかを実行するように構成されてよい。
種々の実施形態によれば、コンピュータ可読媒体は、コンピュータ装置によって実行される時に本明細書に開示されている方法および/またはプロセスのうちのいずれかを実行するようにコンピュータ装置を制御する機械可読命令を記憶してよい。
本開示の以下の態様は、以下の詳細な説明を添付図面と併せて参照することによってより十分に理解された時に、より簡単に理解されるであろう。
種々の実施形態に従って、ハードウェアを含むことができ、および/または画像データを処理する方法を実行するように構成されるシステムを示したブロック図である。
図1Aに概略的に示されているシステム用の筐体の例示的な実施形態を示した図である。
一実施形態に従って、ユーザがビデオ画像データにタグ付けする方法の一例を示したフローチャートである。
一実施形態に従って、ユーザが画像データのバーストの記録を開始する方法の一例を示したフローチャートである。
画像データを表示するユーザインターフェース例を示した図である。 画像データを表示するユーザインターフェース例を示した図である。
種々の実施形態に従って、画像データのシーケンスを表示するユーザインターフェース例を示した図である。 種々の実施形態に従って、画像データのシーケンスを表示するユーザインターフェース例を示した図である。
概要
本開示は、種々の実施形態において、ユーザ入力に応答して画像データ(例えば、ビデオ、画像、画像シーケンスなど)にタグ付けするシステムおよび方法を説明するものである。さらに、タグ付けされた画像を容易に検討することができる形でタグ付けされた画像データを提示するユーザインターフェースおよび関連方法を開示する。
カメラは、2つのユーザ選択可能なモード、つまり、(1)ユーザが連続記録ビデオの選択部分のタグ付けを開始してよい「ビデオタグ付けモード」と、(2)ユーザがビデオセグメントまたは画像のシーケンス(もしくは「バースト」)のキャプチャを開始するまで、カメラがビデオをメモリに記録しない「バーストモード」とを含む。
いくつかの実施形態では、「ビデオタグ付けモード」では、ユーザは対象イベントを識別すると同時にビデオを記録することができる。カメラは、適切なタグ付けメタデータを使用してファイルをマークすることができるので、カメラもしくは他の別個のデバイスは、後で記録ビデオファイルにアクセスして、ビデオのタグ付けされた部分を識別し、グラフィカルインターフェースを作成することができる。このグラフィカルインターフェースにより、ユーザがビデオを検討する時に、タグ付けされたイベントに対しておよび/またはタグ付けされたイベント間で迅速にナビゲートすることができる。種々の実施形態では、カメラが「ビデオタグ付けモード」で動作している時、ビデオは選択された品質レベル(例えば、選択された解像度、フレームレート、圧縮レベルなど)でキャプチャされてよい。
「バーストモード」では、ユーザはビデオセグメントもしくは他の画像シーケンスの選択的記録を開始するためのコントロールを作動させることができる。例えば、カメラは、プレビューモードにすることができ、カメラは、他のモードでは連続的にビデオを記録せず、コントロール作動に応答して記憶装置に記録するためにビデオを出力するのみである。プレビューモードでは、対象イベントの前および対象イベントの後の両方でキャプチャされたバッファリング済み画像フレームは、いくつかの実施形態では、制御のユーザ動作に応答して記録するために記憶装置に出力される。一実施形態では、複数の記録ビデオセグメント/画像シーケンスが単一ファイルとして記憶され、そのことにより、ユーザは、後で閲覧するために、共通の位置の選択イベントに対応する一連の「クリップ」をコンパイルすることができるようになる。ファイルは、ユーザが後で迅速に検討する、および/または記録画像間でナビゲートする(例えば、複数のイベントに対応するクリップ間で迅速に切り替える)ことができるようにフォーマットすることができる。いくつかの実施形態では、カメラが「バーストモード」で動作している時には、ビデオセグメント/画像シーケンスは、最高品質レベルもしくは他の比較的高い品質レベル(例えば、最高解像度、最大フレームレート、最低圧縮レベルなど)でキャプチャされる。このような品質レベルは、このような品質レベルでの連続的記録は、ハードウェアスループットおよび/または記憶容量の制約から、持続できなくなるほど高いレベルである可能性がある。しかし、バーストモードでは、カメラは、連続的記録のためにビデオを記憶装置に出力せず、ユーザがバースト記録を開始する時に記憶装置に画像を出力するのみであり、これは断続的に発生することになる。さらに、任意の所定のバースト(例えば、画像データバッファに記憶することができる最大数未満の画像)に対して、限定数の画像フレームが記憶装置に出力される。したがって、バーストモードでは、最高(または比較的高い)品質レベルでの記録が可能である。
一実施形態では、カメラは、ユーザ入力に応答して、持続可能な品質レベルで連続ビデオを一斉に記録すると同時に、異なる品質レベル(例えば、より高い品質レベル)で画像シーケンス(または「バースト」)を記録するように構成されてよい。この連続ビデオおよび画像シーケンスは、有利には、単一ファイル内に一緒に記憶されてよい。単一ファイルは、本明細書に記載されているように、記録されている対象イベントを迅速に検討するのに使用可能なファイルとしてよい。
システム/カメラの例
添付図面を参照しながら、本開示の実施形態について説明する。図面では、全体を通して、同じ参照番号は同じ要素を指すものとする。本明細書の説明に使用されている用語は、単に本開示の特定の実施形態の詳細な説明と共に使用されているという理由から、限定的または制限的な意味で解釈されることを意図するものではない。また、本開示の実施形態は、複数の新規な特徴を含んでよく、いずれの特徴も唯一望ましい属性に関与している、または本明細書に開示されている実施形態を実施するのに必須であるということはない。
図1Aを参照すると、画像データを検出、処理、および随意で転送、記憶、および/または再生するように構成されたシステム14を支持するように構成された本体または筐体12を含むカメラ10の一例が示されている。例えば、システム14は、光学機器16と、画像センサ18と、画像プロセッサ20と、圧縮モジュール22と、記憶装置24と、モードセレクタ32と、イベントセレクタ34と、画像バッファ36と、入出力モジュール38とを含むことができる。任意で、カメラ10はさらに、監視モジュール26と、再生モジュール28と、ディスプレイ30とを含んでよい。
図1Bは、カメラ10の非限定的な例示的実施形態を示している。図1Bに示されているように、カメラは、カメラ10に光学機器16(図示せず)を取り付けるためのレンズマウントを含む。いくつかの実施形態では、システム14は、筐体12内で支持される。例えば、画像センサ18、画像プロセッサ20、圧縮モジュール22、画像バッファ36、および入出力モジュール28は、筐体12内に収容されてよい。記憶装置24は、筐体12内に取り付けられてよい。さらに、いくつかの実施形態では、記憶装置24は、筐体12の外側に取り付けられて、入出力モジュール38を介して、任意のタイプの既知のコネクタもしくはケーブルを使用して、システム14の残りの部分に接続されてよい。さらに、記憶装置24は、可撓ケーブルによって筐体12に接続されて、記憶装置24が筐体12からある程度独立して移動できるようにしてよい。例えば、このような可撓ケーブル接続を使用して、記憶装置24をユーザのベルトに装着することができ、筐体12の総重量を低減することができる。さらに、いくつかの実施形態では、筐体は、内部に1つまたは複数の記憶装置24を含むことができ、また外側に取り付けることができる。さらに、筐体12はさらに、監視モジュール26と再生モジュール28とを支持することができる。さらに、いくつかの実施形態では、ディスプレイ30は、筐体12の外側に取り付けられるように構成されてよい。
光学機器16は、入来画像の焦点を画像センサ18に合わすように構成された少なくとも1つのレンズを有するレンズ系の形態にしてよい。光学機器16は、随意で、可変ズーム、可変絞り、可変焦点を提供するマルチレンズ系の形態にしてよい。さらに、光学機器16は、筐体12によって支持され、複数の異なるタイプのレンズ系を受容するように構成されたレンズソケットの形態にすることができ、例えば、光学機器16は、50〜100ミリメートル(F2.8)ズームレンズ、18〜50ミリメートル(F2.8)ズームレンズ、300ミリメートル(F2.8)レンズ、15ミリメートル(F2.8)レンズ、25ミリメートル(F1.9)レンズ、35ミリメートル(F1.9)レンズ、50ミリメートル(F1.9)レンズ、85ミリメートル(F1.9)レンズ、および/または任意の他のレンズを含むさまざまなサイズのレンズ系を受容するように構成されたソケットを含むが、これに限定されない。上述したように、光学機器16は、取り付けられるレンズに関係なく、画像の焦点を画像センサ18の感光面に合わせることができるように構成することができる。
画像センサ18は、例えば、CCDデバイス、CMOSデバイス、垂直積層CMOSデバイス(例えば、Foveon(登録商標)センサ)、もしくはセンサ間で光を分割するプリズムを使用するマルチセンサアレイを含む任意のタイプのビデオ検出装置とすることができる。いくつかの実施形態では、画像センサ18は、約1200万のフォトセルを有するCMOSデバイスを含むことができる。しかし、他のサイズのセンサを使用することも可能である。いくつかの形態では、カメラ10は、「2k」(例えば、2048×1152ピクセル)、「4k」(例えば、4096×2540ピクセル)、「4.5k」の水平解像度、「5k」の水平解像度(例えば、5120×2700ピクセル)、「6k」の水平解像度(例えば、6144×3160ピクセル)またはそれ以上の解像度でビデオ(例えば、圧縮された生ビデオ)を記録および/または出力するように構成することができる。いくつかの実施形態では、カメラは、上記解像度の少なくともいずれかの範囲の水平解像度を有する圧縮生画像データを記録するように構成することができる。さらに別の実施形態では、解像度は、上記値のうちの少なくとも1つ(または上記値の範囲の何らかの値)と約6.5k、7k、8k、9k、もしくは10kとの間の解像度、またはその範囲の何らかの値である。本明細書で使用される場合、xk(例えば、上記の2k、4k)の形で表される語では、「x」の数はおおよその水平解像度を指す。したがって、「4k」解像度は、約4000以上の水平方向のピクセルに相当し、「2k」は、約2000以上のピクセルに相当する。現在市販されている機器を使用することによって、センサを約0.5インチ(8mm)という小型にすることができるが、約1.0インチ以上とすることも可能である。さらに、画像センサ18は、センサ18の所定の部分のみを選択的に出力することによって、可変解像度を提供するように構成することができる。例えば、センサ18および/または画像プロセッサ20は、ユーザが画像データ出力の解像度を識別することができるように構成することができる。
いくつかの実施形態では、画像センサ18および/またはカメラ10の他のコンポーネントは、例えば、1秒当たり12フレーム、20フレーム、23.98フレーム、24フレーム、25フレーム、29.97フレーム、30フレーム、47.96フレーム、48フレーム、50フレーム、59.94フレーム、60フレーム、120フレーム、250フレーム、500フレーム、1000フレーム、2000フレーム、2500フレーム、5000フレーム、10000フレームのフレームレート、またはこれらのフレームレート以上の範囲の他のフレームレートで、連続画像データをキャプチャおよび/または処理するように構成されてよい。
カメラ10はさらに、センサ18の出力をダウンサンプリングし、その後に処理して、2k、1080p、720p、または任意の他の解像度でビデオ出力を生成するように構成することができる。例えば、センサ18からの画像データを「ウィンドウ表示」することができ、そのことにより出力画像のサイズを小さくして、より速い読み出し速度を可能にする。しかし、他のサイズのセンサを使用することも可能である。さらに、カメラ10は、センサ18の出力をアップサンプリングして、より高い解像度でビデオ出力を生成するように構成することができる。
種々の実施形態では、カメラ10のユーザは、いくつかの選択可能な品質レベルのうちのいずれかで画像データをキャプチャおよび/または記録するようにカメラを設定することができる。例えば、画像プロセッサ20および/または圧縮モジュール22は、上述したように、特定の解像度、フレームレート、および/または他の品質レベルで画像データをキャプチャおよび/または記録するように構成されてよい。さらに上述したように、種々の実施形態では、カメラ10は、「ビデオタグ付けモード」および/または「バーストモード」で動作してよい。種々の実施形態では、カメラが「ビデオタグ付けモード」で動作している時には、ビデオは、連続的記録に対して持続可能な品質レベルで記録するために記憶装置に出力されてよく、カメラが「バーストモード」で動作している時には、ビデオセグメント/画像シーケンスは、比較的高い品質レベルで記録するために記憶装置に出力されてよい。ユーザは、持続可能なおよび/または最高の品質レベルを設定してよい。一実施形態では、カメラは、「バーストモード」で使用される品質レベルで、非圧縮の生画像データを出力し、「ビデオタグ付けモード」時に使用される持続可能な品質レベルで、圧縮生画像データを記録する。別の実施形態では、カメラは、「バーストモード」で使用される品質レベルで、生画像データ(圧縮された生画像データまたは非圧縮の生画像データ)を出力し、「ビデオタグ付けモード」時に使用される持続可能な品質レベルで、生画像データでない画像データを記録する。
種々の実施形態では、画像データは、「VIDEO CAMERA」と題する米国特許第7830967号明細書(967特許)に記載されている技術のうちのいずれかに従って処理されてよい。この特許の内容を参照によって本願明細書に引用したものとする。例えば、画像プロセッサ20、圧縮モジュール22、および/または画像センサ18は、事前圧縮データ準備(例えば、プリエンファシスおよび/またはエントロピー低減)、圧縮データのフォーマットなどを実行してよい。場合によっては、画像プロセッサ20は、967特許(例えば、967特許の図8〜図11および段落11〜段落13)に図示および説明されているような緑色データ修正および/またはプリエンファシス処理などの1つまたは複数の技術に従って画像データを処理する。概して、本明細書に示されている特定の実施形態は、967特許に記載されている実施形態のコンポーネントと互換性がある、および/または967特許に記載されている実施形態のコンポーネントである。
種々の実施形態では、モードセレクタ32および/またはイベントセレクタ34は、筐体12の外側に取り付けられてよい。例えば、モードセレクタ32および/またはイベントセレクタ34は、ボタンおよび/またはスイッチを備えてよい。一実施形態では、モードセレクタ32および/またはイベントセレクタ34は、タッチセンシティブディスプレイ(例えば、ディスプレイ30)上に表示される選択要素を備えてよい。一実施形態では、モードセレクタ32および/またはイベントセレクタ34は、コマンドおよび/または別の音声指示によって作動されてよい。一実施形態では、モードセレクタ32は、カメラ10のユーザがカメラの動作モード(例えば、上述した「ビデオタグ付けモード」または「バーストモード」)を示すのに使用可能なものとしてよい。一実施形態では、イベントセレクタ34は、ユーザによって対象イベントの発生を示すのに使用可能なものとしてよい。したがって、イベントセレクタ34の選択により、カメラ10は、カメラ10の動作モードに応じて、キャプチャされたビデオのタグ付けおよび/またはビデオセグメントまたは画像シーケンスのキャプチャを実行することができる。いくつかの実施形態では、カメラ10は、ユーザ作動コントロール以外に、検出されたトリガ条件に応答して、ビデオファイルに自動的にタグ付けする、または画像のバーストをキャプチャするように構成される。例えば、カメラ10は、検出イベント、受信データなどに応答して、ビデオファイルの一部にタグ付けする、または画像のバーストをキャプチャするように構成されてよい。例えば、一実施形態では、画像プロセッサ20は、被写体の動きまたは特定の速度の被写体の動きのような特定のイベントを検出するように構成されてよい。このイベントの検出に応答して、カメラ10は、自動的にビデオファイルにタグ付けしてよく、または画像のバーストをキャプチャしてよい。いくつかの実施形態では、タグは、追加の関連データ(例えば、位置データ、カラーデータ、コントラストデータなど)に関連付けられてよい。例えば、タグは、カメラの位置を示すデータ、またはビデオファイルがタグ付けされた時のカラーデータもしくはコントラストデータ(もしくは他のカメラ設定データ)に関連付けられてよい。
種々の実施形態では、画像バッファ36は、キャプチャされた画像データを一時的に記憶するのに使用されてよい。例えば、画像プロセッサ20は、図示されているように、画像センサから受信された直近のキャプチャ画像を一時的に記憶する場所として画像バッファ36を使用して、その画像を記憶装置24、入出力モジュール38、監視モジュール26などに送信する前に、例えば、圧縮モジュール22によって、直接または間接的に処理しやすくすることができる。画像バッファ36は、例えば、揮発性および/または不揮発性の電子メモリ(例えば、RAM、SDRAM、ハードディスクドライブ、フラッシュディスク、フラッシュメモリ、ソリッドステートドライブ、もしくは何らかの他のタイプの記憶装置)を備えてよい。画像バッファ36は、例えば、100MB、250MB、500MB、1GB、またはそれ以上の任意のサイズとしてよい。比較的大きいサイズの画像バッファ36は、比較的小さいサイズの画像バッファ36に比べて、比較的多いフレーム数の画像データを一時的に記憶することができる。画像バッファ36は、先入れ先出し方式でデータを保持し、破棄してよい。したがって、カメラ10は、新規画像データをキャプチャすると、新規キャプチャ画像データを画像バッファ36に連続的に挿入すると同時に、それより古い画像データを画像バッファ36から削除してよい。この実施形態に基づいて、カメラ10はさらに、画像センサ18内の組み込みフレームバッファのような1つまたは複数の追加バッファを含むことができる。
画像プロセッサ20は、連続ビデオ記録モードで動作している時に、通常、処理時に一時的に記憶するために画像バッファ36を使用し、処理フレームを記憶装置24内に記録するために圧縮モジュール22に送信してよい(または、場合によっては、記憶装置24に直接送信してよい。この場合、圧縮は使用されない)。画像プロセッサ20はさらに、処理画像をプレビュー表示、またはリアルタイムで見るために、例えば、カメラのビューファインダ上に表示するための監視モジュール26、リアルタイムフィードを外部ディスプレイなどに出力するための入出力モジュール38などに送信してよい。カメラは、連続記録モードの時に、有利には、本明細書に示されているいずれかの方法で記録ビデオの特定の部分にタグ付けすることができる。いくつかの実施形態では、カメラ10はさらに、プレビューモードで動作することができ、この場合、画像プロセッサ20は、処理画像をプレビュー表示させる、またはリアルタイムで見るために処理画像を送信する。このモードは、「監視モード」、「プレビュー専用モード」、または「監視専用モード」とも呼ばれるが、これらに限定されない。カメラがプレビューモードで動作する時には、記録モードとは異なり、バッファリング済み画像データは、本明細書に示されているいずれかの方法でユーザによってバーストキャプチャがトリガされる場合を除いて、通常、記憶装置24に永続的に記憶することができない。また、さらに詳細に後述するように、いくつかの実施形態では、プレビュー表示させるために(または他のリアルタイムで見るために)送信された画像データは、(例えば、大幅な追加の処理をしなくても)リアルタイム表示できるように(例えば、デモザイク、色補正などによって)処理されるが、記録するために送信された画像データは、実質的に未処理もしくは生の画像データとしてよい(例えば、生のモザイク状画像データとしてよく、実施形態に応じて、圧縮されてもよいし圧縮されなくてもよい)。ここで使用されている「未処理」および「生」という用語は、色補正、デモザイクなどの特定の画像処理作業が施されていないデータを指すことができるが、プレエンファシス、緑色平均値減算、および/または圧縮のような967特許に記載されている特定の他の画像処理作業は施されてもよいし、施されなくてもよい。例えば、特定の実施形態の圧縮生画像データには、1つまたは複数のステップで行われる「焼き付け」効果が施されないので、処理後に調節することができない、または未完成の状態の見た目になる。
一実施形態では、入出力モジュール38は、(上述したように)画像データを外部記憶装置に転送させることができるように構成されてよい。または、入出力モジュール38は、ユーザが、見るために、記録するために、または処理するために、記録画像データもしくはカメラからのライブフィードを、例えば、外部コンピューティングデバイスに転送できるようにしてよい。入出力モジュール38は、標準準拠のビデオインターフェース、例えば、高精細度マルチメディアインターフェース(HDMI)、高精細度シリアルデジタルインターフェース(HD−SDI)もしくは何らかの他の標準もしくは非標準インターフェースを実装してよい。
種々の実施形態では、カメラ10はさらに、図示されていないが、1つまたは複数の他のハードウェアモジュールもしくはソフトウェアモジュールを含んでよい。例えば、カメラ10はさらに、本明細書に示されているユーザインターフェースを作成するために画像プロセッサ20(もしくはカメラ10の別のプロセッサ)によって実行可能なインターフェースソフトウェアモジュールを含んでよい。ユーザインターフェースは、ディスプレイ30上もしくは別のディスプレイ上に表示されてよい。したがって、一実施形態では、カメラのユーザは、ディスプレイ30を使用して、キャプチャされた画像データを検討することができる。一実施形態では、画像データは、(上述したように)カメラ10の外部にあるコンピューティングデバイスに転送されてよく、コンピューティングデバイスも同様に、本明細書に示されているユーザインターフェースを作成することができるソフトウェアモジュールを含んでよい。
種々の実施形態では、画像プロセッサ20(もしくはカメラ10の別のプロセッサ)は、例えば、イベントセレクタ34を使用して(上述したように)イベント選択を示すユーザ入力に応答して、画像データにタグを挿入するように構成されてよい。上述したように、タグは、画像データ内の対象イベントの発生を示す特定の点のマーカー(例えば、タイムスタンプ)を備えてよい。タグはさらに、対象イベントに関連付けられた情報(例えば、位置、品質レベル、テキスト表記、音声表記、ビデオ表記など)を含んでよい。種々の実施形態では、タグは、ビデオ、ビデオセグメント、および/または画像シーケンスに関連付けられてよい。
さらに、種々の実施形態では、画像プロセッサ20は、モードセレクタ22によるユーザ入力に応答して、(上述したように)「ビデオタグ付けモード」および/または「バーストモード」で動作するように構成されてよい。上述したように、画像プロセッサ20は、「バーストモード」で動作している時、画像データを一時的に記憶するための画像バッファ36を使用して画像データを処理しやすくして、対象イベントのユーザ指示に応答して、バッファからの画像データを記憶装置24に記憶してよい。
いくつかの実施形態では、センサ18は、Bayerパターンフィルタを含むことができる。したがって、センサ18は、チップセット(図示せず)によって、画像センサ18の個々のフォトセルによって検出される赤色、緑色、もしくは青色の光の強度を示すデータを出力する。画像センサ18のチップセットは、画像センサの各素子の電荷を読み取るのに使用することができ、したがって、周知のRGBフォーマット出力の値のストリームを出力することができる。種々の実施形態では、画像プロセッサ20は、本明細書に示されている方法で使用可能な画像データを生成するために任意の方法で画像センサ18からのデータストリームをフォーマットするように構成することができる。
さらに、いくつかの実施形態では、画像プロセッサ20またはカメラ10の別のプロセッサは、他のモジュールを含むことができ、および/または他の処理(例えば、これらに限定されないが、ガンマ補正処理、ノイズ除去処理など)を実行するように構成することができる。
上述したように、カメラ10はさらに、圧縮モジュール22を含むことができる。圧縮モジュール22は、別個のチップの形態にすることができる、またはソフトウェアおよび別のプロセッサで実装することができる。例えば、圧縮モジュール22は、JPEG2000標準に準拠した圧縮技術もしくは他の圧縮技術を実行する市販の圧縮チップの形態にすることができる。いくつかの実施形態では、画像プロセッサ20および/または圧縮モジュール22は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、これらの組み合わせなどに実装される。
圧縮モジュール22は、画像プロセッサ20からの画像データに任意のタイプの圧縮処理を実行するように構成することができる。いくつかの実施形態では、圧縮モジュール22は、画像プロセッサ20によって実行される技術を利用する圧縮技術を実行する。例えば、上述したように、画像プロセッサ20は、画像データの特定の色値の強度を低減するように構成することができる。さらに、画像プロセッサ20は、画像データのエントロピーを使用する生データの操作を実行することができる。したがって、圧縮モジュール22によって実行される圧縮技術は、出力される圧縮データのサイズを低減するために、より長いゼロのストリングの存在により利益が得られるタイプのものとすることができる。
さらに、圧縮モジュール22は、画像プロセッサ20からの画像データを圧縮して、視覚的に無損失な出力が得られるように構成することができる。例えば、最初に、圧縮モジュールは、任意の周知の圧縮技術、例えば、これらに限定されないが、JPEG2000、MotionJPEG、任意のDCTベースコーデック、RGB画像データを圧縮するように設計された任意のコーデック、H.264、MPEG4、Huffman、もしくは他の技術を適用するように構成することができる。
使用される圧縮技術のタイプに応じて、視覚的に無損失な出力が得られるように圧縮技術の種々のパラメータを設定することができる。例えば、上述した圧縮技術の多くは、さまざまな圧縮率に調整することができ、解凍した時に、得られる画像の品質は、圧縮率が低いほど良くなり、圧縮率が高いほど悪くなる。したがって、圧縮モジュールは、視覚的に無損失な出力が得られる方法で画像データを圧縮するように構成することができる、またはユーザが視覚的に無損失な出力が得られるように種々のパラメータを調整することができるように構成することができる。例えば、圧縮モジュール22は、およそ6:1、7:1、8:1もしくはそれ以上の圧縮比で画像データを圧縮するように構成することができる。いくつかの実施形態では、圧縮モジュール22は、12:1もしくはそれ以上の圧縮比に画像データを圧縮するように構成することができる。
さらに、上述したように、圧縮モジュール22は、ユーザが圧縮モジュール22によって実現される圧縮比を調整することができるように構成することができる。例えば、カメラ10は、ユーザが圧縮モジュール22に圧縮比を変更させるコマンドを入力することができるユーザインターフェースを含むことができる。したがって、いくつかの実施形態では、カメラ10は、可変圧縮を行うことができる。上述したように、ユーザは、圧縮比の他に、例えば、フレームレート、解像度などを含む他の画質特性を指定してよい。該パラメータは、さらに、上述したように、ユーザインターフェースを使用して指定されてよい。一実施形態では、ユーザは、(上述した)持続可能な品質レベルおよび/または(上述した)最高品質レベルを指定してよい。これらの品質レベルは、カメラ10が「ビデオタグ付けモード」および「バーストモード」で動作している時に、それぞれに合わせてカメラ10によって使用されてよい。
本明細書で使用される時、「視覚的に無損失」は、同じディスプレイ装置上で(圧縮しない)元の画像データと並べて比較した場合に、当業者は一人も、画像の目視検査のみに基づいて、ある程度の正確さで、どちらの画像が元の画像であるかを判断できない出力を含むものとする。好適な圧縮生画像データのオンボード処理機能の別の態様は、Jannardらへの「Video Camera」と題する2008年4月11日に出願された米国特許第8174560号明細書に開示されており、この特許の内容全体を参照により本願明細書に引用したものとする。
再び図1Aを参照すると、カメラ10はさらに、記憶装置24を含むことができる。記憶装置は、例えば、これらに限定されないが、ハードディスク、フラッシュメモリ、もしくは(上述の画像バッファ36と同様の)任意の他のタイプのメモリデバイスのような任意のタイプのデジタル記憶装置の形態にすることができる。いくつかの実施形態では、記憶装置24のサイズは、12メガピクセル解像度、12ビット色解像度、および1秒当たり60フレームのフレームレートで少なくとも約30分間のビデオに相当する圧縮モジュール22からの画像データを記憶するのに十分な大きさとすることができる。しかし、記憶装置24は、任意のサイズにすることができる。
いくつかの実施形態では、記憶装置24は、筐体12の外側に取り付けることができる。さらに、いくつかの実施形態では、記憶装置24は、例えば、これらに限定されないが、IEEE1394、USB2.0、IDE、SATAなどを含む標準通信ポート(例えば、入出力モジュール38を介して)を使用してシステム14の他のコンポーネントに接続することができる。また、いくつかの実施形態では、記憶装置24は、RAIDプロトコルで動作する複数のハードドライブを備えることができる。しかし、任意のタイプの記憶装置を使用することができる。
図1Aを参照すると、上述したように、いくつかの実施形態では、システムは、監視モジュール26と、ユーザがシステムの動作時に画像センサ18によってキャプチャされた画像データを見ることができるように構成されたディスプレイ装置30および/または種々のユーザインターフェースとを含むことができる。いくつかの実施形態では、画像プロセッサ20は、低減された解像度の画像データを監視モジュール26に出力するように構成されたサブサンプリングシステムを含むことができる。例えば、このサブサンプリングシステムは、5K、4K、2K、1080p、720p、もしくは任意の他の解像度をサポートするために、ビデオ画像データを出力するように構成することができる。いくつかの実施形態では、デモザイク処理に使用されるフィルタは、ダウンサンプリングとフィルタリングを同時に実行することができるように、ダウンサンプリングフィルタリングを実行するように設計されてもよい。監視モジュール26は、画像プロセッサ20からのデータに対して任意のタイプのデモザイク処理を実行するように構成することができる。その後、監視モジュール26は、デモザイク処理された画像データをディスプレイ30に出力することができる。監視モジュール26は、画像プロセッサ20に加えて、または画像プロセッサ20と組み合わせて、後述する任意のユーザインターフェースを作成するように構成されてよい。いくつかの実施形態では、監視モジュール26に出力された画像データは、記憶されず、破棄されてよい。例えば、監視モジュール26に出力された画像データは、上述するように処理されてよく、処理された画像データは記憶されなくてもよい。しかし、これらの実施形態では、場合によっては、未処理の画像データ(例えば、監視モジュール26に出力された画像データ以外の画像データ)が記憶されてもよい。例えば、連続記録モードでは、および/または(上述および後述の)バーストキャプチャがトリガされる時に、画像データは、未処理、未圧縮のフォーマット(例えば、生の画像データ)で、記憶(例えば、記録)されると同時に、監視モジュール26によって表示するために一斉に処理されてよい。
ディスプレイ30は、任意のタイプの監視装置とすることができる。例えば、これに限定されないが、ディスプレイ30は、筐体12によって支持される4インチのLCDパネルとすることができる。例えば、いくつかの実施形態では、ディスプレイ30は、ユーザが筐体12に対して任意の角度でディスプレイ30を見ることができるようにディスプレイ30を筐体12に対して任意の位置に調整できるよう構成された無限に調整可能なマウントに接続することができる。いくつかの実施形態では、ディスプレイ30は、任意のタイプのビデオケーブル(例えば、RGBもしくはYCCフォーマットのビデオケーブル)を使用して監視モジュールに接続することができる。
任意で、再生モジュール28は、記憶装置24から画像データを受信し、画像データを解凍してデモザイク処理し、任意で、ユーザインターフェース(例えば、後述のユーザインターフェースのいずれか)を作成して、その後、画像データをディスプレイ30に出力するように構成することができる。いくつかの実施形態では、監視モジュール26および再生モジュール28は、中間ディスプレイコントローラ(図示せず)を介してディスプレイに接続することができる。したがって、ディスプレイ30は、単一コネクタによってディスプレイコントローラに接続することができる。ディスプレイコントローラは、監視モジュール26または再生モジュール28のいずれかからディスプレイ30にデータを転送するように構成することができる。
一実施形態によれば、カメラ10は、ユーザがカメラのビデオ記録動作時の筐体の少なくとも1つの動き度合いに関する向きを操作することができるように構成された少なくとも1つのハンドルを有する可搬筐体を備えることができる。
本開示の実施形態は、特定の特性および/または機能(例えば、いくつか例を挙げると、単一センサデバイス、特定のサイズの画像バッファ、もしくは特定の帯域幅の入出力機能)を有するカメラに関して説明されているが、本開示の実施形態は異なる特性(例えば、マルチセンサデバイス、より大きいサイズもしくはより小さいサイズのバッファなど)を有するカメラに適用されてよい。したがって、本明細書に開示されている実施形態は、例示的な実施形態であるが、非限定的な実施形態であり、本明細書に示されている開示内容は、開示されている例示的な実施形態に限定されないと理解されたい。
ビデオタグ付けモード
図2Aは、種々の実施形態に従ってカメラ10が「ビデオタグ付けモード」で操作される時の本開示の方法例204を示したフローチャートである。種々の実施形態では、これより少ないブロックもしくは追加のブロックが該方法に含まれてよく、または種々のブロックが図示されている順序と異なる順序で実行されてよい。一実施形態では、図面内の1つまたは複数のブロックは、上述したように、カメラ10の種々のコンポーネントによって実行されてよい。例えば、いくつかの実施形態では、方法例204は、記憶装置24またはカメラ10内の別の記憶装置(図示せず)のようなメモリデバイス内に記憶されている制御ルーチンを表すことができる。さらに、中央処理ユニット(CPU)(図示せず)は、制御ルーチンを実行するように構成することができる。方法例204は、例えば、カメラ10のユーザが、上述したように、モードセレクタ22を使用して「ビデオタグ付けモード」を選択した時に実行されてよい。
ブロック208において、ビデオ(または画像データ、例えば、画像および/もしくは画像シーケンス)が、上述したように、持続可能な品質レベルでカメラ10によって連続的に取得されてよい。カメラは、ユーザによって、例えば、種々のイベントのビデオをキャプチャするために操作されてよい。ブロック210において、イベント表示がユーザからカメラによって受信されてよい。ユーザは、例えば、対象イベントが見られた時に、イベント表示を生成してよい。イベント表示は、上述したように、ボタン押圧、タッチセンシティブディスプレイへのタッチ、ボイスコマンドなどによって設けられてよい。
ブロック212において、上述したように、ユーザからのイベント表示の受信に応答して、画像データ(この例では、ビデオストリームおよび/またはビデオファイル)がトリガされて、対象イベントが識別されてよい。上述したように、タグは、マーカー、ポインタ、メタデータ、および/または画像データに関連付けられた任意の他のインジケータを備えてよい。種々の実施形態では、画像データおよび関連タグは、単一ファイルを備えてよい。タグは、単一ファイルの先頭、最後、および/または任意の中間部分に記憶されてよい。あるいは、画像データおよび関連タグは、別個のファイルとしてよい。一実施形態では、タグは、ビデオがキャプチャされている時に特定の時点でユーザが対象イベントを識別したことを示すマーカーを生成する。したがって、タグは、タイムスタンプに関連付けられてよい。一実施形態では、タグは、種々の他の情報(例えば、位置、品質レベル、テキスト表記、音声表記、画像表記、ビデオ表記など)を含んでよい。
一実施形態では、タグは、キャプチャビデオと異なる品質レベル、もしくは同じ品質レベルのキャプチャ画像シーケンスを識別してよく、または他の形でそのキャプチャ画像シーケンスに関連付けられてよい。例えば、ユーザが対象イベントの表示を生成するのに応答して、カメラは、(後述するように)イベントに関連付けられた画像もしくは画像シーケンスを自動的にキャプチャしてよい。キャプチャされる画像(もしくは画像シーケンス)は、ビデオと異なる品質レベルでキャプチャされてよい。例えば、キャプチャされる画像(もしくは画像シーケンス)は、ビデオがキャプチャされる品質レベルと比較して、より高い品質レベル(例えば、より高い解像度もしくはより高いフレームレート)でキャプチャされてよい。一例では、ビデオは持続可能な品質レベルでキャプチャされ、画像(もしくは画像シーケンス)は最高品質レベルでキャプチャされてよい。
ブロック214において、タグを含む画像データ(例えば、ビデオファイル)が記憶/記録されてよい。例えば、画像データは、記憶装置24および/または別の記憶装置に記憶されてよい。一実施形態では、タグ付けされた画像データは、キャプチャされ、処理された時に、連続的に記憶されてよい。矢印216で示されているように、画像データの取得は継続され、ユーザは経時的に複数のイベントをタグ付けしながらビデオをキャプチャし続けてよい。
バーストキャプチャモード
図2Bは、一実施形態に従ってカメラが「バーストモード」で操作される時の本開示の方法例206を示したフローチャートである。種々の実施形態では、これより少ないブロックもしくは追加のブロックが該方法に含まれてよく、または種々のブロックが、図示されている順序と異なる順序で実行されてよい。一実施形態では、図面内の1つまたは複数のブロックは、上述したように、カメラ10の種々のコンポーネントによって実行されてよい。例えば、いくつかの実施形態では、方法例204は、記憶装置24もしくはカメラ10内の別の記憶装置(図示せず)のようなメモリデバイス内に記憶されている制御ルーチンを表すことができる。さらに、中央処理ユニット(CPU)(図示せず)は、制御ルーチンを実行するように構成することができる。方法例206は、例えば、カメラのユーザが、上述したように、モードセレクタ22を使用して「バーストモード」を選択した時に実行されてよい。
ブロック230において、カメラ10は、画像データ(例えば、ビデオおよび/または画像シーケンス)を取得してよい。いくつかの実施形態では、画像データは、上述したように、可能な最高品質レベル、または何らかの他の比較的高い品質レベルで取得される。画像データは、連続的に取得されてよく、ブロック232において、画像データは、取得されると、画像バッファ36に一時的に記憶されてよい。したがって、画像バッファ36のサイズに応じて、画像バッファ36は、すでにキャプチャされた画像データのうちある程度(例えば、所定時間もしくはいくつかのフレーム数)の画像データを含んでよい。上述したように、画像バッファ36のコンテンツは、先入れ先出し方式で管理されてよい。したがって、新規画像フレームがカメラによってキャプチャされると、これらのフレームが画像バッファ36に追加され、いずれかの古い画像データが画像バッファ36から削除されてよい。一実施形態では、後述するように、ユーザが対象イベントの表示を生成するまで画像データは全く記録されない。上述したように、カメラ10は、バーストモードでは、バッファリング済みフレームが、例えば記憶装置24に記憶されずに、破棄されるプレビューモードで動作してよい。
ブロック234において、フローチャート204のブロック210に関して上述したように、対象イベントの表示がユーザから受信されてよい。
ブロック236において、カメラは、対象イベントの表示の受信に応答して、画像バッファ36内に記憶されている画像データもしくは画像バッファ36内に記憶されている画像データの一部を記録する。したがって、一実施形態では、カメラは、ユーザが対象イベントの表示を生成する前に発生する画像データをキャプチャすることができる。一実施形態では、画像バッファ内に記憶されている画像データの全てではなく、一部が記録されてよい。この記録される一部は、特定の量の画像データ(例えば、いくつかのバイト数の画像)、特定の時間の画像データ(例えば、5秒、10秒、15秒、30秒もしくはそれ以上の秒の画像データ)、特定のフレーム数の画像データ(例えば、10フレーム、25フレーム、50フレーム、100フレーム、1000フレーム、もしくはそれ以上のフレームの画像データ)などを含んでよい。一実施形態では、ユーザは、対象イベントの前に取得された特定の量の画像データ(例えば、特定の秒数の画像データ)を記憶するようにカメラを設定してよい。一実施形態では、画像バッファから記録される画像データの一部は、カメラの1つまたは複数の特性、カメラの位置、キャプチャされるイベントの種類などに基づいてカメラによって決定されてよい。
ブロック238において、カメラは、さらに対象イベントの表示に応答して、対象イベントの表示の後に発生する画像データをキャプチャおよび/または記録し続けてよい。一実施形態では、画像データの継続的なキャプチャ/記録は、ユーザがキャプチャ/記録を停止すべきであると指示するまで、または特定の量の画像データ、特定の時間の画像データ、および/もしくは、特に、特定のフレーム数の画像データがキャプチャされるまで行われる。一実施形態では、対象イベントの表示の後にキャプチャ/記録される画像データの量は、ユーザ設定可能としてよい。例えば、ユーザは、対象イベントの表示が受信された後にキャプチャ/記録する特定の秒数の画像データを記録するようにカメラを設定してよい。一実施形態では、カメラは、カメラの1つまたは複数の特性、カメラの位置、キャプチャされるイベントの種類などに基づいて、対象イベントの表示の後にキャプチャ/記録する画像データの量を自動的に決定する。
一実施形態では、イベントの表示の後にキャプチャされる/記録される画像データの量は、カメラのハードウェア制約に基づいて決定されてよい。例えば、最高品質レベルで画像データをキャプチャする場合、カメラは、高速内部メモリに画像データを記憶してよい。高速内部メモリは、最高品質の画像データを受信した時に記憶することができるが、比較的低速の記憶装置24は、(例えば、ハードウェアの読み取り/書き込み、および/または帯域幅制約のために)最高品質の画像データを受信した時に記憶することができない。しかし、高速内部メモリは制限される場合がある。したがって、一実施形態では、イベントの表示の後にキャプチャされる/記録される画像データの量は、高速内部メモリの記憶容量に制限され得る。
上述したように、バッファ内に記憶され、表示の受信後にキャプチャされた画像データは、ビデオセグメントまたは画像シーケンスを含んでよい。例えば、カメラは、特定のフレームレートで静止画像のシーケンスをキャプチャするように構成されてよい。種々の実施形態では、カメラによってキャプチャされおよび/または記録される画像データの品質レベルは、上述したように、ユーザ設定可能としてよい。
ブロック230において、画像バッファからの画像データを含む記録画像データおよびイベントの表示の後から記録された画像データは、すでに記録されている画像データのいずれか(例えば、すでに記録されているビデオファイル)に追加されてよい。したがって、一実施形態では、カメラは、複数の対象イベントに応答してキャプチャされた画像データを含む単一画像データファイルを作成してよい。一実施形態では、単一画像データファイルは、カメラが「ビデオタグ付けモード」の時およびカメラが「バーストモード」の時に記録された画像データを含んでよい。したがって、一実施形態では、有利には、複数の記録ビデオ、ビデオセグメント、および/または画像シーケンスが単一ファイルとして記憶されてよい。
ブロック232において、画像データ(例えば、追加された画像データ)は、フローチャート204のブロック214に関して上述したように記憶されてよい。さらに、矢印244で示されているように、画像データの取得は、ユーザが経時的に追加のイベントを記録することができるように継続されてよい。
有利には、種々の実施形態によれば、カメラは、「ビデオタグ付けモード」の間、ユーザがイベントのビデオ撮影をしながら容易に対象イベントを識別してそれにタグ付けすることができるように構成される。さらに、種々の実施形態では、カメラは、「バーストモード」の間、ユーザがカメラを使用して対象イベント前後の一定時間に最高品質レベルのビデオセグメントおよび/または画像シーケンスをキャプチャすることができるように構成される。したがって、種々の実施形態では、カメラ10は、最高品質レベルでイベントのビデオおよび画像をキャプチャおよび記録することができると同時に、持続可能な品質レベルでイベントの画像およびビデオを連続的にキャプチャおよび記録することができる。
ユーザインターフェース例
図3A、図3B、図4、および図5は、画像データを表示するユーザインターフェース例を示している。種々の実施形態では、ユーザインターフェースおよび関連方法は、タグ付けされた画像データを容易に検討することができる形でタグ付けされた画像データを提示する。種々の実施形態では、ユーザインターフェースおよび関連方法はさらに、画像シーケンスを容易に検討することができる形で画像シーケンスを提示する。上述したように、ユーザインターフェース例は、例えば、画像プロセッサ20によって実行可能な1つまたは複数のソフトウェアモジュールによって作成されてよい。一実施形態では、ユーザインターフェースは、再生モジュール28、監視モジュール26、および/またはカメラ10の外部の別のコンピューティングデバイスの組み合わせによって作成されてよい。ユーザインターフェース例は、カメラ10に取り付けら得るディスプレイ30、および/または任意の他のディスプレイ上に表示されてよい。図3A、図3B、図4、および図5のユーザインターフェースはそれぞれ、「ビデオタグ付けモード」および/または「バーストモード」でキャプチャされた画像データを表示するのに使用されてよい。
図3Aおよび図3Bは、タイムラインに関連付けて画像データが表示されるユーザインターフェース例302を示している。図示されているように、ユーザインターフェース302は、タイムライン304、位置インジケータ306、イベントマーカー307、308、および画像データ310を含んでよい。ユーザインターフェース302はさらに、随意で、コントロール312、314を含んでよい。
図3Aを参照すると、位置インジケータ306は、イベントマーカー307の位置にある。イベントマーカー307に関連付けられた記録画像データ310が表示されてよい。図示されている例では、イベントマーカー307に関連付けられたイベント(例えば、サッカー選手がボールを蹴っている)の画像もしくはビデオが表示されている。図示されている例では、ユーザインターフェース302は、いくつかのイベントもしくはイベントマーカーのポップアップ画面もしくは他のインジケータを含んでよい。一実施形態では、ユーザは、タイムライン304に沿って位置インジケータ306をスクラブして、特定のキャプチャされたイベントに関連付けられた画像データを見てよい。画像データ310は、図4および図5に関して後述するが、1つのイベントもしくは複数のイベントに関連付けられた複数の画像を含んでよい。コントロール312は、例えば、画像データを提示させる(例えば、ビデオを再生させる)のに使用されてよい。コントロール314は、例えば、1つのイベントマーカーから次のイベントマーカー、前方のイベントマーカーもしくは後方のイベントマーカーに移動するのに使用されてよい。
図3Bを参照すると、位置インジケータ306は、イベントマーカー308の位置にある。イベントマーカー308に関連付けられた記録画像データ310が表示され、この例では、イベントマーカー308に関連付けられたイベント(例えば、バスケットボール選手がシュートしている)画像もしくはビデオが示されている。
種々の実施形態では、キャプチャされた/記録された画像データに関連付けられた他の情報(例えば、品質レベル情報)がユーザインターフェース302内に表示されてよい。
図4は、画像シーケンスが表示されるユーザインターフェース例を示している。図4のユーザインターフェース例は、タイムライン402、位置インジケータ404、1つの記録イベントから別の記録イベントまでのブレイクポイントを示すインジケータ406を含んでよい。図示されているように、タイムライン402は、表示されている画像データがタイムラインセグメント410、412、414、416、418に対応する6つの別個の対象イベントを取り上げていることを示している。インジケータ406は、それぞれのイベントに対応するキャプチャ画像データの開始点および終点を示している。位置インジケータ404は、タイムライン402のタイムラインセグメント414内に示されている。
一実施形態では、ユーザが位置インジケータ404をタイムライン402に沿って移動させると、対応する画像データが表示されてよい。この例では、5枚の画像430、432、434、436、438が表示されている。この例では、画像430は、位置インジケータ404の正確な位置に対応する画像データのサムネイルを示しており、画像432および画像434は、位置インジケータ404の前の記録データに対応する画像データのサムネイルを示しており、画像436および画像438は、位置インジケータ404の後の記録データに対応する画像データのサムネイルを示している。
種々の実施形態では、図3のユーザインターフェースに、上記より多いもしくは少ないサムネイルが表示されてよい。一実施形態では、ユーザがタイムライン402に沿って位置インジケータ404をスクラブすると、位置インジケータ404の位置に応じて表示サムネイルが更新される。種々の実施形態では、サムネイルは、画像データのキーフレーム、キャプチャされたイベントに関連付けられた画像データの長さ、位置インジケータ404からのフレーム数もしくは時間などに基づいて選択されてよい。一実施形態では、タイムライン402はさらに、後述するように、ユーザが対象イベントの表示を設けた時点を示す表示を含んでよい。
図5は、画像データのシーケンスが表示されるユーザインターフェース例を示している。図5のユーザインターフェース例は、タイムライン502(図4のタイムライン402と同様であるが、図5の例では垂直方向である)、1つの記録イベントから別の記録イベントまでのブレイクポイントを示す表示(例えば、表示506、508)、およびユーザが対象イベントの表示を設けた時点を示す表示(例えば、表示509、510、514、516、518、520)を含んでよい。図示されているように、タイムライン502は、表示されている画像が6つの別個の対象イベントを取り上げていることを示している。対象イベントそれぞれに対して、一連のサムネイル画像(例えば、画像550、650)を示して、ユーザに対してキャプチャされたイベントをプレビュー表示してよい。中括弧512で示されているイベントに対して、画像550(552、554、556を含む)は、該イベントに関連付けられた画像を示している。個々の一連の画像に、これより多いもしくはこれより少ない画像が示されてもよい。画像は、キャプチャされると、連続的に表示されてよい。一実施形態では、中間の画像(例えば、画像552)は、ユーザがイベントの表示を設けた時点に対応してよい。種々の実施形態では、記録されたイベントそれぞれに対応する一連の画像が表示されてよい。
種々の実施形態では、図4のユーザインターフェース例または図5のユーザインターフェース例のいずれかがユーザインターフェース例302と統合されてよい。一実施形態では、図4のユーザインターフェース例または図5のユーザインターフェース例のいずれかにおいて、ユーザがイベントに対応するタイムラインのセグメントを選択したのに応答して、位置インジケータは、ユーザが該セグメントに対応するイベントの表示を設けた時点に自動的に移動されてよい。
有利には、種々の実施形態によれば、図3A、図3B、図4、および図5のユーザインターフェース例のいずれかは、ユーザが画像データ(例えば、ビデオもしくは画像シーケンス)を検討する時に、対象イベントに対しておよび/または対象イベント間を素早くナビゲートすることができるようにしてよい。
用語
本明細書に示されているシステムおよび方法を理解しやすくするために、本開示内で使用されているいくつかの用語について説明する。以下に示す用語、さらに本明細書で使用されている他の用語も、それぞれの用語の規定の定義、通常および慣習的な意味、および/または任意の他の言外の意味を含むものと解釈すべきである。したがって、以下の定義は、これらの用語の意味に限定されず、単に例示的な定義を示すものである。
本開示において、「画像データ」および/または「ビデオ画像データ」は、ビデオ、画像、および/または画像シーケンスを含むデータを指してよい。さらに、種々の実施形態では、「ビデオ」および「画像シーケンス」は、区別なく使用されてよい。例えば、種々の実施形態では、キャプチャされたビデオは、特定のフレームレートでキャプチャされた画像シーケンスを含んでよい。したがって、いくつかの実施形態はビデオ(もしくは画像シーケンス)のキャプチャに関して説明されているが、これらの実施形態は画像シーケンス(もしくはビデオ)のキャプチャに使用されてもよいと理解すべきである。
本開示において、「取得」および「キャプチャ」は、カメラが画像データを得るための任意のプロセスを指すのに区別なく使用されてよい。さらに、「記録」および「記憶」は、カメラがキャプチャ画像データを、例えば、後で検討するためにアクセスできるファイル内に記憶するための任意のプロセスを指すのに区別なく使用されてよい。種々の実施形態では、後述するように、(例えば、ユーザインターフェースを介した)画像データの処理および/または表示は、画像データのキャプチャの後であればいつでも(例えば、画像データの記録の前および/または後に)実行されてよい。
本開示において、「品質レベル」は、キャプチャされたおよび/または記録された画像データ(例えば、ビデオもしくは画像シーケンス)の1つまたは複数の特性(または特性の組み合わせ)を指してよい。例えば、品質レベルは、これらに限定されないが、解像度、アスペクト比、フレームレート、圧縮レベル、ビットレート、1つまたは複数の色特性などのうちの1つまたは複数を指してよい。種々の実施形態では、「持続可能な品質レベル」は、カメラが画像データの連続的なキャプチャおよび/または記録を継続させることができる任意の品質レベルを指すのに使用されてよい。同様に、「最高品質レベル」は、カメラが画像データの連続的なキャプチャおよび/または記録を継続させることができないが、カメラが連続ビデオセグメントおよび/または画像シーケンスより少なくキャプチャおよび/または記録することができる任意の品質レベルを指すのに使用されてよい。一般に、「ビデオセグメント」および「画像シーケンス」は、最高品質レベルでキャプチャおよび記録された画像データを指すのに使用されてよい。
本明細書に示されているカメラの種々の実施形態はハードウェアの機能および制約(例えば、画像データの処理、転送、および/または記憶速度の制約)種々の組み合わせを含み得るので、持続可能な品質レベルを含むものは、実施形態に応じて変化する場合がある。さらに、ビデオ特性の種々の組み合わせが、カメラの特性に基づいて持続可能な品質レベルと見なされてよい。例えば、種々の実施形態では、(1)高フレームレートかつ低解像度、(2)低フレームレートかつ高解像度は、それぞれ持続可能な品質レベルとすることができる非限定的な例である。同様に、これらの実施形態では、高フレームレートかつ高解像度は、最高品質レベルとすることができる非限定的な例である。種々の実施形態では、特性の他の組み合わせが、持続可能な品質レベルおよび/または最高品質レベルを含んでよい。
本開示において、「対象イベント」は、カメラによってキャプチャおよび/または記録可能な任意のイベントを指してよい。一般に、対象イベントは、ユーザもしくは観察者にとって関心のあると思われるイベントを含む。種々の実施形態では、対象イベントは、状況によって変化する場合がある。例えば、スポーツの場合、対象イベントは、スポーツの試合中のエキサイティングなプレイまたは選手の動きを含んでよい。別の例では、映画の場合、対象イベントは、俳優による特定の一連のアクションシーンもしくはパフォーマンスを含んでよい。上述したように、また後述するように、対象イベントは、カメラのユーザによって指示されてよく、および/またはカメラによって自動的に検出されてよい。さらに、種々の実施形態では、対象イベントは、カメラもしくは他のオブジェクト、例えば、時間もしくは品質レベル、または時間の変化もしくは品質レベルの変化に関連付けられた特性を含んでよい。
本開示において、「タグ」は、画像データに関連付けられた対象イベントの任意の表示を指してよい。例えば、タグは、マーカー、ポインタ、メタデータ、および/または任意の他のインジケータとしてよい。一般に、種々の実施形態では、画像データおよび関連タグは、単一ファイルとして記憶される。タグは、単一ファイルの先頭、最後、および/または任意の中間部分に記憶されてよい。あるいは、画像データおよび関連タグは、別個のファイルとして記憶されてよい。簡単な例では、タグは、対象イベントの発生を示す画像データ内の特定の点のマーカーもしくは特定の点のインジケータ(例えば、タイムスタンプ)を含んでよい。種々の実施形態では、タグはさらに、対象イベントに関連付けられた情報、例えば、位置、品質レベル、テキスト表記、音声表記、画像表記、ビデオ表記などを含んでよい。一実施形態では、ビデオ上のタグは、ビデオと異なる品質レベルもしくは同じ品質レベルのキャプチャされた画像シーケンスを含んでよい。種々の実施形態では、タグは、ビデオ、ビデオセグメント、および/または画像シーケンスに関連付けられてよい。
本開示において、カメラおよび/または他の方法およびシステムのさまざまな機能を説明しやすくするために、「連続的」として説明されてよい。例えば、カメラは、画像データを「連続的に」キャプチャ/処理するとして説明され、画像バッファは、「連続的に」更新される、などのように説明されている。「連続的」は、説明を明確にするために使用されているが、例えば、実質的に連続的、間欠的、一括などを含む他の操作方法が考えられることは明らかである。したがって、「連続的」動作の説明は、実質的に連続的な動作など(例えば、画像バッファの実質的に連続的な更新、間欠的な更新など)をも含むものと理解すべきである。
別の実施形態
本明細書に記載されているおよび/または添付図面に図示されているフロー図内の任意のプロセスの説明、要素、もしくはブロックは、(後述するように)プロセス内の特定の論理機能もしくは論理ステップを実行するための1つまたは複数の実行可能命令を含むモジュール、セグメント、もしくはコードの一部を示す可能性があるものとして理解すべきである。代替の実施態様は、本明細書に記載されている実施形態の範囲に含まれ、関係する機能に応じて、要素もしくは機能が削除されてよく、図示されているもしくは説明されている順序と異なる順序で、例えば、実質的に同時に(例えば、マルチスレッド処理、割り込み処理、または、複数のプロセッサもしくはプロセッサコアもしくは他の並列アーキテクチャで)または逆の順序で実行されてよい。
上述の方法およびプロセスのいずれかは、1つまたは複数の汎用プロセッサおよび/または特定用途向けプロセッサ(「コンピュータデバイス」、「コンピューティングデバイス」、「ハードウェアコンピューティングデバイス」、「ハードウェアプロセッサ」などとも呼ばれる)によって実行される論理命令、ソフトウェアコード命令、および/またはソフトウェアコードモジュールに部分的もしくは完全に具現化され、これらによって部分的もしくは全体的に自動化されてよい。例えば、本明細書に記載されている方法は、1つまたは複数のハードウェアプロセッサおよび/または任意の他の適切なコンピューティングデバイスによって、ソフトウェア命令が実行された時に、および/またはソフトウェア命令が実行されるのに応答して、実行されてよい。ソフトウェア命令および/または他の実行可能コードは、有形コンピュータ可読媒体から読み取られてよい。有形コンピュータ可読媒体は、コンピュータシステムおよび/またはコンピューティングデバイスによって読み取り可能なデータを記憶することができるデータ記憶装置である。コンピュータ可読媒体の例として、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、他の揮発性もしくは不揮発性メモリデバイス、DVD−ROM、CD−ROM、磁気テープ、フラッシュドライブ、および/または光学データ記憶装置が挙げられる。したがって、ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、ソリッドステートドライブ、リムーバブルディスク、CD−ROM、DVD−ROM、および/または任意の他の形態の有形コンピュータ可読記憶媒体に常駐してよい。
さらに、上述の方法およびプロセスのいずれかは、電子ハードウェア(例えば、論理回路、ハードウェアプロセッサなど)に部分的もしくは完全に具現化され、これらによって部分的もしくは全体的に自動化されてよい。例えば、本明細書に開示されている実施形態に関連して説明されている種々の例示的な論理ブロック、方法、ルーチンなどは、電子ハードウェア、コンピュータソフトウェア、もしくは両方の組み合わせとして実装されてよい。このことを明確に示すために、種々の例示的なコンポーネント、ブロック、モジュール、およびステップは、全体的に、これらの機能に関して上述されている。これらの機能がハードウェアとして実装されるか、またはソフトウェアとして実装されるかは、システム全体に課せられる特定の用途および設計の制約によって決まる。記載されている機能は、特定の用途それぞれに対してさまざまな方法で実装されてよいが、このような実装の決定は、本開示の範囲から逸脱するものとして解釈されるべきではない。
上述の実施形態に多くの変更および修正を加えてよく、変更および修正された要素は、他の許容範囲の例に含まれるものとして理解されなければならない。これらの修正および変更全てが本開示の範囲内に含まれるものとする。上記説明では、本開示の特定の実施形態について詳述されている。しかし、いかに上記で詳細に説明されていようと、本発明は多くの方法で実施されてよいことは理解されるであろう。また、上述したように、本開示の特定の特徴もしくは態様を説明する際に特定の用語を使用するのは、これらの用語が、関係する本発明の特徴もしくは態様の任意の特定の特性を含むとして限定されるものとして本明細書で再定義されていると捉えるべきではない。
本明細書内で使用されている条件語句、特に、「することができる」、「かもしれない」、「してよい」、「例えば」などは、特に別段の指示のない限り、または使用される文脈の中で別の形で理解されない限り、通常は、特定の実施形態が特定の特徴、要素および/または状態を含むが、他の実施形態は含まないことを意味するものとする。したがって、このような条件語句は、一般に、特徴、要素、および/または状態が何らかの形で1つまたは複数の実施形態に必要なものである、または1つまたは複数の実施形態が、オーサー入力もしくは指示の有無に関係なく、これらの特徴、要素、および/または状態が任意の特定の実施形態に含まれる、もしくは任意の特定の実施形態で実行されるか否かを決定する論理を必ず含むということを意味するものではない。「備える」、「含む」、「有する」などは、同義語であり、包括的に、制約のない形で使用され、追加の要素、特徴、作用、動作などを除外するものではない。さらに、「または」は、包括的な意味で使用される(排他的な意味で使用されない)ので、例えば、要素のリストをつなぐのに使用される場合、「または」は、リスト内の要素の1つ、いくつか、もしくは全てを意味する。さらに、冠詞「1つの」は、特に別段の指示のない限り、「1つまたは複数の」もしくは「少なくとも1つの」という意味で解釈されなければならない。
「X、Y、およびZの少なくとも1つ」のような接続的な語句は、特に別段の指示のない限り、普通なら、アイテム、用語などが一般に、X、Y、もしくはZのいずれかとしてよいという意味で使用される文脈で、理解される。したがって、このような接続的な語句は、一般に、特定の実施形態がそれぞれに対して少なくとも1つのX、少なくとも1つのY、および少なくとも1つのZが存在する必要があることを意味するものではない。
上記の詳細な説明では、種々の実施形態に適用される新規な特徴が示され、説明され、指摘されているが、本開示の精神から逸脱せずに、例示されているデバイスもしくはアルゴリズムの形式および細部においてさまざまな省略、置換、および変更が可能であることは理解されるであろう。したがって、上記説明は、任意の特定の特徴、特性、ステップ、モジュール、もしくはブロックが必要である、もしくは不可欠であるということを意味するものではない。当然のことながら、いくつかの特徴は他の特徴とは別個に使用できるもしくは実施できるので、本明細書に示されているプロセスは、本明細書に記載されている特徴および利点の全てを提供できるとは限らない形態で具現化されてよい。
以下は、本明細書に記載されているシステムおよび方法のさらに別の実施形態の例である。以下の実施形態のいずれの組み合わせも本開示の範囲に含まれるものとする。

Claims (67)

  1. ビデオカメラであって、
    可搬筐体と、
    所定のフレームレートで動画像データを取得するように構成された前記筐体内の1つまたは複数の画像センサと、
    前記取得された動画像データをビデオデータファイル内に記憶するように構成された記憶装置と、
    対象イベントの発生を識別するために前記動画像データの取得時に前記ビデオカメラのユーザが対話するために接触しやすいように位置決めされたボタンと、
    電子ディスプレイと、
    1つまたは複数のプロセッサであって、
    前記動画像データが連続的に取得される時に第1の対象イベントを識別する前記動画像データの取得時に前記ボタンによるユーザ対話の表示を受信し、
    前記ボタンによるユーザ対話の表示の受信に応答して、前記ビデオデータファイルに前記第1の対象イベントの表示を追加し、
    前記画像データファイルを処理し、
    前記画像データファイルの処理に基づいて、
    前記ビデオデータファイルの少なくとも一部を表すタイムラインと、
    前記第1の対象イベントと一致する画像データに対応する前記タイムラインの一部を識別するマーカーと
    を少なくとも含むユーザインターフェースを前記電子ディスプレイ上に表示するために生成する
    ために機械可読命令を実行するように構成された1つまたは複数のプロセッサと
    を備える、ビデオカメラ。
  2. 前記第1の対象イベントの表示は、前記ボタンによるユーザ対話の表示が受信された時点を示すタイムスタンプを含む、請求項1に記載のビデオカメラ。
  3. 前記第1の対象イベントの表示は、前記ビデオデータファイルの先頭、前記ビデオデータファイルの最後、もしくは前記ビデオデータファイルの中間部分のうちの少なくとも1つに追加される、請求項1または請求項2のいずれかに記載のビデオカメラ。
  4. 前記第1の対象イベントの表示は、前記第1の対象イベントの表示と前記ビデオデータファイルとの関連性を示すメタデータを含む、請求項1〜請求項3のうちのいずれか一項に記載のビデオカメラ。
  5. 前記ボタンは、前記ビデオカメラの外表面に取り付けられる、請求項1〜請求項4のうちのいずれか一項に記載のビデオカメラ。
  6. 前記電子ディスプレイは、タッチセンシティブディスプレイを備え、
    前記ボタンは、前記ユーザインターフェースに含まれる選択可能な要素であって、対象イベントの発生を識別するために、前記動画像データの取得時に前記ビデオカメラのユーザによって対話できるように構成された選択可能な要素を備える、
    請求項1〜請求項5のうちのいずれか一項に記載のビデオカメラ。
  7. 前記1つまたは複数のプロセッサは、さらに、
    前記ユーザインターフェースを使用して、前記マーカーの選択を示すユーザ対話の第2の表示の受信に応答して、前記第1の対象イベントに関連付けられた前記ビデオデータファイルの一部を表示するために前記ユーザインターフェースを更新するために機械可読命令を実行するように構成される、請求項1〜請求項6のうちのいずれか一項に記載のビデオカメラ。
  8. 前記1つまたは複数のプロセッサは、さらに、
    前記ボタンによるユーザ対話の表示の受信に応答して、前記動画像データから、前記第1の対象イベントの一連の2枚以上の静止画像をキャプチャするために機械可読命令を実行するように構成される、請求項1〜請求項7のうちのいずれか一項に記載のビデオカメラ。
  9. 前記2枚以上の静止画像は、前記取得動画像データから、前記ボタンによるユーザ対話の表示が受信された時点に対応する前記動画像データ内の時点でキャプチャされる、請求項8に記載のビデオカメラ。
  10. 前記動画像データは、少なくとも1080pの解像度で取得される、請求項1〜請求項9のうちのいずれか一項に記載のビデオカメラ。
  11. 前記動画像データは、2k〜10kの水平解像度で取得される、請求項1〜請求項10のうちのいずれか一項に記載のビデオカメラ。
  12. 前記フレームレートは、1秒当たり少なくとも12フレームである、請求項1〜請求項11のうちのいずれか一項に記載のビデオカメラ。
  13. 前記フレームレートは、1秒当たり12フレーム〜250フレームである、請求項1〜請求項12のうちのいずれか一項に記載のビデオカメラ。
  14. 前記ユーザインターフェースはさらに、前記第1の対象イベントを表す画像サムネイルであって、前記第1の対象イベントの表示に対応する位置で前記ビデオデータファイルから抽出された画像サムネイルを含む、請求項1〜請求項13のうちのいずれか一項に記載のビデオカメラ。
  15. 前記ユーザインターフェースはさらに、前記第1の対象イベントを表す2枚以上の画像サムネイルを含み、前記2枚以上の画像サムネイルのうちの少なくとも1枚は、前記対象イベントの直前または直後にキャプチャされた画像を表示する、請求項1〜請求項14のうちのいずれか一項に記載のビデオカメラ。
  16. 可搬筐体と前記筐体内の1つまたは複数の画像センサと電子ディスプレイと記憶装置とを備えるビデオカメラの1つまたは複数の画像センサを使用して、所定のフレームレートで動画像データを取得するステップと、
    前記ビデオカメラの前記記憶装置内に、前記取得動画像データをビデオデータファイルとして記憶するステップと、
    前記動画像データの取得時に前記ビデオカメラのユーザが対話するために接触しやすいように位置決めされた前記ビデオカメラのボタンを使用して、前記ビデオカメラの前記1つまたは複数の画像センサによって前記動画像データが連続的に取得される時に第1の対象イベントを識別するユーザ対話の表示を受信するステップと、
    前記ビデオデータファイルに、前記第1の対象イベントの表示を追加するステップと、
    前記ビデオデータファイルを処理するステップと、
    少なくとも前記処理に基づいて、前記ビデオカメラの前記電子ディスプレイ上に表示するために、
    前記ビデオデータファイルの少なくとも一部を表すタイムライン、および
    前記第1の対象イベントを表す前記タイムライン上のマーカー
    を少なくとも含むユーザインターフェースを生成するステップと
    を含む方法。
  17. 前記第1の対象イベントの表示は、前記ボタンによるユーザ対話の表示が受信された時点を示すタイムスタンプを含む、請求項16に記載の方法。
  18. 前記ボタンは、前記ビデオカメラの外表面に取り付けられる、請求項16または請求項17のいずれかに記載の方法。
  19. 前記電子ディスプレイは、タッチセンシティブディスプレイを備え、
    前記ボタンは、前記ユーザインターフェースに含まれる選択可能な要素であって、対象イベントの発生を識別するために前記動画像データの取得時に前記ビデオカメラのユーザによって対話できるように構成された選択可能な要素を備える、
    請求項16〜請求項18のうちのいずれか一項に記載の方法。
  20. 前記ユーザインターフェースを使用して、前記マーカーの選択を示すユーザ対話の第2の表示の受信に応答して、前記第1の対象イベントに関連付けられた前記ビデオデータファイルの一部を表示するために前記ユーザインターフェースを更新するステップ
    をさらに含む、請求項16〜請求項19のうちのいずれか一項に記載の方法。
  21. 前記ボタンによるユーザ対話の表示の受信に応答して、前記動画像データから、前記第1の対象イベントの一連の2枚以上の静止画像をキャプチャするステップ
    をさらに含む、請求項16〜請求項20のうちのいずれか一項に記載の方法。
  22. 前記2枚以上の静止画像は、前記取得動画像データから、前記ボタンによるユーザ対話の表示が受信された時点に対応する前記動画像データ内の時点でキャプチャされる、請求項21に記載の方法。
  23. 前記動画像データは、少なくとも1080pの解像度で取得される、請求項16〜請求項22のうちのいずれか一項に記載の方法。
  24. 前記フレームレートは、1秒当たり12フレーム〜250フレームである、請求項16〜請求項23のうちのいずれか一項に記載の方法。
  25. コンピューティングシステムであって、
    コンピュータプロセッサと、
    画像データファイルを記憶するように構成されたコンピュータ可読記憶媒体であって、前記画像データファイルは、
    ビデオカメラの1つまたは複数の画像センサによって取得された画像データ、および
    前記画像データが連続的に取得される時に対象イベントを識別するユーザからの入力に応答して、前記画像データファイルに追加された対象イベントの表示
    を含む、コンピュータ可読記憶媒体と、
    プログラム命令であって、前記コンピューティングシステムに、
    前記画像データファイルの少なくとも一部を表すタイムライン、
    前記対象イベントの時点もしくは近くで取得された画像データに対応する前記タイムラインの一部を識別する第1のマーカー、
    前記対象イベントの前に取得された画像データに対応する前記タイムラインの一部を識別する第2のマーカー、および
    前記対象イベントの後に取得された画像データに対応する前記タイムラインの一部を識別する第3のマーカー
    を少なくとも含むユーザインターフェースを生成するように前記画像データファイルを処理させるために、前記コンピュータプロセッサによって実行されるように構成されたプログラム命令と
    を備えるコンピューティングシステム。
  26. 前記第2のマーカーは、前記対象イベントの前に発生する時点を示すように前記タイムライン上に位置する、請求項25に記載のコンピューティングシステム。
  27. 前記第3のマーカーは、前記対象イベントの後に発生する時点を示すように前記タイムライン上に位置する、請求項25または請求項26のいずれかに記載のコンピューティングシステム。
  28. 前記ユーザインターフェースはさらに、前記第1のマーカー、前記第2のマーカー、もしくは前記第3のマーカーに関連付けられた少なくとも1枚の画像サムネイルを含む、請求項25〜請求項27のうちのいずれか一項に記載のコンピューティングシステム。
  29. 前記プログラム命令は、前記コンピューティングシステムに、
    前記第1のマーカー、前記第2のマーカー、もしくは前記第3のマーカーのうちの1つの選択を示すユーザ入力に応答して、選択された前記第1のマーカー、前記第2のマーカー、もしくは前記第3のマーカーそれぞれに関連付けられた画像データをさらに含むように前記ユーザインターフェースを更新させるために、前記コンピュータプロセッサによって実行されるように構成される、請求項25〜請求項28のうちのいずれか一項に記載のコンピューティングシステム。
  30. 前記プログラム命令は、前記コンピューティングシステムに、
    再生ボタンの選択を示すユーザ入力に応答して、少なくとも前記第1の対象イベントに関連付けられた画像データを提示させるために、前記コンピュータプロセッサによって実行されるように構成される、請求項25〜請求項29のうちのいずれか一項に記載のコンピューティングシステム。
  31. 対象イベントに関連付けられた画像データを選択的に記録する方法であって、
    ビデオカメラの1つまたは複数の画像センサによって、連続的に画像データを取得するステップと、
    前記取得画像データを画像データバッファに一時的に記憶するステップと、
    前記画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、
    前記第1のユーザ入力の前に取得された前記画像データバッファ内の前記取得画像データの少なくとも一部、および
    前記第1のユーザ入力の時点もしくは前記第1のユーザ入力の後に連続的に取得された画像データの少なくとも一部
    を画像データファイルに記録するステップと、
    前記画像データが連続的に取得される時に第2の対象イベントを識別する第2のユーザ入力の受信に応答して、
    前記第2のユーザ入力の前に取得された前記画像データバッファ内の前記取得画像データの少なくとも一部、および
    前記第2のユーザ入力の時点もしくは前記第2のユーザ入力の後に連続的に取得された画像データの少なくとも一部
    を前記画像データファイルに追加するステップと、
    前記ビデオカメラを使用して、前記画像データバッファ内に一時的に記憶されている前記取得画像データのうち前記画像データファイルに記録されていない残りの部分を記録せずに破棄するステップと
    を含む方法。
  32. 前記連続的に取得された画像データを監視するために電子ディスプレイに接続される前記カメラの出力部に、前記バッファ内に一時的に記憶されている前記画像データを出力するステップをさらに含む、請求項31に記載の方法。
  33. 前記記録するステップ、前記追加するステップ、および前記破棄するステップに続いて、連続記録モードのユーザ選択に応答して、前記ビデオカメラを使用して前記画像データバッファ内の前記取得画像データを破棄せずに記録するステップをさらに含む、請求項31または請求項32のいずれかに記載の方法。
  34. 前記画像データバッファは、特定の時間もしくは特定のフレーム数に対応する画像データを記憶するように構成される、請求項31〜請求項33のうちのいずれか一項に記載の方法。
  35. 前記画像データは、ビデオデータもしくは画像データシーケンスのうちの少なくとも一方を含む、請求項31〜請求項34のうちのいずれか一項に記載の方法。
  36. 前記画像データファイルは、前記画像シーケンスの視覚的提示のために使用可能である、請求項31〜請求項35のうちのいずれか一項に記載の方法。
  37. 前記画像データファイルは、前記ビデオカメラに記録される、請求項31〜請求項36のうちのいずれか一項に記載の方法。
  38. 前記第1のユーザ入力は、ボタン、タッチセンシティブディスプレイ、もしくは音声入力のうちの少なくとも1つによって受信される、請求項31〜請求項37のうちのいずれか一項に記載の方法。
  39. 前記画像データは、少なくとも1080pの解像度で取得される、請求項31〜請求項38のうちのいずれか一項に記載の方法。
  40. 前記画像データは、2k〜10kの水平解像度で取得される、請求項31〜請求項39のうちのいずれか一項に記載の方法。
  41. 前記画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される、請求項31〜請求項40のうちのいずれか一項に記載の方法。
  42. 前記画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される、請求項31〜請求項41のうちのいずれか一項に記載の方法。
  43. さらに、前記画像データが連続的に取得される時に前記第1の対象イベントを識別する前記第1のユーザ入力の受信に応答して、
    前記第1の対象イベントの表示を生成するステップと、
    前記表示を前記画像データファイルに記録するステップと
    をさらに含む、請求項31〜請求項42のうちのいずれか一項に記載の方法。
  44. 前記第1の対象イベントの表示は、前記第1のユーザ入力が受信された時点を示すタイムスタンプを含む、請求項43に記載の方法。
  45. 前記第1の対象イベントの表示は、前記第1の対象イベントの表示と、前記第1のユーザ入力の前に取得された画像データおよび前記第1のユーザ入力の後に連続的に取得された画像データの一部との関連性を示すメタデータを含む、請求項43または請求項44のいずれかに記載の方法。
  46. 連続的に画像データを取得するように構成された1つまたは複数の画像センサと、
    前記連続的に取得された画像データを一時的に記憶するように構成された画像データバッファと、
    前記画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、
    前記第1のユーザ入力の前に取得された前記画像データバッファ内の前記取得画像データの少なくとも一部、および
    前記第1のユーザ入力の時点もしくは前記第1のユーザ入力の後に連続的に取得された画像データの少なくとも一部
    を既存の画像データファイルに書き込むように構成された画像プロセッサと
    を備える、ビデオカメラ。
  47. 前記画像プロセッサはさらに、前記ビデオカメラを使用して、前記画像データバッファ内に一時的に記憶されている前記取得画像データのうち前記既存の画像データファイルに書き込まれていない残りの部分を記録せずに破棄するように構成される、請求項46に記載のビデオカメラ。
  48. 前記画像プロセッサはさらに、前記画像データが連続的に取得される時に第2の対象イベントを識別する第2のユーザ入力の受信に応答して、前記第2のユーザ入力の前に取得された前記画像データバッファ内の前記取得画像データの一部を前記既存の画像データファイルに追加するように構成され、
    前記第2のユーザ入力の前に取得された前記画像データバッファ内の前記取得画像データの一部は、前記既存の画像データファイルの先頭、前記既存の画像データファイルの最後、もしくは前記既存の画像データファイルの中間部分のうちの少なくとも1つに追加される、請求項46または請求項47のいずれかに記載のビデオカメラ。
  49. 対象イベントの発生を識別するために、前記画像データの取得時に前記ビデオカメラのユーザが対話するために接触しやすいように位置決めされるボタン
    をさらに備える、請求項46〜請求項48のうちのいずれか一項に記載のビデオカメラ。
  50. 前記画像データバッファは、特定の時間もしくは特定のフレーム数に対応する画像データを記憶するように構成される、請求項46〜請求項49のうちのいずれか一項に記載のビデオカメラ。
  51. 前記画像データは、ビデオデータもしくは画像データシーケンスのうちの少なくとも一方を含む、請求項46〜請求項50のうちのいずれか一項に記載のビデオカメラ。
  52. 前記画像データファイルは、前記画像シーケンスの視覚的提示のために使用可能である、請求項46〜請求項51のうちのいずれか一項に記載のビデオカメラ。
  53. 前記画像データファイルは、前記ビデオカメラに記録される、請求項46〜請求項52のうちのいずれか一項に記載のビデオカメラ。
  54. 前記第1のユーザ入力は、ボタン、タッチセンシティブディスプレイ、もしくは音声入力のうちの少なくとも1つによって受信される、請求項46〜請求項53のうちのいずれか一項に記載のビデオカメラ。
  55. 前記画像データは、少なくとも1080pの解像度で取得される、請求項46〜請求項54のうちのいずれか一項に記載のビデオカメラ。
  56. 前記画像データは、2k〜10kの水平解像度で取得される、請求項46〜請求項55のうちのいずれか一項に記載のビデオカメラ。
  57. 前記画像データは、1秒当たり少なくとも12フレームのフレームレートで取得される、請求項46〜請求項56のうちのいずれか一項に記載のビデオカメラ。
  58. 前記画像データは、1秒当たり12フレーム〜250フレームのフレームレートで取得される、請求項46〜請求項57のうちのいずれか一項に記載のビデオカメラ。
  59. 前記画像プロセッサはさらに、前記画像データが連続的に取得される時に前記第1の対象イベントを識別する前記第1のユーザ入力の受信に応答して、
    前記第1の対象イベントの表示を生成し、
    前記表示を前記画像データファイルに追加する
    ように構成される、請求項46〜請求項58のうちのいずれか一項に記載のビデオカメラ。
  60. 前記第1の対象イベントの表示は、前記第1のユーザ入力が受信された時点を示すタイムスタンプを含む、請求項59に記載のビデオカメラ。
  61. 前記第1の対象イベントの表示は、前記第1の対象イベントの表示と、前記第1のユーザ入力の前に取得された画像データおよび前記第1のユーザ入力の後に連続的に取得された画像データの一部との関連性を示すメタデータを含む、請求項59または請求項60のいずれかに記載のビデオカメラ。
  62. 画像データを選択的に記録する方法であって、
    ビデオカメラの1つまたは複数の画像センサによって連続的に画像データを取得するステップと、
    前記取得画像データを画像データバッファに一時的に記憶するステップと、
    前記画像データが連続的に取得される時に第1の対象イベントを識別する第1のユーザ入力の受信に応答して、前記第1の対象イベントに対応する前記画像データバッファ内の前記取得画像データの少なくとも一部を既存の画像データファイルに記録するステップとを含む方法。
  63. 前記ビデオカメラを使用して、前記画像データバッファ内に一時的に記憶されている前記取得画像データのうち前記既存の画像データファイルに記録されていない残りの部分を記録せずに破棄するステップ
    をさらに含む、請求項62に記載の方法。
  64. 前記記録されている前記画像データバッファ内の前記取得画像データの少なくとも一部は、前記第1のユーザ入力を受信する前に取得された画像データを含む、請求項62または請求項63のいずれかに記載の方法。
  65. 前記記録されている前記画像データバッファ内の前記取得画像データの少なくとも一部は、前記第1のユーザ入力の受信前および受信時に取得された画像データを含む、請求項62〜請求項64のうちのいずれか一項に記載の方法。
  66. 前記記録されている前記画像データバッファ内の前記取得画像データの少なくとも一部は、前記第1のユーザ入力を受信した後に取得された画像データを含む、請求項62〜請求項65のうちのいずれか一項に記載の方法。
  67. 前記記録されている前記画像データバッファ内の前記取得画像データの少なくとも一部は、前記第1のユーザ入力の受信前、受信時、および受信後に取得された画像データを含む、請求項62に記載の方法。
JP2016560667A 2014-04-04 2015-03-31 キャプチャモード付きビデオカメラ Active JP6438046B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461975639P 2014-04-04 2014-04-04
US61/975,639 2014-04-04
PCT/US2015/023509 WO2015153556A1 (en) 2014-04-04 2015-03-31 Video camera with capture modes

Publications (3)

Publication Number Publication Date
JP2017515368A true JP2017515368A (ja) 2017-06-08
JP2017515368A5 JP2017515368A5 (ja) 2018-05-17
JP6438046B2 JP6438046B2 (ja) 2018-12-12

Family

ID=54210036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016560667A Active JP6438046B2 (ja) 2014-04-04 2015-03-31 キャプチャモード付きビデオカメラ

Country Status (5)

Country Link
US (4) US9224045B2 (ja)
EP (1) EP3127322B1 (ja)
JP (1) JP6438046B2 (ja)
ES (1) ES2730404T3 (ja)
WO (1) WO2015153556A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10403325B2 (en) 2014-04-04 2019-09-03 Red.Com, Llc Video camera with capture modes
JP7431549B2 (ja) 2019-10-01 2024-02-15 キヤノン株式会社 符号化装置、撮像装置、制御方法、及びプログラム

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9557885B2 (en) 2011-08-09 2017-01-31 Gopro, Inc. Digital media editing
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US10643271B1 (en) * 2014-01-17 2020-05-05 Glenn Joseph Bronson Retrofitting legacy surveillance systems for traffic profiling and monetization
US9652667B2 (en) 2014-03-04 2017-05-16 Gopro, Inc. Automatic generation of video from spherical content using audio/visual analysis
US9685194B2 (en) 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US9734870B2 (en) 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
CN105847825A (zh) * 2015-01-16 2016-08-10 杭州海康威视数字技术股份有限公司 视频编码码流的编码、索引存储和访问方法及相应装置
US9679605B2 (en) 2015-01-29 2017-06-13 Gopro, Inc. Variable playback speed template for video editing application
US10186012B2 (en) 2015-05-20 2019-01-22 Gopro, Inc. Virtual lens simulation for video and photo cropping
US9894393B2 (en) 2015-08-31 2018-02-13 Gopro, Inc. Video encoding for reduced streaming latency
US11699266B2 (en) * 2015-09-02 2023-07-11 Interdigital Ce Patent Holdings, Sas Method, apparatus and system for facilitating navigation in an extended scene
US10204273B2 (en) 2015-10-20 2019-02-12 Gopro, Inc. System and method of providing recommendations of moments of interest within video clips post capture
US9721611B2 (en) 2015-10-20 2017-08-01 Gopro, Inc. System and method of generating video from video clips based on moments of interest within the video clips
US9639560B1 (en) 2015-10-22 2017-05-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US9681111B1 (en) 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream
US10033928B1 (en) 2015-10-29 2018-07-24 Gopro, Inc. Apparatus and methods for rolling shutter compensation for multi-camera systems
US9973696B1 (en) 2015-11-23 2018-05-15 Gopro, Inc. Apparatus and methods for image alignment
US9792709B1 (en) 2015-11-23 2017-10-17 Gopro, Inc. Apparatus and methods for image alignment
US9848132B2 (en) 2015-11-24 2017-12-19 Gopro, Inc. Multi-camera time synchronization
KR102449872B1 (ko) * 2015-12-18 2022-09-30 삼성전자주식회사 촬영 디바이스 및 그 제어 방법
US10506281B1 (en) * 2015-12-22 2019-12-10 United Services Automobile Association (Usaa) System and method for capturing audio or video data
US9667859B1 (en) 2015-12-28 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US10095696B1 (en) 2016-01-04 2018-10-09 Gopro, Inc. Systems and methods for generating recommendations of post-capture users to edit digital media content field
US10109319B2 (en) 2016-01-08 2018-10-23 Gopro, Inc. Digital media editing
US10298853B2 (en) * 2016-01-13 2019-05-21 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
US9922387B1 (en) 2016-01-19 2018-03-20 Gopro, Inc. Storage of metadata and images
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US9787862B1 (en) * 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9967457B1 (en) 2016-01-22 2018-05-08 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US9812175B2 (en) 2016-02-04 2017-11-07 Gopro, Inc. Systems and methods for annotating a video
US9665098B1 (en) 2016-02-16 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle
US9602795B1 (en) 2016-02-22 2017-03-21 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US9973746B2 (en) 2016-02-17 2018-05-15 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US9743060B1 (en) 2016-02-22 2017-08-22 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
KR102445699B1 (ko) * 2016-02-18 2022-09-21 삼성전자주식회사 전자 장치 및 그의 동작 방법
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US9838731B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing with audio mixing option
US9794632B1 (en) 2016-04-07 2017-10-17 Gopro, Inc. Systems and methods for synchronization based on audio track changes in video editing
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US10348907B1 (en) * 2016-05-12 2019-07-09 Antony P. Ng Collaborative data processing
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9996750B2 (en) * 2016-06-01 2018-06-12 Gopro, Inc. On-camera video capture, classification, and processing
US10219014B2 (en) 2016-06-02 2019-02-26 Biamp Systems, LLC Systems and methods for bandwidth-limited video transport
US10250894B1 (en) 2016-06-15 2019-04-02 Gopro, Inc. Systems and methods for providing transcoded portions of a video
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US9998769B1 (en) 2016-06-15 2018-06-12 Gopro, Inc. Systems and methods for transcoding media files
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10185891B1 (en) 2016-07-08 2019-01-22 Gopro, Inc. Systems and methods for compact convolutional neural networks
US10469909B1 (en) 2016-07-14 2019-11-05 Gopro, Inc. Systems and methods for providing access to still images derived from a video
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US9922428B2 (en) 2016-08-19 2018-03-20 Crystal Instruments Corporation Vibration image acquisition and processing
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US9836853B1 (en) 2016-09-06 2017-12-05 Gopro, Inc. Three-dimensional convolutional neural networks for video highlight detection
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US9934758B1 (en) 2016-09-21 2018-04-03 Gopro, Inc. Systems and methods for simulating adaptation of eyes to changes in lighting conditions
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10268896B1 (en) 2016-10-05 2019-04-23 Gopro, Inc. Systems and methods for determining video highlight based on conveyance positions of video content capture
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US9973792B1 (en) 2016-10-27 2018-05-15 Gopro, Inc. Systems and methods for presenting visual information during presentation of a video segment
US10284809B1 (en) 2016-11-07 2019-05-07 Gopro, Inc. Systems and methods for intelligently synchronizing events in visual content with musical features in audio content
US10262639B1 (en) 2016-11-08 2019-04-16 Gopro, Inc. Systems and methods for detecting musical features in audio content
JP6765940B2 (ja) * 2016-11-16 2020-10-07 キヤノン株式会社 画像処理装置およびその制御方法
US10095932B2 (en) * 2016-12-22 2018-10-09 Sap Se Video abstract using signed foreground extraction and fusion
US10534966B1 (en) 2017-02-02 2020-01-14 Gopro, Inc. Systems and methods for identifying activities and/or events represented in a video
US10194101B1 (en) 2017-02-22 2019-01-29 Gopro, Inc. Systems and methods for rolling shutter compensation using iterative process
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10127943B1 (en) 2017-03-02 2018-11-13 Gopro, Inc. Systems and methods for modifying videos based on music
US10185895B1 (en) 2017-03-23 2019-01-22 Gopro, Inc. Systems and methods for classifying activities captured within images
US10083718B1 (en) 2017-03-24 2018-09-25 Gopro, Inc. Systems and methods for editing videos based on motion
US11494729B1 (en) * 2017-03-27 2022-11-08 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US11087271B1 (en) 2017-03-27 2021-08-10 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US11238401B1 (en) 2017-03-27 2022-02-01 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US10187607B1 (en) 2017-04-04 2019-01-22 Gopro, Inc. Systems and methods for using a variable capture frame rate for video capture
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10187690B1 (en) 2017-04-24 2019-01-22 Gopro, Inc. Systems and methods to detect and correlate user responses to media content
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US10402656B1 (en) 2017-07-13 2019-09-03 Gopro, Inc. Systems and methods for accelerating video analysis
US20190138795A1 (en) * 2017-11-07 2019-05-09 Ooma, Inc. Automatic Object Detection and Recognition via a Camera System
US10668971B2 (en) * 2018-02-21 2020-06-02 Timothy Denholm Bicycle safety apparatus and methods
WO2019204969A1 (en) 2018-04-23 2019-10-31 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods for automatically switching video capturing and playing back frame rate
US20190342525A1 (en) * 2018-05-03 2019-11-07 Sensormatic Electronics, LLC Video summarization systems and methods
US11138344B2 (en) 2019-07-03 2021-10-05 Ooma, Inc. Securing access to user data stored in a cloud computing environment
CN112543368A (zh) * 2019-09-20 2021-03-23 北京小米移动软件有限公司 视频处理方法、视频播放方法、装置及存储介质
JP7188418B2 (ja) * 2020-06-25 2022-12-13 横河電機株式会社 装置、方法およびプログラム
CN114827454B (zh) * 2022-03-15 2023-10-24 荣耀终端有限公司 视频的获取方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP2012514391A (ja) * 2008-12-29 2012-06-21 レッド.コム,インコーポレイテッド モジュール式のデジタルカメラ
JP2013219761A (ja) * 2012-03-14 2013-10-24 Panasonic Corp 画像処理装置、撮像装置、およびコンピュータプログラム
KR20130127754A (ko) * 2012-05-15 2013-11-25 에스케이플래닛 주식회사 하이라이트 동영상 기록 장치 및 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226271B2 (ja) * 1989-07-27 2001-11-05 オリンパス光学工業株式会社 ディジタル電子スチルカメラ
US7532807B2 (en) * 1995-04-07 2009-05-12 Avid Technology, Inc. Combined editing system and digital moving picture recording system
US5778108A (en) 1996-06-07 1998-07-07 Electronic Data Systems Corporation Method and system for detecting transitional markers such as uniform fields in a video signal
US5897228A (en) 1997-02-28 1999-04-27 Eastman Kodak Company Camera with low cost interchangeable pushbutton annotation
US6833865B1 (en) 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
JP3694208B2 (ja) 2000-02-07 2005-09-14 ペンタックス株式会社 カメラ
US7102670B2 (en) 2001-10-31 2006-09-05 Hewlett-Packard Development Company, L.P. Bookmarking captured digital images at an event to all present devices
JP2004133536A (ja) 2002-10-08 2004-04-30 Canon Inc メタデータ自動作成・更新装置、メタデータ自動作成・更新方法および該作成・更新方法を実現するためのプログラム
JP4332365B2 (ja) 2003-04-04 2009-09-16 ソニー株式会社 メタデータ表示システム,映像信号記録再生装置,撮像装置,メタデータ表示方法
US7447331B2 (en) * 2004-02-24 2008-11-04 International Business Machines Corporation System and method for generating a viewable video index for low bandwidth applications
CN101356800B (zh) 2006-03-23 2011-07-27 松下电器产业株式会社 内容拍摄装置
US20080094476A1 (en) * 2006-10-18 2008-04-24 Southern Vision Systems, Inc. System and Method of High-Speed Image-Cued Triggering
KR101323219B1 (ko) * 2007-01-08 2013-10-30 삼성전자주식회사 타임쉬프트 기능을 제공하는 촬영장치 및 그 방법
WO2008111308A1 (ja) * 2007-03-12 2008-09-18 Panasonic Corporation コンテンツ撮影装置
US8270303B2 (en) 2007-12-21 2012-09-18 Hand Held Products, Inc. Using metadata tags in video recordings produced by portable encoded information reading terminals
US20090227285A1 (en) * 2008-03-06 2009-09-10 Samsung Electronics Co., Ltd. Click and pick video recording with on-line editing
KR101007247B1 (ko) * 2009-05-20 2011-01-13 엠텍비젼 주식회사 영상 저장 장치 및 영상 저장 방법
JP2010288160A (ja) 2009-06-12 2010-12-24 Canon Inc メタデータ付与方法、メタデータ付与装置、及びプログラム
US20110262103A1 (en) 2009-09-14 2011-10-27 Kumar Ramachandran Systems and methods for updating video content with linked tagging information
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20110263946A1 (en) * 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US8903798B2 (en) 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US8803991B2 (en) 2011-10-12 2014-08-12 Cisco Technology, Inc. Snapshot capture in video stream
US8934045B2 (en) 2012-03-12 2015-01-13 Apple Inc. Digital camera system having remote control
KR101909030B1 (ko) * 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
US10482777B2 (en) 2013-02-22 2019-11-19 Fuji Xerox Co., Ltd. Systems and methods for content analysis to support navigation and annotation in expository videos
JP6438046B2 (ja) 2014-04-04 2018-12-12 レッド.コム,エルエルシー キャプチャモード付きビデオカメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP2012514391A (ja) * 2008-12-29 2012-06-21 レッド.コム,インコーポレイテッド モジュール式のデジタルカメラ
JP2013219761A (ja) * 2012-03-14 2013-10-24 Panasonic Corp 画像処理装置、撮像装置、およびコンピュータプログラム
KR20130127754A (ko) * 2012-05-15 2013-11-25 에스케이플래닛 주식회사 하이라이트 동영상 기록 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10403325B2 (en) 2014-04-04 2019-09-03 Red.Com, Llc Video camera with capture modes
JP7431549B2 (ja) 2019-10-01 2024-02-15 キヤノン株式会社 符号化装置、撮像装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
EP3127322B1 (en) 2019-05-08
US20150286875A1 (en) 2015-10-08
US9224045B2 (en) 2015-12-29
US9536150B2 (en) 2017-01-03
US10403325B2 (en) 2019-09-03
WO2015153556A1 (en) 2015-10-08
ES2730404T3 (es) 2019-11-11
EP3127322A1 (en) 2017-02-08
JP6438046B2 (ja) 2018-12-12
US20170163861A1 (en) 2017-06-08
US20150287435A1 (en) 2015-10-08
US20190019534A1 (en) 2019-01-17
EP3127322A4 (en) 2017-03-15
US10026451B2 (en) 2018-07-17

Similar Documents

Publication Publication Date Title
JP6438046B2 (ja) キャプチャモード付きビデオカメラ
US11570414B2 (en) Imaging device
US8780214B2 (en) Imaging apparatus using shorter and larger capturing intervals during continuous shooting function
US9225904B2 (en) Image capture method and image capture system thereof
US10362262B2 (en) Data recording apparatus and method of controlling the same
US20120087636A1 (en) Moving image playback apparatus, moving image management apparatus, method, and storage medium for controlling the same
US9972355B2 (en) Image processing apparatus, method for controlling image processing apparatus, and non-transitory computer readable storage medium
JP2008010979A (ja) カメラ装置
US8760541B2 (en) Shooting apparatus and mode setting method for controlling a shooting mode of a shooting apparatus
US10165223B2 (en) Pre-selectable video file playback system and method, and computer program product
US20100195989A1 (en) Image reproducing apparatus and image reproducing method
US9955135B2 (en) Image processing apparatus, image processing method, and program wherein a RAW image to be subjected to special processing is preferentially subjected to development
JP2012151708A (ja) 撮像装置
US11064117B2 (en) Imaging apparatus and recording control method
JP2017041801A (ja) 撮像装置、情報処理方法及びプログラム
JP2009027542A (ja) 画像処理装置およびこれを備えるカメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181115

R150 Certificate of patent or registration of utility model

Ref document number: 6438046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250