JP2016015584A - ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法 - Google Patents

ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法 Download PDF

Info

Publication number
JP2016015584A
JP2016015584A JP2014136089A JP2014136089A JP2016015584A JP 2016015584 A JP2016015584 A JP 2016015584A JP 2014136089 A JP2014136089 A JP 2014136089A JP 2014136089 A JP2014136089 A JP 2014136089A JP 2016015584 A JP2016015584 A JP 2016015584A
Authority
JP
Japan
Prior art keywords
video
sound
data
network camera
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014136089A
Other languages
English (en)
Inventor
克彦 河守
Katsuhiko Kawamori
克彦 河守
前 愛州
Yoshikuni Mae
愛州 前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2014136089A priority Critical patent/JP2016015584A/ja
Publication of JP2016015584A publication Critical patent/JP2016015584A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コストを低減したネットワークカメラシステムを提供する。【解決手段】ネットワークカメラシステム9では、ネットワークカメラ1が、映像データおよび当該映像データに対応する時間帯の音データを映像フレームに格納し、その映像フレームを含む情報を受信装置2に送信する。受信装置2は、受信した情報に含まれる映像フレームから、映像データおよび音データを取得し、それらを復元して映像信号および音信号を生成し、同期して再生する。【選択図】図1

Description

本発明は、ネットワークを経由して伝送した映像と音とを同期して再生する技術に関する。
近年、インターネット等のネットワークを介して、映像データおよび音(音声を含む)データを送信する機能を備えるネットワークカメラが普及してきている。このようなネットワークカメラでは、キャプチャしたアナログ形式の映像信号とアナログ形式の音信号とは、別々のフォーマットにデジタルエンコードされ、映像データと音データとに変換される。そして、映像データおよび音データは、別々のデータブロックとして処理されて、ネットワーク経由で受信装置に送信される。
インターネット等のネットワークでは、データはパケットと呼ばれる小単位で送信され、そのパケットの伝送経路において輻輳等が発生すると、データの到着に遅延が発生する。また、パケットそれぞれが複数の経路を経由して目的地に到着した場合には、着順の逆転が発生してしまうことがある。つまり、ネットワークでは、パケットの遅延および着順が保障されない場合がある。したがって、ネットワークカメラシステムでは、受信装置において映像信号と音信号とを同期して再生できるようにするための同期対策を講じる必要がある。
映像信号と音信号とを同期する方法として、MPEG(Moving Picture Experts Group)2−TS(Transport Stream)方式のケースについて説明する。MPEG2−TS方式は、映像データと音データとをパケット化するときに、パケットのヘッダ部に、映像データと音データとのメディア間同期のために提示時刻情報を付加する。提示時刻情報は、映像データの場合には、受信装置の表示部に映像信号を表示(再生)する時刻となる。また、音データの場合には、提示時刻情報は、スピーカに音を出力する時刻となる。この提示時刻情報は、送信側で付加される。また、送信側と受信側とのシステム同期のために、システム時刻基準参照値が、付加される。そして、送信側から、これらの二つの時刻情報を付加したパケットが受信側に送信される。
受信側では、システム時刻基準参照値が提示時刻情報の示す時刻になると、該当するデータを復号した映像信号を表示装置に表示し、音信号をスピーカから出力する。
特許文献1には、時刻情報を用いて同期処理を実行する場合において、送信側では最大遅延時間を決定することの困難性や、回路規模が大きくなるという問題点と、それを解決するための手段が開示されている。
特開平10−313448号公報
しかしながら、特許文献1では依然として時刻情報が用いられているために、ネットワークカメラと受信装置とによって構成されるネットワークカメラシステムは、その時刻情報に関する処理のために、データ管理が複雑となり、高価なシステムになってしまっているという問題がある。
そこで、本発明では、コストを低減したネットワークカメラシステムを提供することを課題とする。
前記課題を解決するために、本発明は、映像シーンを撮影し撮影時の周囲の音を集音するネットワークカメラと、ネットワークを介して前記ネットワークカメラと通信可能に接続される受信装置とを備えるネットワークカメラシステムであって、ネットワークカメラが、映像データおよび当該映像データに対応する音データを同じ映像フレームに格納し、その映像フレームを含む情報を受信装置に送信する。受信装置は、受信した情報に含まれる映像フレームから、映像データおよび音データを取得し、それらを復元して映像信号および音信号を生成し、同期して再生することを特徴とする。
本発明によれば、コストを低減したネットワークカメラシステムを提供することができる。
ネットワークカメラシステムの構成例を示す図である。 映像フレームの構成例を示す図である。 ネットワークカメラの機能例を示す図である。 受信装置の機能例を示す図である。 映像信号および音信号をデータ化し送信し再生する処理のタイミングチャートの一例を示す図である。 ネットワークカメラシステムの処理フロー例を示す図である。
ここで、本発明を実施するための形態(以降、「本実施形態」と称す。)について、適宜図面を参照しながら詳細に説明する。
(ネットワークカメラシステム)
はじめに、ネットワークカメラシステムについて、図1を用いて説明する。図1は、ネットワークカメラシステム9の構成例を表している。
図1に示すように、ネットワークカメラシステム9は、ネットワークカメラ1および受信装置2を備えている。なお、図1では、ネットワークカメラ1は、3台記載されているが、3台に限られることはなく、1台以上でもよい。
ネットワークカメラ1は、ネットワーク3を介して、受信装置2と接続している。なお、ネットワーク3は、有線、無線のいずれかまたは双方の組み合わせで構成される。
ネットワークカメラ1は、撮影によって取得したアナログ形式の映像信号と撮影時に集音したアナログ形式の音信号(音声を含む)とを符号化して、映像データおよび音データに変換(データ化)し、それらのデータをパケット化し、ネットワーク3を介してパケットを受信装置2に送信する機能を有する。なお、ネットワークカメラ1の機能の詳細については後記する。
受信装置2は、受信したパケットに含まれるデータから映像信号および音信号を生成し、それらを再生する機能を有する。なお、受信装置2の機能の詳細についても後記する。
(映像フレーム)
次に、映像信号をデータ化した映像データと、音信号をデータ化した音データとを格納する映像フレームの構成例について、図2を用いて説明する。
図2に示す上段のフレーム構成は、H.264やMPEG2で用いられているもので、大きく分けると、3つの領域(映像ヘッダ領域51a、ユーザ領域51b、映像データ領域51c)で構成される。
映像ヘッダ領域51aは、映像データの復号化処理に必要な情報や設定情報(データ化に関する情報)が格納される領域である。
ユーザ領域51bは、ネットワークカメラ1の機種名等、ユーザによって任意の情報を書き込むことが許されている領域である。
映像データ領域51cは、映像データが格納される領域である。
本実施形態では、ユーザ領域51bに音データを格納することによって、映像データと音データとを一体管理し、同期処理の負荷を軽減する。具体的には、図2の下段に示すように、音データに関して、音ヘッダ領域52a、ユーザ領域52b、音データ領域52cのデータを、ユーザ領域51bに格納する。なお、音ヘッダ領域52aには、音データの復号化処理に必要な情報や設定情報が格納される。ユーザ領域52bには、ユーザによって任意の情報を書き込める。音データ領域52cは、音データが格納される。音データのサイズは、一般的に32kbps〜128kbpsであるので、ユーザ領域51bに書込み可能な大きさである。
(ネットワークカメラ)
次に、ネットワークカメラ1の機能例について、図3を用いて説明する(適宜、図2参照)。
図3に示すように、ネットワークカメラ1は、機能として、撮像部11、映像符号化部12、映像バッファ部13、集音部14、音符号化部15、音バッファ部16、統合処理部17、送信バッファ部18および送信部19を備える。
撮像部11は、被写体を撮影するカメラの機能を有する。
映像符号化部12は、撮像部11によって撮影されたシーンの映像信号を符号化(データ化)し、映像データを生成する機能を有する。
映像バッファ部13は、映像符号化部12によって生成された映像データを、一時的に記憶する機能を有する。
集音部14は、ネットワークカメラ1の設置されている周辺の音(音声を含む)を取得する機能を有する。
音符号化部15は、集音部14によって取得された音信号を符号化(データ化)し、音データを生成する機能を有する。
音バッファ部16は、音符号化部15によって生成された音データを、一時的に記憶する機能を有する。
統合処理部17は、映像バッファ部13から読み出した映像データと、音バッファ部16から読み出した音データとをメモリ上に展開し、図2に示す映像フレーム5のユーザ領域51bに音データを格納し、映像データ領域51cに映像データを格納する。例えば、毎秒30フレームの映像データの場合、統合処理部17は、33ms分の音データを格納する。また、毎秒30フレーム未満の間欠フレーム設定がなされている映像データの場合、統合処理部17は、設定されたフレーム間の時間分の音データを読み出して、その読み出した音データをユーザ領域51bに格納する機能を有する。
送信バッファ部18は、映像データおよび音データの格納された映像フレーム5を一時的に記憶する機能を有する。
送信部19は、通信インタフェースを備え、送信バッファ部18から映像フレーム5を読み出して、読み出した映像フレーム5をパケット化し、ネットワーク3を経由して受信装置2にパケットによって映像フレーム5を送信する機能を有する。
(受信装置)
次に、受信装置2の機能例について、図4を用いて説明する(適宜、図2参照)。
受信装置2は、受信部21、受信バッファ部22、分離処理部23、映像復号化部24、音復号化部25を備える。なお、記憶部26は、必ずしも備えられていなくとも構わない。
受信部21は、ネットワーク3を経由して送信されてきたパケットをデパケット化して元の映像フレーム5を生成し、映像フレーム5を受信する機能を有する。
受信バッファ部22は、受信部21によって取得された映像フレーム5を一時的に記憶する機能を有する。
分離処理部23は、受信バッファ部22から映像フレーム5を読み出して、映像ヘッダ領域51aの情報に基づいて、その映像フレーム5が直ちに表示すべきライブ映像か、記憶部26に記憶しておく記録映像かを判定する機能を有する。分離処理部23は、ライブ映像であると判定した場合、映像フレーム5から映像データと音データとを読み取る(取得する)機能を有する。
また、分離処理部23は、記録映像であると判定した場合、映像フレーム5のまま、記憶部26に記憶する機能を有する。そして、分離処理部23は、記憶部26に記憶した映像フレーム5を再生する場合には、映像フレーム5を記憶部26から読み出して、ライブ映像の場合と同様に、映像フレーム5から映像データと音データとを読み取る。
映像復号化部24は、映像データを復号化(復元)して、表示装置31に表示する映像信号を生成し出力する機能を有する。
音復号化部25は、音データを復号化(復元)して音信号を生成し、スピーカ32に映像信号の出力と同時に音信号を出力する機能を有する。
表示装置31は、例えば、ディスプレイであり、映像復号化部24によって生成された映像信号を表示する。
スピーカ32は、音復号化部25によって生成された音信号を出力する。
このように、本実施形態のネットワークカメラシステム9は、映像フレーム5に、同じ時間帯の映像データと音データとを格納しているので、時刻情報を用いなくても、同期処理を実行することができる。また、ネットワークカメラシステム9は、映像フレーム5に、同じ時間帯の映像データと音データとを格納しているので、パケットの到着にゆらぎがある場合であっても、映像データと音データとのメディア間にゆらぎを生じることはない。したがって、ネットワークカメラシステム9は、データ管理が簡単となり、コストを低減することができる。
(タイミングチャート)
次に、映像信号および音信号をデータ化して送信し再生する処理のタイミングチャートの一例について、図5を用いて説明する(適宜、図2〜図4参照)。図5の横軸方向は、時刻を表している。図5の縦方向の上段は、送信側のネットワークカメラ1における処理のタイミングを表し、中段は、映像フレーム5を送信するタイミングを表し、下段は、受信装置2における再生処理のタイミングを模式的に表している。
図5は、所定の間隔(一定周期)で、映像信号が取得される場合を表している。例えば、映像信号が毎秒30フレームの場合には、間隔は33msとなる。図5では、入力映像41aの先頭の時刻がt1、入力映像41bの先頭の時刻がt2、入力映像41cの先頭の時刻がt3と表している。
図5の上段に示すように、ネットワークカメラ1は、入力映像41a(映像信号)を取得し、当該入力映像41aをデータ化した映像データを、中段に示す映像フレーム5aの映像データ領域に格納する。また、ネットワークカメラ1は、時刻t1〜時刻t2の入力音42a(音信号)を取得し、当該入力音42aをデータ化した音データを、中段に示す映像フレーム5aのユーザ領域に格納する。なお、映像フレーム5aの生成は、時刻t2以降に行うことによって、入力音42aの音データを当該映像フレーム5aに格納することができる。ただし、図5では、例えば、毎秒15フレームのように映像信号を間引いた場合を表しているので、入力映像41aの長さが入力音42aの長さより短く表現している。
同様に、ネットワークカメラ1は、図5の上段に示すように、入力映像41b(映像信号)を取得し、当該入力映像41bをデータ化した映像データを、中段に示す映像フレーム5bの映像データ領域に格納する。また、ネットワークカメラ1は、時刻t2〜時刻t3の入力音42b(音信号)を取得し、当該入力音42bをデータ化した音データを、中段に示す映像フレーム5bのユーザ領域に格納する。なお、映像フレーム5bの生成は、時刻t3以降に行うことによって、入力音42bの音データを当該映像フレーム5bに格納することができる。
また、ネットワークカメラ1は、図5の上段に示すように、入力映像41c(映像信号)を取得し、当該入力映像41cをデータ化した映像データを、中段に示す映像フレーム5cの映像データ領域に格納する。また、ネットワークカメラ1は、時刻t3〜時刻t4の入力音42c(音信号)を取得し、当該入力音42cをデータ化した音データを、中段に示す映像フレーム5cのユーザ領域に格納する。なお、映像フレーム5cの生成は、時刻t4以降に行うことによって、入力音42cの音データを当該映像フレーム5cに格納することができる。
次に、受信装置2は、図5の下段に示すように、映像フレーム5aから取り出した映像データを復元して出力映像43a(映像信号)生成する。また、受信装置2は、映像フレーム5aから取り出した音データを復元して出力音44a(音信号)を生成する。受信装置2は、出力映像43aおよび出力音44aが同じ映像フレーム5aによって送信されてきた信号であると判定できるので、双方の再生開始時刻を同じに設定できる。なお、図5では、出力映像43aおよび出力音44aの復元は、時刻t3〜時刻t4の区間内に行われるように記載しているが、ネットワーク3内の遅延等の影響を受けるため、必ずしも当該区間内で行われなくともよい。
また、受信装置2は、図5の下段に示すように、映像フレーム5bから取り出した映像データを復元して出力映像43b(映像信号)を生成する。また、受信装置2は、映像フレーム5bから取り出した音データを復元して出力音44b(音信号)を生成する。受信装置2は、出力映像43bおよび出力音44bが同じ映像フレーム5bによって送信されてきた信号であると判定できるので、双方の再生開始時刻を同じに設定できる。なお、図5では、出力映像43bおよび出力音44bの復元は、出力音44bの再生開始が出力音44aの再生終了後に連続可能なように間に合えばよく、時刻t4〜時刻t5の区間内に行われなくともよい。
また、受信装置2は、図5の下段に示すように、映像フレーム5cから取り出した映像データを復元して出力映像43c(映像信号)を生成する。また、受信装置2は、映像フレーム5cから取り出した音データを復元して出力音44c(音信号)を生成する。受信装置2は、出力映像43cおよび出力音44cが同じ映像フレーム5cによって送信されてきた信号であると判定できるので、双方の再生開始時刻は同じに設定できる。なお、図5では、出力映像43cおよび出力音44cの復元は、出力音44cの再生開始が出力音44bの再生終了後に連続可能なように間に合えばよく、時刻t5〜時刻t6の区間内に行われなくともよい。
(処理フロー)
最後に、ネットワークカメラシステム9の処理フロー例について、図6を用いて説明する(適宜、図2〜図4参照)。
ステップS601では、ネットワークカメラ1において、撮像部11は映像信号を取得し、集音部14は音信号を取得する。
ステップS602では、映像符号化部12は映像信号を符号化して映像データを生成し、音符号化部15は音信号を符号化して音データを生成する。
ステップS603では、統合処理部17は、映像データおよび当該映像データに対応する時間帯の音データを取得し、映像フレーム5を生成する。ここで、「当該映像データに対応する時間帯の音データ」とは、当該映像信号の取得を開始した時刻から次の映像信号の取得を開始する直前の時刻までの時間に取得される音信号をデータ化した音データという意味である。そして、統合処理部17は、映像データを映像フレーム5の映像データ領域51cに格納し、音データを音データ領域52cに格納する。
ステップS604では、送信部19は、映像フレーム5をパケット化し、パケットによって映像フレーム5をネットワーク3を介して受信装置2へ送信する。
ステップS605では、受信装置2の受信部21は、受信したパケットをデパケット化して映像フレーム5を生成し、映像フレーム5を受信する。
ステップS606では、分離処理部23は、映像フレーム5から、映像データおよび音データを取得する。
ステップS607では、映像復号化部24は映像データを復号化(復元)して映像信号を生成し、音復号化部25は音データを復号化(復元)して音信号を生成する。
ステップS608では、映像復号化部24は映像信号を表示措置31に出力し、音復号化部25は音信号をスピーカに出力する。なお、映像復号化部24の出力と音復号化部25の出力は、同時に開始される。
そして、処理は終了する。
以上、ネットワークカメラシステム9では、ネットワークカメラ1が、映像データおよび当該映像データに対応する同時間帯の音データを映像フレーム5に格納してパケット化し、そのパケットを受信装置2に送信する。受信装置2は、受信したパケットに含まれる映像フレーム5から、映像データおよび音データを取得し、それらを復号化して映像信号および音信号を生成し、再生する。このように、ネットワークカメラシステム9では、時刻情報を用いることなく、映像信号と音信号との同期を容易にとることができるので、複雑な処理を不要とし、コストを低減することができる。また、ネットワークカメラシステム9は、映像フレーム5に、同じ時間帯の映像データと音データとを格納しているので、パケットの到着にゆらぎがある場合であっても、映像データと音データとのメディア間にゆらぎを生じることはない。
なお、本発明は上記した本実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した本実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも、説明したすべての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の変形例の構成に置き換えることが可能であり、ある実施形態の構成に他の変形例の構成を加えることも可能である。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、ネットワークカメラ1および受信装置2の各部等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、ネットワークカメラ1および受信装置2の各部等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、またはICカード、SDカード、DVD(Digital Versatile Disc)等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてもよい。
1 ネットワークカメラ
2 受信装置
3 ネットワーク
5 映像フレーム
9 ネットワークカメラシステム
11 撮像部
12 映像符号化部
13 映像バッファ部
14 集音部
15 音符号化部
16 音バッファ部
17 統合処理部
18 送信バッファ部
19 送信部
21 受信部
22 受信バッファ部
23 分離処理部
24 映像復号化部
25 音復号化部
26 記憶部
31 表示装置
32 スピーカ
51a 映像ヘッダ領域(共通のヘッダ)
51b ユーザ領域
51c 映像データ領域
52a 音ヘッダ領域
52b ユーザ領域
52c 音データ領域

Claims (5)

  1. 映像シーンを撮影し撮影時の周囲の音を集音するネットワークカメラと、ネットワークを介して前記ネットワークカメラと通信可能に接続される受信装置とを備えるネットワークカメラシステムであって、
    前記ネットワークカメラは、
    撮影した映像シーンの映像信号をデータ化して映像データを生成する映像符号化部と、
    集音した音の音信号をデータ化して音データを生成する音符号化部と、
    前記映像信号の映像データと当該映像信号の取得を開始した時刻から次の映像信号の取得を開始する直前の時刻までの時間に取得される音信号をデータ化した前記音データとを同じ映像フレームに格納する統合処理部と、
    前記映像フレームを含む情報を前記受信装置に送信する送信部と、
    を備え、
    前記受信装置は、
    前記映像フレームを含む情報を受信する受信部と、
    受信した前記映像フレームを含む情報から前記映像データと前記音データとを取得する分離処理部と、
    当該映像データを復元して前記映像信号を生成し、当該映像信号を出力する映像復号化部と、
    当該音データを復元して前記音信号を生成し、当該映像信号の出力と同時に当該音信号を出力する音復号化部と、
    を備えることを特徴とするネットワークカメラシステム。
  2. 前記映像フレームが、前記映像データのデータ化に関する情報を格納する映像ヘッダ領域、任意の情報を格納するユーザ領域、前記映像データを格納する映像データ領域で構成されている場合、
    前記統合処理部は、前記ユーザ領域に、前記音データを格納する
    ことを特徴とする請求項1に記載のネットワークカメラシステム。
  3. 映像シーンを撮影した情報および撮影時の周囲の音を集音した情報をネットワークを介して受信装置に送信するネットワークカメラであって、
    撮影した映像シーンの映像信号をデータ化して映像データを生成する映像符号化部と、
    集音した音の音信号をデータ化して音データを生成する音符号化部と、
    前記映像信号の映像データと当該映像信号の取得を開始した時刻から次の映像信号の取得を開始する直前の時刻までの時間に取得される音信号をデータ化した前記音データとを同じ映像フレームに格納する統合処理部と、
    前記映像フレームを含む情報を前記受信装置に送信する送信部と、
    を備えることを特徴とするネットワークカメラ。
  4. 前記映像フレームが、前記映像データのデータ化に関する情報を格納する映像ヘッダ領域、任意の情報を格納するユーザ領域、前記映像データを格納する映像データ領域で構成されている場合、
    前記統合処理部は、前記ユーザ領域に、前記音データを格納する
    ことを特徴とする請求項3に記載のネットワークカメラ。
  5. 映像シーンを撮影した情報および撮影時の周囲の音を集音した情報をネットワークを介して受信装置に送信するネットワークカメラの音映像送信方法であって、
    前記ネットワークカメラは、
    撮影した映像シーンの映像信号をデータ化して映像データを生成する映像符号化ステップと、
    集音した音の音信号をデータ化して音データを生成する音符号化ステップと、
    前記映像信号の映像データと当該映像信号の取得を開始した時刻から次の映像信号の取得を開始する直前の時刻までの時間に取得される音信号をデータ化した前記音データとを同じ映像フレームに格納する統合処理ステップと、
    前記映像フレームを含む情報を前記受信装置に送信する送信ステップと、
    を実行することを特徴とする音映像送信方法。
JP2014136089A 2014-07-01 2014-07-01 ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法 Pending JP2016015584A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014136089A JP2016015584A (ja) 2014-07-01 2014-07-01 ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136089A JP2016015584A (ja) 2014-07-01 2014-07-01 ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法

Publications (1)

Publication Number Publication Date
JP2016015584A true JP2016015584A (ja) 2016-01-28

Family

ID=55231484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136089A Pending JP2016015584A (ja) 2014-07-01 2014-07-01 ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法

Country Status (1)

Country Link
JP (1) JP2016015584A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105771A1 (ko) * 2016-12-07 2018-06-14 주식회사 이에스엠연구소 실시간 동영상 재생파일 전송장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63203080A (ja) * 1987-02-18 1988-08-22 Matsushita Electric Ind Co Ltd 監視装置
JPH0646423A (ja) * 1992-07-21 1994-02-18 Shinkiyou Denshi Kk 映像伝送ケーブルを利用したデータ多重伝送装置
WO2001045401A1 (fr) * 1999-12-17 2001-06-21 Sony Corporation Dispositif et procede d'emission de donnees et dispositif et procede de reception de donnees
JP2002199359A (ja) * 2000-10-12 2002-07-12 Matsushita Electric Ind Co Ltd 信号送信装置及び信号受信装置
JP2012084972A (ja) * 2010-10-07 2012-04-26 Ntt Electornics Corp Mxf処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63203080A (ja) * 1987-02-18 1988-08-22 Matsushita Electric Ind Co Ltd 監視装置
JPH0646423A (ja) * 1992-07-21 1994-02-18 Shinkiyou Denshi Kk 映像伝送ケーブルを利用したデータ多重伝送装置
WO2001045401A1 (fr) * 1999-12-17 2001-06-21 Sony Corporation Dispositif et procede d'emission de donnees et dispositif et procede de reception de donnees
JP2002199359A (ja) * 2000-10-12 2002-07-12 Matsushita Electric Ind Co Ltd 信号送信装置及び信号受信装置
JP2012084972A (ja) * 2010-10-07 2012-04-26 Ntt Electornics Corp Mxf処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105771A1 (ko) * 2016-12-07 2018-06-14 주식회사 이에스엠연구소 실시간 동영상 재생파일 전송장치 및 방법

Similar Documents

Publication Publication Date Title
JP4515465B2 (ja) 動画撮影装置および動画撮影方法、記録媒体に記録された映像信号を再生する動画再生装置および動画再生方法
CN101076121B (zh) 流生成装置、成像装置、数据处理装置和流生成方法
JP4332364B2 (ja) 映像記録システム,映像記録方法
JP4978324B2 (ja) 画像記録装置、画像記録システム、画像再生方法
JP2008311888A5 (ja)
US10224055B2 (en) Image processing apparatus, image pickup device, image processing method, and program
JP2013229860A (ja) 記録装置および記録システム
JP4303535B2 (ja) デコード表示装置、撮像装置及びそれらを備えた画像伝送システム
JP6606526B2 (ja) 同期制御装置及び同期制御方法
JP2010278481A (ja) データ処理装置
JP2016015584A (ja) ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法
JP2009182754A (ja) 画像処理装置
US8428422B2 (en) Moving picture multiplexing apparatus, audio and video recording apparatus and moving picture multiplexing method
JP2007158434A (ja) カメラレコーダ
KR100899046B1 (ko) 동영상 촬영 장치, 동영상 재생 장치, 동영상 촬영 방법, 부호화 영상 신호 재생 방법, 및 동영상 재생 방법
JP2007312007A (ja) 動画像データ処理装置、ストリーム生成装置、撮像装置、および動画像データ処理方法
JP5500188B2 (ja) 撮像装置
JP2006180315A (ja) 動画撮影装置、動画再生装置および動画撮影方法、動画再生方法
JP2007243706A (ja) データフォーマット変換装置及びデータフォーマット変換方法
JP2009159314A (ja) 記録装置、再生装置、記録方法、再生方法及びプログラム
JP2007221535A (ja) データ処理装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP6806577B2 (ja) 記録装置及びその制御方法及びプログラム
JP2015184702A (ja) 映像表示装置、携帯端末、情報提供システム及び映像表示方法
JP2015029211A (ja) 撮像装置
JP2008035156A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181009