JP2000236466A - Recording device and reproducing device - Google Patents

Recording device and reproducing device

Info

Publication number
JP2000236466A
JP2000236466A JP11037423A JP3742399A JP2000236466A JP 2000236466 A JP2000236466 A JP 2000236466A JP 11037423 A JP11037423 A JP 11037423A JP 3742399 A JP3742399 A JP 3742399A JP 2000236466 A JP2000236466 A JP 2000236466A
Authority
JP
Japan
Prior art keywords
data
image
sensor
recording
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11037423A
Other languages
Japanese (ja)
Inventor
Takashi Fukushima
貴司 福島
Shinji Katsuki
信二 勝木
Shiro Morotomi
司郎 諸冨
Tomoyo Kashimoto
智代 樫本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11037423A priority Critical patent/JP2000236466A/en
Publication of JP2000236466A publication Critical patent/JP2000236466A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve entertainment and handleability concerning editing by recording sensor information obtained by a sensor information input means at the time of recording picture information in a recording medium. SOLUTION: A video signal processing part 3 gives compressing processing with respect to video signal, voice data, e.g. and divides compressed picture data and compressed voice data of the same time by the unit of a packet to write into a buffer memory 32 under the control of a data processing/system control circuit 31. Processing for fetching (writing) sensor data inputted at the same time of fetched compressed picture data and compressed voice data in the memory 32 is executed. Then, fetched compressed picture data, compressed voice data and sensor data are generated as one packet of data. Then, control processing for writing the obtained packet in a disk is executed. Thus, picked up image, sound absorbing voice and sensor data are recorded.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、撮像画像の記録/
再生を行うことのできる記録装置、及び再生装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention
The present invention relates to a recording device capable of performing reproduction and a reproducing device.

【0002】[0002]

【従来の技術】カメラ装置とVTRが一体となったビデ
オカメラ装置が広く普及している。このようなビデオカ
メラでは、ユーザが撮影した撮像画像及び収音した音声
を記録し、また、記録媒体に記録された画像/音声を再
生することができる。
2. Description of the Related Art Video camera devices in which a camera device and a VTR are integrated are widely used. In such a video camera, a captured image captured by a user and sound collected by a user can be recorded, and an image / sound recorded on a recording medium can be reproduced.

【0003】また、ビデオカメラ装置によって録画した
画像/音声をただ再生するのではなく、ユーザが編集を
行ってより娯楽性のある作品に仕上げるといったこと
も、しばしば行われている。
[0003] It is often the case that a user edits an image / sound recorded by a video camera apparatus to make the work more entertaining, rather than simply reproducing the image / sound.

【0004】例えば、このような編集としては、例えば
録画時に関連して得られた何らかの画像/音声以外の付
加情報を画像として、再生画像にインポーズ(合成)さ
せることなどが考えられる。このような編集を行う場
合、一般的には、パーソナルコンピュータ等の編集装置
を別途使用することになる。例えば、ユーザはビデオカ
メラにより画像/音声情報を記録媒体に記録する。ま
た、これに関連する所定内容の付加情報も別の装置によ
り記録して保存しておく。そして、編集時においては、
例えば、所定のアプリケーションソフトウェアを用い
て、ビデオカメラにより録画した情報と、別途保存して
おいた付加情報をパーソナルコンピュータに取り込む。
そして、パーソナルコンピュータ上で、録画された画像
に対して、例えば付加情報を画像として合成するといっ
た編集操作を行うようにされる。
For example, as such editing, it is conceivable to impose (synthesize) a reproduced image as an image using additional information other than some image / sound obtained at the time of recording. In performing such editing, generally, an editing device such as a personal computer is separately used. For example, a user records image / audio information on a recording medium using a video camera. Further, additional information of a predetermined content related thereto is recorded and stored by another device. And when editing,
For example, using a predetermined application software, the information recorded by the video camera and the separately stored additional information are taken into a personal computer.
Then, on the personal computer, an editing operation such as combining additional information as an image is performed on the recorded image.

【0005】[0005]

【発明が解決しようとする課題】但し、ビデオカメラの
ユーザによっては、パーソナルコンピュータ等の編集用
の機器を所有していないこともあり、この場合には、上
記したような編集作業を行うことは困難である。
However, some video camera users do not have editing equipment such as a personal computer. Have difficulty.

【0006】また、ユーザが編集機器を所有していたと
しても、上述したような編集作業は、比較的高度で複雑
な作業が要求されているため、必ずしも一般的であると
は言えない。また、上述の編集作業は、録画後の或る機
会に行わねばならないこともあって、編集としてのリア
ルタイム性にも欠けるものである。
[0006] Even if the user owns the editing equipment, the above-described editing work is not necessarily general because a relatively sophisticated and complicated work is required. Further, the above-mentioned editing work must be performed at a certain opportunity after recording, and thus lacks real-time properties as editing.

【0007】[0007]

【課題を解決するための手段】そこで本発明は上記した
課題を考慮して、例えばビデオカメラなどにおいて、画
像/音声以外の付加情報を録画ソースに反映させるよう
な編集が、より簡易でリアルタイム性のある環境で行わ
れるようにして、編集に関する娯楽性、使い勝手等の向
上を図ることを目的とする。
SUMMARY OF THE INVENTION In view of the above-mentioned problems, the present invention provides a simpler and more real-time editing method for, for example, a video camera or the like that reflects additional information other than image / audio on a recording source. It is an object of the present invention to improve the entertainment and usability related to editing in such an environment.

【0008】このため、撮像画像を得る撮像手段と、所
定の検出対象を検出するもので当該記録装置とは別体と
されるセンサ手段にて検出されたセンサ情報を入力する
センサ情報入力手段と、撮像画像に基づいて得られる画
像情報を所定の記録媒体に記録可能とされた上で、この
画像情報の記録時においてセンサ情報入力手段により取
得されるセンサ情報を記録媒体に記録可能とされる記録
手段とを備えて記録装置を構成することとした。
[0008] For this purpose, an image pickup means for obtaining a picked-up image, a sensor information input means for detecting a predetermined object to be detected and inputting sensor information detected by a sensor means separate from the recording apparatus. After the image information obtained based on the captured image can be recorded on a predetermined recording medium, the sensor information obtained by the sensor information input means at the time of recording the image information can be recorded on the recording medium. The recording device is configured to include the recording unit.

【0009】また、再生装置としては次のように構成す
る。本発明は、撮像画像が画像情報として記録されてい
ると共に、記録時において所定の状態を検出する外部セ
ンサ手段から入力したセンサ情報が記録されている記録
媒体に対応した再生を行う再生装置とされる。そして、
記録媒体から、少なくとも画像情報及び上記センサ情報
を読み出すことのできるデータ読み出し手段と、少なく
ともデータ読み出し手段により読み出した画像情報から
表示画像情報を生成して出力することのできる再生出力
手段と、データ読み出し手段により読み出されたセンサ
情報に基づいて、このセンサ情報を視覚的に表現するセ
ンサ画像情報を生成するセンサ画像生成手段と、再生出
力手段において、データ読み出し手段により読み出した
画像情報に対してセンサ画像情報を合成した表示画像情
報が出力されるように、データ読み出し手段と、上記セ
ンサ画像生成手段と、再生出力手段の各動作を制御する
ことのできる再生制御手段とを設けることとした。
[0009] The reproducing apparatus is configured as follows. The present invention is a playback device that performs playback corresponding to a recording medium in which a captured image is recorded as image information and sensor information input from an external sensor unit that detects a predetermined state at the time of recording is recorded. You. And
Data reading means for reading at least image information and the sensor information from a recording medium; reproducing output means for generating and outputting display image information from at least the image information read by the data reading means; A sensor image generating means for generating sensor image information for visually expressing the sensor information based on the sensor information read by the means; and a reproduction output means for detecting the image information read by the data reading means. Data reading means, the sensor image generating means, and reproduction control means capable of controlling each operation of the reproduction output means are provided so that display image information obtained by synthesizing the image information is output.

【0010】上記構成に依れば、撮像画像の記録時にお
いて、このとき外部のセンサ手段にて検出されたセンサ
情報を記録媒体に記録することが可能とされる。つま
り、編集素材となり得るセンサ情報(つまり付加情報で
ある)を、撮像画像と共に同一の記録媒体に対して記録
することが可能になる。また、上記のようにして撮像画
像とセンサ情報が記録された記録媒体を再生した場合、
撮像画像に対してセンサ情報を視覚的に示すセンサ画像
を合成して表示画像として出力させることが可能にな
る。
According to the above configuration, at the time of recording a picked-up image, sensor information detected by an external sensor means at this time can be recorded on a recording medium. That is, it is possible to record sensor information (that is, additional information) that can be an editing material together with a captured image on the same recording medium. When the recording medium on which the captured image and the sensor information are recorded is reproduced as described above,
It becomes possible to synthesize a sensor image that visually indicates sensor information with a captured image and output the display image as a display image.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態の画像
処理装置について説明していく。本例の記録装置/再生
装置としては、カメラ装置部と画像(静止画又は動画)
及び音声の記録再生が可能な記録再生装置部とが一体化
された可搬型のビデオカメラに搭載されている場合を例
にあげる。また、本例のビデオカメラに搭載される記録
再生装置部は、光磁気ディスクの一種として知られてい
る、いわゆるミニディスクに対応してデータを記録再生
する構成を採るものとされる。説明は次の順序で行う。 1.ディスクフォーマット 2.ビデオカメラの外観構成 3.ビデオカメラの内部構成 4.メディアドライブ部の構成 5.本実施の形態に対応するディスク構造例 6.センサユニット使用した編集例 6−1.センサユニットの使用例 6−2.編集画像の表示例 6−3.処理動作(記録時) 6−4.処理動作(再生時) 7.変形例
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described. As the recording device / reproducing device of this example, a camera device and an image (still image or moving image)
An example is given in which a portable video camera integrated with a recording / reproducing device capable of recording and reproducing audio is mounted. Further, the recording / reproducing device section mounted on the video camera of the present embodiment adopts a configuration for recording and reproducing data corresponding to a so-called mini disk, which is known as a kind of magneto-optical disk. The description will be made in the following order. 1. Disk format 2. 2. External configuration of video camera 3. Internal configuration of video camera 4. Configuration of media drive section 5. Example of disk structure corresponding to this embodiment Editing example using sensor unit 6-1. Usage example of sensor unit 6-2. Display example of edited image 6-3. Processing operation (at the time of recording) 6-4. Processing operation (during playback) Modified example

【0012】1.ディスクフォーマット 本例のビデオカメラに搭載される記録再生装置部は、ミ
ニディスク(光磁気ディスク)に対応してデータの記録
/再生を行う、MDデータといわれるフォーマットに対
応しているものとされる。このMDデータフォーマット
としては、MD−DATA1とMD−DATA2といわ
れる2種類のフォーマットが開発されているが、本例の
ビデオカメラは、MD−DATA1よりも高密度記録が
可能とされるMD−DATA2のフォーマットに対応し
て記録再生を行うものとされている。そこで、先ずMD
−DATA2のディスクフォーマットについて説明す
る。
1. Disc Format The recording / reproducing device section mounted on the video camera of this example is assumed to be compatible with a format called MD data, which records / reproduces data in correspondence with a mini disc (magneto-optical disc). . As this MD data format, two types of formats called MD-DATA1 and MD-DATA2 have been developed, but the video camera of this example is capable of recording at higher density than MD-DATA1. It is assumed that recording and reproduction are performed in accordance with the format. So first, MD
-Disc format of DATA2 will be described.

【0013】図1及び図2は、MD−DATA2として
のディスクのトラック構造例を概念的に示している。図
2(a)(b)は、それぞれ図1の破線Aで括った部分
を拡大して示す断面図及び平面図である。これらの図に
示すように、ディスク面に対してはウォブル(蛇行)が
与えられたウォブルドグルーブWGと、ウォブルが与え
られていないノンウォブルドグルーブNWGとの2種類
のグルーブ(溝)が予め形成される。そして、これらウ
ォブルドグルーブWGとノンウォブルドグルーブNWG
は、その間にランドLdを形成するようにしてディスク
上において2重のスパイラル状に存在する。
FIGS. 1 and 2 conceptually show an example of a track structure of a disk as MD-DATA2. FIGS. 2A and 2B are a cross-sectional view and a plan view, respectively, showing an enlarged portion enclosed by a broken line A in FIG. As shown in these figures, two types of grooves (grooves) are previously formed on the disk surface: a wobbled groove WG provided with wobbles (meandering) and a non-wobbled groove NWG provided with no wobble. It is formed. The wobbled groove WG and the non-wobbled groove NWG
Exist in a double spiral on the disk so as to form a land Ld therebetween.

【0014】MD−DATA2フォーマットでは、ラン
ドLdがトラックとして利用されるのであるが、上記の
ようにしてウォブルドグルーブWGとノンウォブルドグ
ルーブNWGが形成されることから、トラックとしても
トラックTr・A,Tr・Bの2つのトラックがそれぞ
れ独立して、2重のスパイラル(ダブルスパイラル)状
に形成されることになる。トラックTr・Aは、ディス
ク外周側にウォブルドグルーブWGが位置し、ディスク
内周側にノンウォブルドグルーブNWGが位置するトラ
ックとなる。これに対してトラックTr・Bは、ディス
ク内周側にウォブルドグルーブWGが位置し、ディスク
外周側にノンウォブルドグルーブNWGが位置するトラ
ックとなる。つまり、トラックTr・Aに対してはディ
スク外周側の片側のみにウォブルが形成され、トラック
Tr・Bとしてはディスク内周側の片側のみにウォブル
が形成されるようにしたものとみることができる。この
場合、トラックピッチは、互いに隣接するトラックTr
・AとトラックTr・Bの各センター間の距離となり、
図2(b)に示すようにトラックピッチは0.95μm
とされている。
In the MD-DATA2 format, the land Ld is used as a track. Since the wobbled groove WG and the non-wobbled groove NWG are formed as described above, the track Tr / A is used as the track. , Tr and B are independently formed in a double spiral (double spiral) shape. The track Tr · A is a track in which the wobbled groove WG is located on the outer peripheral side of the disk and the non-wobbled groove NWG is located on the inner peripheral side of the disk. On the other hand, the track Tr · B is a track in which the wobbled groove WG is located on the inner peripheral side of the disk and the non-wobbled groove NWG is located on the outer peripheral side of the disk. In other words, it can be considered that wobbles are formed only on one side of the outer circumference of the disk with respect to the track Tr · A, and wobbles are formed only on one side of the inner circumference of the disk with respect to the track Tr · B. . In this case, the track pitch is the track Tr adjacent to each other.
・ It is the distance between each center of A and track Tr ・ B,
The track pitch is 0.95 μm as shown in FIG.
It has been.

【0015】ここで、ウォブルドグルーブWGとしての
グルーブに形成されたウォブルは、ディスク上の物理ア
ドレスがFM変調+バイフェーズ変調によりエンコード
された信号に基づいて形成されているものである。この
ため、記録再生時においてウォブルドグルーブWGに与
えられたウォブリングから得られる再生情報を復調処理
することで、ディスク上の物理アドレスを抽出すること
が可能となる。また、ウォブルドグルーブWGとしての
アドレス情報は、トラックTr・A,Tr・Bに対して
共通に有効なものとされる。つまり、ウォブルドグルー
ブWGを挟んで内周に位置するトラックTr・Aと、外
周に位置するトラックTr・Bは、そのウォブルドグル
ーブWGに与えられたウォブリングによるアドレス情報
を共有するようにされる。なお、このようなアドレッシ
ング方式はインターレースアドレッシング方式ともいわ
れる。このインターレースアドレッシング方式を採用す
ることで、例えば、隣接するウォブル間のクロストーク
を抑制した上でトラックピッチを小さくすることが可能
となるものである。また、グルーブに対してウォブルを
形成することでアドレスを記録する方式については、A
DIP(Adress In Pregroove) 方式ともいう。
Here, the wobbles formed in the groove as the wobbled groove WG are formed based on a signal in which a physical address on the disk is encoded by FM modulation + biphase modulation. For this reason, it is possible to extract the physical address on the disk by demodulating the reproduction information obtained from the wobbling given to the wobbled groove WG at the time of recording / reproduction. Further, the address information as the wobbled groove WG is commonly effective for the tracks Tr · A and Tr · B. In other words, the track Tr · A located on the inner periphery of the wobbled groove WG and the track Tr · B located on the outer periphery share the address information by the wobbling given to the wobbled groove WG. . Such an addressing method is also called an interlace addressing method. By adopting this interlace addressing method, for example, it is possible to reduce the track pitch while suppressing crosstalk between adjacent wobbles. Also, regarding a method of recording an address by forming a wobble in a groove, A
Also called DIP (Adress In Pregroove) method.

【0016】また、上記のようにして同一のアドレス情
報を共有するトラックTr・A,Tr・Bの何れをトレ
ースしているのかという識別は次のようにして行うこと
ができる。例えば3ビーム方式を応用し、メインビーム
がトラック(ランドLd)をトレースしている状態で
は、残る2つのサイドビームは、上記メインビームがト
レースしているトラックの両サイドに位置するグルーブ
をトレースしているようにすることが考えられる。
The identification of which of the tracks Tr.A and Tr.B sharing the same address information is being traced as described above can be performed as follows. For example, in a state where the main beam is tracing a track (land Ld) by applying a three-beam method, the remaining two side beams trace grooves located on both sides of the track on which the main beam is tracing. It is possible to make it.

【0017】図2(b)には、具体例として、メインビ
ームスポットSPmがトラックTr・Aをトレースして
いる状態が示されている。この場合には、2つのサイド
ビームスポットSPs1,SPs2のうち、内周側のサ
イドビームスポットSPs1はノンウォブルドグルーブ
NWGをトレースし、外周側のサイドビームスポットS
Ps2はウォブルドグルーブWGをトレースすることに
なる。これに対して、図示しないが、メインビームスポ
ットSPmがトラックTr・Bをトレースしている状態
であれば、サイドビームスポットSPs1がウォブルド
グルーブWGをトレースし、サイドビームスポットSP
s2がノンウォブルドグルーブNWGをトレースするこ
とになる。このように、メインビームスポットSPm
が、トラックTr・Aをトレースする場合とトラックT
r・Bをトレースする場合とでは、サイドビームスポッ
トSPs1,SPs2がトレースすべきグルーブとして
は、必然的にウォブルドグルーブWGとノンウォブルド
グルーブNWGとで入れ替わることになる。
FIG. 2B shows, as a specific example, a state in which the main beam spot SPm traces the track Tr · A. In this case, of the two side beam spots SPs1 and SPs2, the inner side beam spot SPs1 traces the non-wobbled groove NWG and the outer side beam spot S
Ps2 traces the wobbled groove WG. On the other hand, although not shown, if the main beam spot SPm traces the tracks Tr and B, the side beam spot SPs1 traces the wobbled groove WG and the side beam spot SP
s2 traces the non-wobbled groove NWG. Thus, the main beam spot SPm
Tracing the track Tr · A and the track T
In the case of tracing rB, the grooves to be traced by the side beam spots SPs1 and SPs2 are necessarily replaced by the wobbled groove WG and the non-wobbled groove NWG.

【0018】サイドビームスポットSPs1,SPs2
の反射によりフォトディテクタにて得られる検出信号と
しては、ウォブルドグルーブWGとノンウォブルドグル
ーブNWGの何れをトレースしているのかで異なる波形
が得られることから、上記検出信号に基づいて、例え
ば、現在サイドビームスポットSPs1,SPs2のう
ち、どちらがウォブルドグルーブWG(あるいはノンウ
ォブルドグルーブNWG)をトレースしているのかを判
別することにより、メインビームがトラックTr・A,
Tr・Bのどちらをトレースしているのかが識別できる
ことになる。
Side beam spots SPs1, SPs2
As a detection signal obtained by the photodetector due to the reflection of light, different waveforms are obtained depending on which of the wobbled groove WG and the non-wobbled groove NWG is being traced. By determining which of the side beam spots SPs1 and SPs2 traces the wobbled groove WG (or the non-wobbled groove NWG), the main beam is moved to the tracks Tr · A,
Which of Tr and B is being traced can be identified.

【0019】図3は、上記のようなトラック構造を有す
るMD−DATA2フォーマットのの主要スペックをM
D−DATA1フォーマットと比較して示す図である。
先ず、MD−DATA1フォーマットとしては、トラッ
クピッチは1.6μm、ピット長は0.59μm/bi
tとなる。また、レーザ波長λ=780nmとされ、光
学ヘッドの開口率NA=0.45とされる。記録方式と
しては、グルーブ記録方式を採っている。つまり、グル
ーブをトラックとして記録再生に用いるようにしてい
る。アドレス方式としては、シングルスパイラルによる
グルーブ(トラック)を形成したうえで、このグルーブ
の両側に対してアドレス情報としてのウォブルを形成し
たウォブルドグルーブを利用する方式を採るようにされ
ている。
FIG. 3 shows the main specifications of the MD-DATA2 format having the track structure as described above.
It is a figure shown in comparison with D-DATA1 format.
First, in the MD-DATA1 format, the track pitch is 1.6 μm and the pit length is 0.59 μm / bi.
t. The laser wavelength λ is set to 780 nm, and the aperture ratio NA of the optical head is set to 0.45. As a recording method, a groove recording method is adopted. That is, the groove is used as a track for recording and reproduction. As a method of addressing, a method of forming a groove (track) by a single spiral and using a wobbled groove in which wobbles as address information are formed on both sides of the groove is adopted.

【0020】記録データの変調方式としてはEFM(8
−14変換)方式を採用している。また、誤り訂正方式
としてはACIRC(Advanced Cross Interleave Reed-
Solomon Code) が採用され、データインターリーブには
畳み込み型を採用している。このため、データの冗長度
としては46.3%となる。
EFM (8
-14 conversion). As an error correction method, ACIRC (Advanced Cross Interleave Reed-
Solomon Code) and a convolutional data interleave. Therefore, the data redundancy is 46.3%.

【0021】また、MD−DATA1フォーマットで
は、ディスク駆動方式としてCLV(Constant Linear V
erocity)が採用されており、CLVの線速度としては、
1.2m/sとされる。そして、記録再生時の標準のデ
ータレートとしては、133kB/sとされ、記録容量
としては、140MBとなる。
In the MD-DATA1 format, a CLV (Constant Linear V) is used as a disk drive system.
erocity), and the linear velocity of CLV is
1.2 m / s. The standard data rate during recording and reproduction is 133 kB / s, and the recording capacity is 140 MB.

【0022】これに対して、本例のビデオカメラが対応
できるMD−DATA2フォーマットとしては、トラッ
クピッチは0.95μm、ピット長は0.39μm/b
itとされ、共にMD−DATA1フォーマットよりも
短くなっていることが分かる。そして、例えば上記ピッ
ト長を実現するために、レーザ波長λ=650nm、光
学ヘッドの開口率NA=0.52として、合焦位置での
ビームスポット径を絞ると共に光学系としての帯域を拡
げている。
On the other hand, in the MD-DATA2 format which can be supported by the video camera of this embodiment, the track pitch is 0.95 μm and the pit length is 0.39 μm / b.
It can be seen that both are shorter than the MD-DATA1 format. For example, in order to realize the pit length, the laser wavelength λ = 650 nm and the aperture ratio NA of the optical head are set to 0.52, thereby narrowing the beam spot diameter at the in-focus position and expanding the band as the optical system. .

【0023】記録方式としては、図1及び図2により説
明したように、ランド記録方式が採用され、アドレス方
式としてはインターレースアドレッシング方式が採用さ
れる。また、記録データの変調方式としては、高密度記
録に適合するとされるRLL(1,7)方式(RLL;
Run Length Limited)が採用され、誤り訂正方式として
はRS−PC方式、データインターリーブにはブロック
完結型が採用される。そして、上記各方式を採用した結
果、データの冗長度としては、19.7%にまで抑制す
ることが可能となっている。
As described with reference to FIGS. 1 and 2, a land recording method is employed as a recording method, and an interlace addressing method is employed as an address method. As a modulation method of recording data, an RLL (1, 7) method (RLL;
Run Length Limited), the RS-PC method is used as an error correction method, and the block complete type is used as data interleaving. As a result of adopting each of the above methods, the data redundancy can be suppressed to 19.7%.

【0024】MD−DATA2フォーマットにおいて
も、ディスク駆動方式としてはCLVが採用されるので
あるが、その線速度としては2.0m/sとされ、記録
再生時の標準のデータレートとしては589kB/sと
される。そして、記録容量としては650MBを得るこ
とができ、MD−DATA1フォーマットと比較した場
合には、4倍強の高密度記録化が実現されたことにな
る。例えば、MD−DATA2フォーマットにより動画
像の記録を行うとして、動画像データについてMPEG
2による圧縮符号化を施した場合には、符号化データの
ビットレートにも依るが、時間にして15分〜17分の
動画を記録することが可能とされる。また、音声信号デ
ータのみを記録するとして、音声データについてATR
AC(Adaptve Transform Acoustic Coding) 2による圧
縮処理を施した場合には、時間にして10時間程度の記
録を行うことができる。
Also in the MD-DATA2 format, CLV is adopted as a disk drive system, but its linear velocity is 2.0 m / s, and the standard data rate for recording / reproducing is 589 kB / s. It is said. As a result, a recording capacity of 650 MB can be obtained. Compared with the MD-DATA1 format, this means that a high-density recording of about four times is realized. For example, assuming that a moving image is recorded in the MD-DATA2 format, the moving image
In the case where the compression encoding by 2 is performed, it is possible to record a moving image of 15 minutes to 17 minutes, depending on the bit rate of the encoded data. Also, assuming that only the audio signal data is recorded, the ATR
When a compression process using AC (Adaptive Transform Acoustic Coding) 2 is performed, recording can be performed for about 10 hours.

【0025】2.ビデオカメラの外観構成 図6(a)(b)(c)は、本例のビデオカメラの外観
例を示す側面図、平面図及び背面図である。これらの図
に示すように、本例のビデオカメラの本体200には、
撮影を行うための撮像レンズや絞りなどを備えたカメラ
レンズ201が表出するようにして設けられ、また、例
えば、本体200の上面部においては、撮影時において
外部の音声を収音するための左右一対のマイクロフォン
202が設けられている。つまり、このビデオカメラで
は、カメラレンズ201により撮影した画像の録画と、
マイクロフォン202により収音したステレオ音声の録
音を行うことが可能とされている。
2. 6A, 6B, and 6C are a side view, a plan view, and a rear view showing an example of the appearance of the video camera of the present example. As shown in these figures, the main body 200 of the video camera of the present embodiment includes:
A camera lens 201 provided with an imaging lens and a diaphragm for taking a picture is provided so as to be exposed. A pair of left and right microphones 202 is provided. That is, in this video camera, recording of an image taken by the camera lens 201 and
It is possible to record stereo sound collected by the microphone 202.

【0026】また、本体200の側面側には、表示部6
A、スピーカ205、インジケータ206が備えられて
いる。表示部6Aは、撮影画像、及び内部の記録再生装
置により再生された画像等を表示出力する部位とされ
る。なお、表示部6Aとして実際に採用する表示デバイ
スとしては、ここでは特に限定されるものではないが、
例えば液晶ディスプレイ等が用いられればよい。また、
表示部6Aには、機器の動作に応じて所要のメッセージ
をユーザに知らせるための文字やキャラクタ等によるメ
ッセージ表示等も行われるものとされる。スピーカ20
5からは録音した音声の再生時に、その再生音声が出力
される他、例えばビープ音等による所要のメッセージ音
声の出力等も行われる。またインジケータ206は、例
えば記録動作中に発光され、ユーザーにビデオカメラが
記録動作中であることを示す。
The display unit 6 is provided on the side of the main body 200.
A, a speaker 205 and an indicator 206 are provided. The display unit 6A is a part that displays and outputs a captured image, an image reproduced by an internal recording and reproducing device, and the like. The display device actually used as the display unit 6A is not particularly limited here,
For example, a liquid crystal display or the like may be used. Also,
The display unit 6A also displays a message such as characters or characters for notifying the user of a required message in accordance with the operation of the device. Speaker 20
5 reproduces the recorded voice when reproducing the recorded voice, and also outputs a required message voice such as a beep sound. The indicator 206 is lit, for example, during a recording operation, and indicates to the user that the video camera is performing a recording operation.

【0027】本体200の背面側には、ビューファイン
ダ204が設けられており、記録動作中及びスタンバイ
中において、カメラレンズ201から取り込まれる画像
及びキャラクタ画像等が表示される。ユーザーはこのビ
ューファインダ204をみながら撮影を行うことができ
る。さらにディスクスロット203、ビデオ出力端子T
1、ヘッドフォン/ライン端子T2、I/F端子T3が
設けられる。ディスクスロット203は、本例のビデオ
カメラが対応する記録媒体としてのディスクが挿入、あ
るいは排出されるためのスロット部分とされる。ビデオ
出力端子T1は、外部の映像機器に対して再生画像信号
等を出力する端子、ヘッドフォン/ライン端子T2は外
部の音声機器やヘッドホンに対して再生音声信号を出力
する端子である。I/F端子T3は、例えば外部のデー
タ機器とデータ伝送を行うためのインターフェイスの入
出力端子とされる。
A viewfinder 204 is provided on the back side of the main body 200, and displays an image taken from the camera lens 201, a character image, and the like during a recording operation and a standby state. The user can shoot while looking at the viewfinder 204. Further, the disc slot 203, the video output terminal T
1. A headphone / line terminal T2 and an I / F terminal T3 are provided. The disc slot 203 is a slot portion for inserting or ejecting a disc as a recording medium corresponding to the video camera of the present embodiment. The video output terminal T1 is a terminal for outputting a reproduced image signal or the like to an external video device, and the headphone / line terminal T2 is a terminal for outputting a reproduced audio signal to an external audio device or headphones. The I / F terminal T3 is, for example, an input / output terminal of an interface for performing data transmission with an external data device.

【0028】さらに、本体200の各部には、ユーザー
操作のための各種の操作子が設けられる。以下、主要と
なる各操作子について説明する。メインダイヤル300
は、ビデオカメラのオン/オフ、記録動作、再生動作を
設定する操作子である。メインダイヤルが図示するよう
に「OFF」の位置にあるときは電源オフとされてお
り、「STBY」の位置に回動されることで、電源オン
となって記録動作のスタンバイ状態となる。また、「P
B」の位置に回動されることで、電源オンとなって再生
動作のスタンバイ状態となる。
Further, various controls for user operation are provided in each part of the main body 200. Hereinafter, the main operators will be described. Main dial 300
Are operators for setting on / off of the video camera, recording operation, and reproduction operation. When the main dial is at the "OFF" position as shown in the figure, the power is off. When the main dial is turned to the "STBY" position, the power is turned on and the recording operation is in a standby state. In addition, "P
By turning to the position "B", the power is turned on and the reproduction operation enters a standby state.

【0029】レリーズキー301は、記録スタンバイ状
態にある際において、記録開始や記録シャッタの操作子
として機能する。
The release key 301 functions as a recording start or recording shutter operator when in a recording standby state.

【0030】ズームキー304は、画像撮影に関しての
ズーム状態(テレ側〜ワイド側)を操作する操作子であ
る。イジェクトキー305は、ディスクスロット203
内に装填されているディスクを排出させるための操作子
である。再生/一時停止キー306、停止キー307、
サーチキー308,309は、ディスクに対する再生時
の各種操作のために用意されている。
A zoom key 304 is an operator for operating a zoom state (tele side to wide side) regarding image shooting. The eject key 305 is
This is an operator for ejecting the disc loaded in the inside. Play / pause key 306, stop key 307,
Search keys 308 and 309 are prepared for various operations during reproduction with respect to the disc.

【0031】十字/クリックキー310は、ユーザが、
後述するサムネイル表示画面上でポインタ表示を左右上
下方向に移動させるために用いられる。また、この場合
には、このキーの中央部分を押圧操作することで、クリ
ック操作を行うことが出来るようになっているものとさ
れる。ジョグダイヤル311は、各操作モードの下で回
転操作を行うことで所要の選択操作や入力操作を行うた
めのキーとされる。例えば文字入力モードとされている
状態の下では、このジョグダイヤル311を回転操作す
ることで、入力すべき文字を選択することが可能とな
る。入力文字を確定する場合には、例えば上記十字/ク
リックキー310を用いてクリック操作を行うようにさ
れればよい。
The cross / click key 310 is
It is used to move the pointer display in the left, right, up, and down directions on a thumbnail display screen described later. In this case, a click operation can be performed by pressing a central portion of the key. The jog dial 311 is a key for performing a necessary selection operation or input operation by performing a rotation operation in each operation mode. For example, in a state where the character input mode is set, it is possible to select a character to be input by rotating the jog dial 311. When the input character is determined, a click operation may be performed using the cross / click key 310, for example.

【0032】なお、図6に示すビデオカメラの外観はあ
くまでも一例であって、実際に本例のビデオカメラに要
求される使用条件等に応じて適宜変更されて構わないも
のである。もちろん操作子の種類や操作方式、さらに外
部機器との接続端子類などは各種多様に考えられる。
It should be noted that the appearance of the video camera shown in FIG. 6 is merely an example, and may be appropriately changed in accordance with the use conditions and the like actually required for the video camera of this embodiment. Of course, various types of operation elements, operation methods, and connection terminals with external devices can be considered.

【0033】3.ビデオカメラの内部構成 図4は、本例のビデオカメラの内部構成例を示すブロッ
ク図である。この図に示すレンズブロック1において
は、例えば実際には撮像レンズや絞りなどを備えて構成
される光学系11が備えられている。上記図6に示した
カメラレンズ201は、この光学系11に含まれる。ま
た、このレンズブロック1には、光学系11に対してオ
ートフォーカス動作を行わせるためのフォーカスモータ
や、上記ズームキー304の操作に基づくズームレンズ
の移動を行うためのズームモータなどが、モータ部12
として備えられる。
3. FIG. 4 is a block diagram showing an example of the internal configuration of the video camera of the present embodiment. The lens block 1 shown in FIG. 1 includes, for example, an optical system 11 actually including an imaging lens and a diaphragm. The camera lens 201 shown in FIG. 6 is included in the optical system 11. The lens block 1 includes a focus motor for causing the optical system 11 to perform an autofocus operation, a zoom motor for moving the zoom lens based on the operation of the zoom key 304, and the like.
Provided as

【0034】カメラブロック2には、主としてレンズブ
ロック1により撮影した画像光をデジタル画像信号に変
換するための回路部が備えられる。このカメラブロック
2のCCD(Charge Coupled Device) 21に対しては、
光学系11を透過した被写体の光画像が与えられる。C
CD21においては上記光画像について光電変換を行う
ことで撮像信号を生成し、サンプルホールド/AGC(A
utomatic Gain Control)回路22に供給する。サンプル
ホールド/AGC回路22では、CCD21から出力さ
れた撮像信号についてゲイン調整を行うと共に、サンプ
ルホールド処理を施すことによって波形整形を行う。サ
ンプルホールド/AGC回路2の出力は、ビデオA/D
コンバータ23に供給されることで、デジタルとしての
画像信号データに変換される。
The camera block 2 is provided with a circuit section for mainly converting image light taken by the lens block 1 into a digital image signal. For the CCD (Charge Coupled Device) 21 of the camera block 2,
An optical image of the subject transmitted through the optical system 11 is provided. C
In the CD 21, an image pickup signal is generated by performing photoelectric conversion on the optical image, and the sample hold / AGC (A
utomatic Gain Control) circuit 22. The sample hold / AGC circuit 22 adjusts the gain of the imaging signal output from the CCD 21 and performs waveform shaping by performing sample hold processing. The output of the sample hold / AGC circuit 2 is a video A / D
By being supplied to the converter 23, it is converted into digital image signal data.

【0035】上記CCD21、サンプルホールド/AG
C回路22、ビデオA/Dコンバータ23における信号
処理タイミングは、タイミングジェネレータ24にて生
成されるタイミング信号により制御される。タイミング
ジェネレータ24では、後述するデータ処理/システム
コントロール回路31(ビデオ信号処理回部3内)にて
信号処理に利用されるクロックを入力し、このクロック
に基づいて所要のタイミング信号を生成するようにされ
る。これにより、カメラブロック2における信号処理タ
イミングを、ビデオ信号処理部3における処理タイミン
グと同期させるようにしている。カメラコントローラ2
5は、カメラブロック2内に備えられる上記各機能回路
部が適正に動作するように所要の制御を実行すると共
に、レンズブロック1に対してオートフォーカス、自動
露出調整、絞り調整、ズームなどのための制御を行うも
のとされる。例えばオートフォーカス制御であれば、カ
メラコントローラ25は、所定のオートフォーカス制御
方式に従って得られるフォーカス制御情報に基づいて、
フォーカスモータの回転角を制御する。これにより、撮
像レンズはジャストピント状態となるように駆動される
ことになる。
The above-mentioned CCD 21, sample hold / AG
Signal processing timing in the C circuit 22 and the video A / D converter 23 is controlled by a timing signal generated by a timing generator 24. The timing generator 24 receives a clock used for signal processing in a data processing / system control circuit 31 (in the video signal processing circuit 3) described later and generates a required timing signal based on the clock. Is done. Thereby, the signal processing timing in the camera block 2 is synchronized with the processing timing in the video signal processing unit 3. Camera controller 2
Reference numeral 5 is for performing necessary control so that each of the functional circuit units provided in the camera block 2 operates properly, and for performing autofocus, automatic exposure adjustment, aperture adjustment, zooming, and the like on the lens block 1. Is controlled. For example, in the case of auto-focus control, the camera controller 25 performs, based on focus control information obtained in accordance with a predetermined
Controls the rotation angle of the focus motor. As a result, the imaging lens is driven to be in the just-focused state.

【0036】ビデオ信号処理部3は、記録時において
は、カメラブロック2から供給されたデジタル画像信
号、及びマイクロフォン202により集音したことで得
られるデジタル音声信号について圧縮処理を施し、これ
ら圧縮データをユーザ記録データとして後段のメディア
ドライブ部4に供給する。さらにカメラブロック2から
供給されたデジタル画像信号とキャラクタ画像により生
成した画像をビューファインダドライブ部207に供給
し、ビューファインダ204に表示させる。また、再生
時においては、メディアドライブ部4から供給されるユ
ーザ再生データ(ディスク51からの読み出しデー
タ)、つまり圧縮処理された画像信号データ及び音声信
号データについて復調処理を施し、これらを再生画像信
号、再生音声信号として出力する。
At the time of recording, the video signal processing unit 3 performs a compression process on the digital image signal supplied from the camera block 2 and a digital audio signal obtained by collecting sound by the microphone 202, and compresses the compressed data. The data is supplied to the subsequent media drive unit 4 as user recording data. Further, an image generated from the digital image signal and the character image supplied from the camera block 2 is supplied to the viewfinder drive unit 207 and displayed on the viewfinder 204. Further, at the time of reproduction, demodulation processing is performed on user reproduction data (data read from the disk 51) supplied from the media drive unit 4, that is, image signal data and audio signal data that have been subjected to compression processing, and these are reproduced. , And output as a reproduced audio signal.

【0037】なお本例において、画像信号データ(画像
データ)の圧縮/伸張処理方式としては、動画像につい
てはMPEG(Moving Picture Experts Group)2を採用
し、静止画像についてはJPEG(Joint Photographic
Coding Experts Group) を採用しているものとする。ま
た、音声信号デーのタ圧縮/伸張処理方式には、ATR
AC(Adaptve Transform Acoustic Coding) 2を採用す
るものとする。
In this example, as a compression / expansion processing method of image signal data (image data), MPEG (Moving Picture Experts Group) 2 is adopted for moving images, and JPEG (Joint Photographic) is used for still images.
Coding Experts Group). Also, the audio signal data compression / expansion processing method includes ATR
AC (Adaptive Transform Acoustic Coding) 2 shall be adopted.

【0038】ビデオ信号処理部3のデータ処理/システ
ムコントロール回路31は、主として、当該ビデオ信号
処理部3における画像信号データ及び音声信号データの
圧縮/伸張処理に関する制御処理と、ビデオ信号処理部
3を経由するデータの入出力を司るための処理を実行す
る。また、データ処理/システムコントロール回路31
を含むビデオ信号処理部3全体についての制御処理は、
ビデオコントローラ38が実行するようにされる。この
ビデオコントローラ38は、例えばマイクロコンピュー
タ等を備えて構成され、カメラブロック2のカメラコン
トローラ25、及び後述するメディアドライブ部4のド
ライバコントローラ46と、例えば図示しないバスライ
ン等を介して相互通信可能とされている。
The data processing / system control circuit 31 of the video signal processing unit 3 mainly controls the video signal processing and the audio signal data compression / expansion processing in the video signal processing unit 3 and the video signal processing unit 3. Executes the process for controlling the input and output of the data passing through. The data processing / system control circuit 31
The control processing for the entire video signal processing unit 3 including
The video controller 38 is made to execute. The video controller 38 includes, for example, a microcomputer and the like, and can communicate with the camera controller 25 of the camera block 2 and a driver controller 46 of the media drive unit 4 described later via, for example, a bus line (not shown). Have been.

【0039】ビデオ信号処理部3における記録時の基本
的な動作として、データ処理/システムコントロール回
路31には、カメラブロック2のビデオA/Dコンバー
タ23から供給された画像信号データが入力される。デ
ータ処理/システムコントロール回路31では、入力さ
れた画像信号データを例えば動き検出回路35に供給す
る。動き検出回路35では、例えばメモリ36を作業領
域として利用しながら入力された画像信号データについ
て動き補償等の画像処理を施した後、MPEG2ビデオ
信号処理回路33に供給する。
As a basic operation at the time of recording in the video signal processing unit 3, image signal data supplied from the video A / D converter 23 of the camera block 2 is input to the data processing / system control circuit 31. The data processing / system control circuit 31 supplies the input image signal data to, for example, the motion detection circuit 35. The motion detection circuit 35 performs image processing such as motion compensation on the input image signal data while using the memory 36 as a work area, and supplies the processed image signal data to the MPEG2 video signal processing circuit 33.

【0040】MPEG2ビデオ信号処理回路33におい
ては、例えばメモリ34を作業領域として利用しなが
ら、入力された画像信号データについてMPEG2のフ
ォーマットに従って圧縮処理を施し、動画像としての圧
縮データのビットストリーム(MPEG2ビットストリ
ーム)を出力するようにされる。また、MPEG2ビデ
オ信号処理回路33では、例えば動画像としての画像信
号データから静止画としての画像データを抽出してこれ
に圧縮処理を施す際には、JPEGのフォーマットに従
って静止画としての圧縮画像データを生成するように構
成されている。なお、JPEGは採用せずに、MPEG
2のフォーマットによる圧縮画像データとして、正規の
画像データとされるIピクチャ(Intra Picture) を静止
画の画像データとして扱うことも考えられる。MPEG
2ビデオ信号処理回路33により圧縮符号化された画像
信号データ(圧縮画像データ)は、例えば、バッファメ
モリ32に対して所定の転送レートにより書き込まれて
一時保持される。なおMPEG2のフォーマットにおい
ては、周知のようにいわゆる符号化ビットレート(デー
タレート)として、一定速度(CBR;Constant Bit R
ate)と、可変速度(VBR;Variable Bit Rate)の両者
がサポートされており、ビデオ信号処理部3ではこれら
に対応できるものとしている。
In the MPEG2 video signal processing circuit 33, for example, while using the memory 34 as a work area, the input image signal data is subjected to compression processing in accordance with the MPEG2 format, and a bit stream (MPEG2 Bit stream). In the MPEG2 video signal processing circuit 33, for example, when extracting image data as a still image from image signal data as a moving image and performing compression processing on the extracted image data, the compressed image data as a still image in accordance with the JPEG format is used. Is configured to generate It should be noted that JPEG was not adopted and MPEG
As compressed image data in the second format, an I picture (Intra Picture), which is regular image data, may be treated as still image data. MPEG
The image signal data (compressed image data) compression-encoded by the two video signal processing circuit 33 is written into the buffer memory 32 at a predetermined transfer rate and temporarily stored. In the MPEG2 format, as is well known, a so-called encoding bit rate (data rate) is used as a constant bit rate (CBR).
ate) and a variable bit rate (VBR), and the video signal processing unit 3 can cope with these.

【0041】例えばVBRによる画像圧縮処理を行う場
合には、例えば、動き検出回路35において、画像デー
タをマクロブロック単位により前後数十〜数百フレーム
内の範囲で動き検出を行って、動きありとされればこの
検出結果を動きベクトル情報としてMPEG2ビデオ信
号処理回路33に伝送する。MPEG2ビデオ信号処理
回路33では、圧縮符号化後の画像データをある所要の
データレートとするように、上記動きベクトル情報をは
じめとする所要の情報を利用しながら、マクロブロック
ごとの量子化係数を決定していくようにされる。
For example, when performing image compression processing using VBR, for example, the motion detection circuit 35 performs motion detection on the image data within a range of several tens to several hundreds of frames before and after in macroblock units to determine that there is motion. If this is done, the detection result is transmitted to the MPEG2 video signal processing circuit 33 as motion vector information. In the MPEG2 video signal processing circuit 33, the quantization coefficient for each macroblock is determined by using the required information such as the motion vector information so that the image data after the compression and encoding has a certain required data rate. It will be decided.

【0042】音声圧縮エンコーダ/デコーダ37には、
A/Dコンバータ64(表示/画像/音声入出力部6
内)を介して、例えばマイクロフォン202により集音
された音声がデジタルによる音声信号データとして入力
される。音声圧縮エンコーダ/デコーダ37では、前述
のようにATRAC2のフォーマットに従って入力され
た音声信号データに対する圧縮処理を施す。この圧縮音
声信号データもまた、データ処理/システムコントロー
ル回路31によってバッファメモリ32に対して所定の
転送レートによる書き込みが行われ、ここで一時保持さ
れる。
The audio compression encoder / decoder 37 includes:
A / D converter 64 (display / image / audio input / output unit 6)
For example, the sound collected by the microphone 202 is input as digital sound signal data via the inside. The audio compression encoder / decoder 37 performs compression processing on the input audio signal data in accordance with the ATRAC2 format as described above. This compressed audio signal data is also written into the buffer memory 32 by the data processing / system control circuit 31 at a predetermined transfer rate, and is temporarily stored here.

【0043】上記のようにして、バッファメモリ32に
は、圧縮画像データ及び圧縮音声信号データが蓄積可能
とされる。バッファメモリ32は、主として、カメラブ
ロック2あるいは表示/画像/音声入出力部6とバッフ
ァメモリ32間のデータ転送レートと、バッファメモリ
32とメディアドライブ部4間のデータ転送レートの速
度差を吸収するための機能を有する。バッファメモリ3
2に蓄積された圧縮画像データ及び圧縮音声信号データ
は、記録時であれば、順次所定タイミングで読み出しが
行われて、メディアドライブ部4のMD−DATA2エ
ンコーダ/デコーダ41に伝送される。ただし、例えば
再生時においてバッファメモリ32に蓄積されたデータ
の読み出しと、この読み出したデータをメディアドライ
ブ部4からデッキ部5を介してディスク51に記録する
までの動作は、間欠的に行われても構わない。このよう
なバッファメモリ32に対するデータの書き込み及び読
み出し制御は、例えば、データ処理/システムコントロ
ール回路31によって実行される。
As described above, the compressed image data and the compressed audio signal data can be stored in the buffer memory 32. The buffer memory 32 mainly absorbs a speed difference between the data transfer rate between the camera block 2 or the display / image / audio input / output unit 6 and the buffer memory 32 and the data transfer rate between the buffer memory 32 and the media drive unit 4. Has a function for Buffer memory 3
The compressed image data and the compressed audio signal data stored in 2 are read out sequentially at a predetermined timing during recording, and transmitted to the MD-DATA2 encoder / decoder 41 of the media drive unit 4. However, for example, the operation of reading data stored in the buffer memory 32 during reproduction and the operation of recording the read data from the media drive unit 4 to the disk 51 via the deck unit 5 are performed intermittently. No problem. The control of writing and reading data to and from the buffer memory 32 is executed by, for example, the data processing / system control circuit 31.

【0044】ビデオ信号処理部3における再生時の動作
としては、概略的に次のようになる。再生時には、ディ
スク51から読み出され、MD−DATA2エンコーダ
/デコーダ41(メディアドライブ部4内)の処理によ
りMD−DATA2フォーマットに従ってデコードされ
た圧縮画像データ、圧縮音声信号データ(ユーザ再生デ
ータ)が、データ処理/システムコントロール回路31
に伝送されてくる。データ処理/システムコントロール
回路31では、例えば入力した圧縮画像データ及び圧縮
音声信号データを、一旦バッファメモリ32に蓄積させ
る。そして、例えば再生時間軸の整合が得られるように
された所要のタイミング及び転送レートで、バッファメ
モリ32から圧縮画像データ及び圧縮音声信号データの
読み出しを行い、圧縮画像データについてはMPEG2
ビデオ信号処理回路33に供給し、圧縮音声信号データ
については音声圧縮エンコーダ/デコーダ37に供給す
る。
The operation at the time of reproduction in the video signal processing section 3 is roughly as follows. At the time of reproduction, compressed image data and compressed audio signal data (user reproduction data) read from the disk 51 and decoded according to the MD-DATA2 format by the processing of the MD-DATA2 encoder / decoder 41 (in the media drive unit 4) Data processing / system control circuit 31
Will be transmitted. The data processing / system control circuit 31 temporarily stores the input compressed image data and compressed audio signal data in the buffer memory 32, for example. Then, the compressed image data and the compressed audio signal data are read from the buffer memory 32 at a required timing and at a transfer rate at which the reproduction time axis can be matched.
The compressed audio signal data is supplied to the video signal processing circuit 33, and the compressed audio signal data is supplied to the audio compression encoder / decoder 37.

【0045】MPEG2ビデオ信号処理回路33では、
入力された圧縮画像データについて伸張処理を施して、
データ処理/システムコントロール回路31に伝送す
る。データ処理/システムコントロール回路31では、
この伸張処理された画像信号データを、ビデオD/Aコ
ンバータ61(表示/画像/音声入出力部6内)に供給
する。音声圧縮エンコーダ/デコーダ37では、入力さ
れた圧縮音声信号データについて伸張処理を施して、D
/Aコンバータ65(表示/画像/音声入出力部6内)
に供給する。
In the MPEG2 video signal processing circuit 33,
Decompresses the input compressed image data,
It is transmitted to the data processing / system control circuit 31. In the data processing / system control circuit 31,
The decompressed image signal data is supplied to the video D / A converter 61 (in the display / image / audio input / output unit 6). The audio compression encoder / decoder 37 performs an expansion process on the input compressed audio signal data,
/ A converter 65 (in display / image / audio input / output unit 6)
To supply.

【0046】表示/画像/音声入出力部6においては、
ビデオD/Aコンバータ61に入力された画像信号デー
タは、ここでアナログ画像信号に変換され、表示コント
ローラ62及びコンポジット信号処理回路63に対して
分岐して入力される。表示コントローラ62では、入力
された画像信号に基づいて表示部6Aを駆動する。これ
により、表示部6Aにおいて再生画像の表示が行われ
る。また、表示部6Aにおいては、ディスク51から再
生して得られる画像の表示だけでなく、当然のこととし
て、レンズブロック1及びカメラブロック2からなるカ
メラ部位により撮影して得られた撮像画像も、ほぼリア
ルタイムで表示出力させることが可能である。また、再
生画像及び撮像画像の他、前述のように、機器の動作に
応じて所要のメッセージをユーザに知らせるための文字
やキャラクタ等によるメッセージ表示も行われるものと
される。このようなメッセージ表示は、例えばビデオコ
ントローラ38の制御によって、所要の文字やキャラク
タ等が所定の位置に表示されるように、データ処理/シ
ステムコントロール回路31からビデオD/Aコンバー
タ61に出力すべき画像信号データに対して、所要の文
字やキャラクタ等の画像信号データを合成する処理を実
行するようにすればよい。つまり、本例では、ビデオコ
ントローラ38とデータ処理/システムコントロール回
路31とにより、キャラクタジェネレータと、オンスク
リーンディスプレイの機能を有するものとされる。
In the display / image / audio input / output unit 6,
The image signal data input to the video D / A converter 61 is converted into an analog image signal here, and is branched and input to the display controller 62 and the composite signal processing circuit 63. The display controller 62 drives the display unit 6A based on the input image signal. As a result, a reproduced image is displayed on the display unit 6A. Further, in the display unit 6A, not only an image obtained by reproducing from the disk 51 but also a captured image obtained by photographing with a camera part including the lens block 1 and the camera block 2 is naturally displayed. It is possible to display and output almost in real time. Further, in addition to the reproduced image and the captured image, as described above, a message display such as a character or a character for notifying the user of a required message in accordance with the operation of the device is also performed. Such a message display should be output from the data processing / system control circuit 31 to the video D / A converter 61 so that required characters, characters, and the like are displayed at predetermined positions under the control of the video controller 38, for example. Processing for synthesizing image signal data such as required characters and characters may be performed on the image signal data. That is, in this example, the video controller 38 and the data processing / system control circuit 31 have the functions of a character generator and an on-screen display.

【0047】コンポジット信号処理回路63では、ビデ
オD/Aコンバータ61から供給されたアナログ画像信
号についてコンポジット信号に変換して、ビデオ出力端
子T1に出力する。例えば、ビデオ出力端子T1を介し
て、外部モニタ装置等と接続を行えば、当該ビデオカメ
ラで再生した画像を外部モニタ装置により表示させるこ
とが可能となる。
The composite signal processing circuit 63 converts the analog image signal supplied from the video D / A converter 61 into a composite signal and outputs it to the video output terminal T1. For example, if a connection is made to an external monitor device or the like via the video output terminal T1, an image reproduced by the video camera can be displayed on the external monitor device.

【0048】また、表示/画像/音声入出力部6におい
て、音声圧縮エンコーダ/デコーダ37からD/Aコン
バータ65に入力された音声信号データは、ここでアナ
ログ音声信号に変換され、ヘッドフォン/ライン端子T
2に対して出力される。また、D/Aコンバータ65か
ら出力されたアナログ音声信号は、アンプ66を介して
スピーカSPに対しても分岐して出力され、これによ
り、スピーカSPからは、再生音声等が出力されること
になる。
In the display / image / audio input / output section 6, the audio signal data input from the audio compression encoder / decoder 37 to the D / A converter 65 is converted into an analog audio signal here, and is supplied to a headphone / line terminal. T
2 is output. In addition, the analog audio signal output from the D / A converter 65 is also branched and output to the speaker SP via the amplifier 66, whereby the reproduced audio and the like are output from the speaker SP. Become.

【0049】メディアドライブ部4では、主として、記
録時にはMD−DATA2フォーマットに従って記録デ
ータをディスク記録に適合するようにエンコードしてデ
ッキ部5に伝送し、再生時においては、デッキ部5にお
いてディスク51から読み出されたデータについてデコ
ード処理を施すことで再生データを得て、ビデオ信号処
理部3に対して伝送する。
At the time of recording, the media drive section 4 encodes the recording data in accordance with the MD-DATA2 format so as to conform to the disc recording and transmits the encoded data to the deck section 5. By performing decoding processing on the read data, reproduction data is obtained and transmitted to the video signal processing unit 3.

【0050】このメディアドライブ部4のMD−DAT
A2エンコーダ/デコーダ41は、記録時においては、
データ処理/システムコントロール回路31から記録デ
ータ(圧縮画像データ+圧縮音声信号データ)が入力さ
れ、この記録データについて、MD−DATA2フォー
マットに従った所定のエンコード処理を施し、このエン
コードされたデータを一時バッファメモリ42に蓄積す
る。そして、所要のタイミングで読み出しを行いながら
デッキ部5に伝送する。
The MD-DAT of the media drive unit 4
When recording, the A2 encoder / decoder 41
Recording data (compressed image data + compressed audio signal data) is input from the data processing / system control circuit 31, the recording data is subjected to a predetermined encoding process in accordance with the MD-DATA2 format, and the encoded data is temporarily stored. The data is stored in the buffer memory 42. Then, the data is transmitted to the deck unit 5 while being read at a required timing.

【0051】再生時においては、ディスク51から読み
出され、RF信号処理回路44、二値化回路43を介し
て入力されたデジタル再生信号について、MD−DAT
A2フォーマットに従ったデコード処理を施して、再生
データとしてビデオ信号処理部3のデータ処理/システ
ムコントロール回路31に対して伝送する。なお、この
際においても、必要があれば再生データを一旦バッファ
メモリ42に蓄積し、ここから所要のタイミングで読み
出したデータをデータ処理/システムコントロール回路
31に伝送出力するようにされる。このような、バッフ
ァメモリ42に対する書き込み/読み出し制御はドライ
バコントローラ46が実行するものとされる。なお、例
えばディスク51の再生時において、外乱等によってサ
ーボ等が外れて、ディスクからの信号の読み出しが不可
となったような場合でも、バッファメモリ42に対して
読み出しデータが蓄積されている期間内にディスクに対
する再生動作を復帰させるようにすれば、再生データと
しての時系列的連続性を維持することが可能となる。
At the time of reproduction, the digital reproduction signal read from the disk 51 and input via the RF signal processing circuit 44 and the binarization circuit 43 is subjected to MD-DAT.
A decoding process according to the A2 format is performed, and the data is transmitted to the data processing / system control circuit 31 of the video signal processing unit 3 as reproduction data. Also at this time, if necessary, the reproduced data is temporarily stored in the buffer memory 42, and the data read therefrom at a required timing is transmitted to the data processing / system control circuit 31 for output. Such write / read control for the buffer memory 42 is performed by the driver controller 46. Note that, for example, when the servo is disengaged due to disturbance or the like during reproduction of the disk 51 and reading of a signal from the disk becomes impossible, the read data is stored in the buffer memory 42 during the period during which the read data is accumulated. If the reproduction operation for the disc is resumed, the chronological continuity as the reproduction data can be maintained.

【0052】RF信号処理回路44には、ディスク51
からの読み出し信号について所要の処理を施すことで、
例えば、再生データとしてのRF信号、デッキ部5に対
するサーボ制御のためのフォーカスエラー信号、トラッ
キングエラー信号等のサーボ制御信号を生成する。RF
信号は、上記のように二値化回路43により2値化さ
れ、デジタル信号データとしてMD−DATA2エンコ
ーダ/デコーダ41に入力される。また、生成された各
種サーボ制御信号はサーボ回路45に供給される。サー
ボ回路45では、入力したサーボ制御信号に基づいて、
デッキ部5における所要のサーボ制御を実行する。
The RF signal processing circuit 44 includes a disk 51
By performing the required processing on the read signal from
For example, it generates an RF signal as reproduction data, a servo control signal such as a focus error signal and a tracking error signal for servo control of the deck unit 5, and the like. RF
The signal is binarized by the binarization circuit 43 as described above, and input to the MD-DATA2 encoder / decoder 41 as digital signal data. The generated various servo control signals are supplied to the servo circuit 45. In the servo circuit 45, based on the input servo control signal,
The required servo control in the deck section 5 is executed.

【0053】なお、本例においては、MD−DATA1
フォーマットに対応するエンコーダ/デコーダ47を備
えており、ビデオ信号処理部3から供給された記録デー
タを、MD−DATA1フォーマットに従ってエンコー
ドしてディスク51に記録すること、或いは、ディスク
51からの読み出しデータがMD−DATA1フォーマ
ットに従ってエンコードされているものについては、そ
のデコード処理を行って、ビデオ信号処理部3に伝送出
力することも可能とされている。つまり本例のビデオカ
メラとしては、MD−DATA2フォーマットとMD−
DATA1フォーマットとについて互換性が得られるよ
うに構成されている。ドライバコントローラ46は、メ
ディアドライブ部4を総括的に制御するための機能回路
部とされる。
In this example, MD-DATA1
An encoder / decoder 47 corresponding to the format is provided, and the recording data supplied from the video signal processing unit 3 is encoded in accordance with the MD-DATA1 format and recorded on the disk 51. It is also possible to perform decoding processing on data encoded in accordance with the MD-DATA1 format, and transmit and output it to the video signal processing unit 3. That is, as the video camera of this example, the MD-DATA2 format and the MD-DATA2 format are used.
It is configured to obtain compatibility with the DATA1 format. The driver controller 46 is a functional circuit unit for controlling the media drive unit 4 as a whole.

【0054】デッキ部5は、ディスク51を駆動するた
めの機構からなる部位とされる。ここでは図示しない
が、デッキ部5においては、装填されるべきディスク5
1が着脱可能とされ、ユーザの作業によって交換が可能
なようにされた機構(ディスクスロット203(図6参
照))を有しているものとされる。また、ここでのディ
スク51は、MD−DATA2フォーマット、あるいは
MD−DATA1フォーマットに対応する光磁気ディス
クであることが前提となる。
The deck section 5 is a part comprising a mechanism for driving the disk 51. Although not shown here, the disc 5 to be loaded is
1 is detachable, and has a mechanism (disk slot 203 (see FIG. 6)) that can be replaced by a user's work. Further, it is assumed that the disk 51 here is a magneto-optical disk corresponding to the MD-DATA2 format or the MD-DATA1 format.

【0055】デッキ部5においては、装填されたディス
ク51をCLVにより回転駆動するスピンドルモータ5
2によって、CLVにより回転駆動される。このディス
ク51に対しては記録/再生時に光学ヘッド53によっ
てレーザ光が照射される。光学ヘッド53は、記録時に
は記録トラックをキュリー温度まで加熱するための高レ
ベルのレーザ出力を行ない、また再生時には磁気カー効
果により反射光からデータを検出するための比較的低レ
ベルのレーザ出力を行なう。このため、光学ヘッド53
には、ここでは詳しい図示は省略するがレーザ出力手段
としてのレーザダイオード、偏光ビームスプリッタや対
物レンズ等からなる光学系、及び反射光を検出するため
のディテクタが搭載されている。光学ヘッド53に備え
られる対物レンズとしては、例えば2軸機構によってデ
ィスク半径方向及びディスクに接離する方向に変位可能
に保持されている。
In the deck section 5, a spindle motor 5 for rotating the loaded disk 51 by CLV is used.
2 is driven to rotate by the CLV. The optical head 53 irradiates the disk 51 with laser light during recording / reproduction. The optical head 53 performs high-level laser output for heating the recording track to the Curie temperature during recording, and performs relatively low-level laser output for detecting data from reflected light by the magnetic Kerr effect during reproduction. . Therefore, the optical head 53
Although not shown in detail here, a laser diode as a laser output unit, an optical system including a polarizing beam splitter and an objective lens, and a detector for detecting reflected light are mounted. The objective lens provided in the optical head 53 is held, for example, by a biaxial mechanism so as to be displaceable in the radial direction of the disk and in the direction in which the disk comes into contact with and separates from the disk.

【0056】また、ディスク51を挟んで光学ヘッド5
3と対向する位置には磁気ヘッド54が配置されてい
る。磁気ヘッド54は記録データによって変調された磁
界をディスク51に印加する動作を行なう。また、図示
しないが、デッキ部5においては、スレッドモータ55
により駆動されるスレッド機構が備えられている。この
スレッド機構が駆動されることにより、上記光学ヘッド
53全体及び磁気ヘッド54はディスク半径方向に移動
可能とされている。
The optical head 5 with the disk 51 interposed therebetween
A magnetic head 54 is arranged at a position facing 3. The magnetic head 54 performs an operation of applying a magnetic field modulated by recording data to the disk 51. Although not shown, the thread motor 55
And a thread mechanism driven by the thread mechanism. By driving the thread mechanism, the entire optical head 53 and the magnetic head 54 can be moved in the disk radial direction.

【0057】操作部7は図6に示した各操作子300〜
311等に相当し、これらの操作子によるユーザの各種
操作情報は例えばビデオコントローラ38に供給され
る。ビデオコントローラ38は、ユーザー操作に応じた
必要な動作が各部において実行されるようにするための
操作情報、制御情報をカメラコントローラ25、ドライ
バコントローラ46に対して供給する。
The operation unit 7 is provided with each of the operation elements 300 to 300 shown in FIG.
311 and the like, and various operation information of the user by these operators are supplied to, for example, the video controller 38. The video controller 38 supplies, to the camera controller 25 and the driver controller 46, operation information and control information for causing each unit to execute necessary operations according to a user operation.

【0058】外部インターフェイス8は、当該ビデオカ
メラと外部機器とでデータを相互伝送可能とするために
設けられており、例えば図のようにI/F端子T3とビ
デオ信号処理部間に対して設けられる。なお、外部イン
ターフェイス8としてはここでは特に限定されるもので
はないが、例えばIEEE1394等が採用されればよ
い。例えば、外部のデジタル画像機器と本例のビデオカ
メラをI/F端子T3を介して接続した場合、ビデオカ
メラで撮影した画像(音声)を外部デジタル画像機器に
録画したりすることが可能となる。また、外部デジタル
画像機器にて再生した画像(音声)データ等を、外部イ
ンターフェイス8を介して取り込むことにより、MD−
DATA2(或いはMD−DATA1)フォーマットに
従ってディスク51に記録するといったことも可能とな
る。更には、例えばキャプションの挿入などに利用する
文字情報としてのファイルも取り込んで記録することが
可能となる。
The external interface 8 is provided so that data can be transmitted between the video camera and the external device. For example, as shown in FIG. Can be The external interface 8 is not particularly limited here, but may be, for example, IEEE 1394 or the like. For example, when an external digital imaging device and the video camera of this embodiment are connected via the I / F terminal T3, it becomes possible to record an image (audio) captured by the video camera on the external digital imaging device. . In addition, image (audio) data reproduced by an external digital image device or the like is captured via the external interface 8 so that MD-
It is also possible to record on the disk 51 in accordance with the DATA2 (or MD-DATA1) format. Further, for example, a file as character information used for inserting a caption can be captured and recorded.

【0059】電源ブロック9は、内蔵のバッテリにより
得られる直流電源あるいは商用交流電源から生成した直
流電源を利用して、各機能回路部に対して所要のレベル
の電源電圧を供給する。電源ブロック9による電源オン
/オフは、上述したメインダイヤル300の操作に応じ
てビデオコントローラ38が制御する。また記録動作中
はビデオコントローラ38はインジケータ206の発光
動作を実行させる。
The power supply block 9 supplies a required level of power supply voltage to each functional circuit unit using a DC power supply obtained from a built-in battery or a DC power supply generated from a commercial AC power supply. The power supply on / off by the power supply block 9 is controlled by the video controller 38 in accordance with the operation of the main dial 300 described above. During the recording operation, the video controller 38 causes the indicator 206 to emit light.

【0060】4.メディアドライブ部の構成 続いて、図4に示したメディアドライブ部4の構成とし
て、MD−DATA2に対応する機能回路部を抽出した
詳細な構成について、図5のブロック図を参照して説明
する。なお、図5においては、メディアドライブ部4と
共にデッキ部5を示しているが、デッキ部5の内部構成
については図4により説明したため、ここでは、図4と
同一符号を付して説明を省略する。また、図5に示すメ
ディアドライブ部4において図4のブロックに相当する
範囲に同一符号を付している。
4. Configuration of Media Drive Unit Next, as the configuration of the media drive unit 4 shown in FIG. 4, a detailed configuration in which a functional circuit unit corresponding to MD-DATA2 is extracted will be described with reference to the block diagram of FIG. In FIG. 5, the deck unit 5 is shown together with the media drive unit 4. However, since the internal configuration of the deck unit 5 has been described with reference to FIG. 4, the same reference numerals as in FIG. I do. In the media drive unit 4 shown in FIG. 5, the same reference numerals are given to the ranges corresponding to the blocks in FIG.

【0061】光学ヘッド53のディスク51に対するデ
ータ読み出し動作によりに検出された情報(フォトディ
テクタによりレーザ反射光を検出して得られる光電流)
は、RF信号処理回路44内のRFアンプ101に供給
される。RFアンプ101では入力された検出情報か
ら、再生信号としての再生RF信号を生成し、二値化回
路43に供給する。二値化回路43は、入力された再生
RF信号について二値化を行うことにより、デジタル信
号化された再生RF信号(二値化RF信号)を得る。こ
の二値化RF信号はMD−DATA2エンコーダ/デコ
ーダ41に供給され、まずAGC/クランプ回路103
を介してゲイン調整、クランプ処理等が行われた後、イ
コライザ/PLL回路104に入力される。イコライザ
/PLL回路104では、入力された二値化RF信号に
ついてイコライジング処理を施してビタビデコーダ10
5に出力する。また、イコライジング処理後の二値化R
F信号をPLL回路に入力することにより、二値化RF
信号(RLL(1,7)符号列)に同期したクロックC
LKを抽出する。
Information detected by the data reading operation of the optical head 53 from the disk 51 (photocurrent obtained by detecting laser reflected light by a photodetector)
Is supplied to the RF amplifier 101 in the RF signal processing circuit 44. The RF amplifier 101 generates a reproduction RF signal as a reproduction signal from the input detection information and supplies the reproduction RF signal to the binarization circuit 43. The binarization circuit 43 binarizes the input reproduction RF signal to obtain a digital reproduction RF signal (binary RF signal). This binarized RF signal is supplied to the MD-DATA2 encoder / decoder 41, and first, the AGC / clamp circuit 103
, And then input to the equalizer / PLL circuit 104. The equalizer / PLL circuit 104 performs equalizing processing on the input binary RF signal, and
5 is output. In addition, binarization R after equalizing processing
By inputting the F signal to the PLL circuit, the binarized RF
Clock C synchronized with signal (RLL (1,7) code string)
Extract LK.

【0062】クロックCLKの周波数は現在のディスク
回転速度に対応する。このため、CLVプロセッサ11
1では、イコライザ/PLL回路104からクロックC
LKを入力し、所定のCLV速度(図3参照)に対応す
る基準値と比較することにより誤差情報を得て、この誤
差情報をスピンドルエラー信号SPEを生成するための
信号成分として利用する。また、クロックCLKは、例
えばRLL(1,7)復調回路106をはじめとする、
所要の信号処理回路系における処理のためのクロックと
して利用される。
The frequency of the clock CLK corresponds to the current disk rotation speed. For this reason, the CLV processor 11
1, the clock C is output from the equalizer / PLL circuit 104.
LK is input, error information is obtained by comparing with a reference value corresponding to a predetermined CLV speed (see FIG. 3), and this error information is used as a signal component for generating a spindle error signal SPE. In addition, the clock CLK includes, for example, the RLL (1, 7) demodulation circuit 106 and the like.
It is used as a clock for processing in a required signal processing circuit system.

【0063】ビタビデコーダ105は、イコライザ/P
LL回路104から入力された二値化RF信号につい
て、いわゆるビタビ復号法に従った復号処理を行う。こ
れにより、RLL(1,7)符号列としての再生データ
が得られることになる。この再生データはRLL(1,
7)復調回路106に入力され、ここでRLL(1,
7)復調が施されたデータストリームとされる。
The Viterbi decoder 105 has an equalizer / P
The binary RF signal input from the LL circuit 104 is subjected to a decoding process according to a so-called Viterbi decoding method. As a result, reproduced data as an RLL (1, 7) code string is obtained. This playback data is RLL (1,
7) The signal is input to the demodulation circuit 106, where RLL (1,
7) The data stream is subjected to demodulation.

【0064】RLL(1,7)復調回路106における
復調処理により得られたデータストリームは、データバ
ス114を介してバッファメモリ42に対して書き込み
が行われ、バッファメモリ42上で展開される。このよ
うにしてバッファメモリ42上に展開されたデータスト
リームに対しては、先ず、ECC処理回路116によ
り、RS−PC方式に従って誤り訂正ブロック単位によ
るエラー訂正処理が施され、更に、デスクランブル/E
DCデコード回路117により、デスクランブル処理
と、EDCデコード処理(エラー検出処理)が施され
る。これまでの処理が施されたデータが再生データDA
TApとされる。この再生データDATApは、転送ク
ロック発生回路121にて発生された転送クロックに従
った転送レートで、例えばデスクランブル/EDCデコ
ード回路117からビデオ信号処理部3のデータ処理/
システムコントロール回路31に対して伝送されること
になる。
The data stream obtained by the demodulation processing in the RLL (1, 7) demodulation circuit 106 is written to the buffer memory 42 via the data bus 114 and is developed on the buffer memory 42. The data stream expanded on the buffer memory 42 in this manner is first subjected to error correction processing in error correction block units according to the RS-PC system by the ECC processing circuit 116, and further descramble / E
The DC decoding circuit 117 performs a descrambling process and an EDC decoding process (error detection process). The data processed so far is the reproduction data DA
TAp. The reproduction data DATAp is transmitted at a transfer rate according to the transfer clock generated by the transfer clock generation circuit 121, for example, from the descrambling / EDC decoding circuit 117 to the data processing / processing of the video signal processing unit 3.
The data is transmitted to the system control circuit 31.

【0065】転送クロック発生回路121は、例えば、
クリスタル系のクロックをメディアドライブ部4とビデ
オ信号処理部3間のデータ伝送や、メディアドライブ部
4内における機能回路部間でのデータ伝送を行う際に、
適宜適正とされる周波数の転送クロック(データ転送レ
ート)を発生するための部位とされる。また、当該ビデ
オカメラの動作状態に応じて、メディアドライブ部4及
びビデオ信号処理部3の各機能回路部に供給すべき所要
の周波数のクロックを発生する。
The transfer clock generation circuit 121 is, for example,
When a crystal clock is used for data transmission between the media drive unit 4 and the video signal processing unit 3 and data transmission between functional circuit units in the media drive unit 4,
This is a portion for generating a transfer clock (data transfer rate) having a frequency appropriately determined. Further, it generates a clock of a required frequency to be supplied to each functional circuit unit of the media drive unit 4 and the video signal processing unit 3 according to the operation state of the video camera.

【0066】光学ヘッド53によりディスク51から読
み出された検出情報(光電流)は、マトリクスアンプ1
07に対しても供給される。マトリクスアンプ107で
は、入力された検出情報について所要の演算処理を施す
ことにより、トラッキングエラー信号TE、フォーカス
エラー信号FE、グルーブ情報(ディスク51にウォブ
ルドグルーブWGとして記録されている絶対アドレス情
報)GFM等を抽出しサーボ回路45に供給する。即ち
抽出されたトラッキングエラー信号TE、フォーカスエ
ラー信号FEはサーボプロセッサ112に供給され、グ
ルーブ情報GFMはADIPバンドパスフィルタ108
に供給される。
The detection information (photocurrent) read from the disk 51 by the optical head 53 is transmitted to the matrix amplifier 1
07 is also supplied. The matrix amplifier 107 performs required arithmetic processing on the input detection information, thereby obtaining a tracking error signal TE, a focus error signal FE, and groove information (absolute address information recorded as a wobbled groove WG on the disk 51) GFM. Are supplied to the servo circuit 45. That is, the extracted tracking error signal TE and focus error signal FE are supplied to the servo processor 112, and the groove information GFM is stored in the ADIP bandpass filter 108.
Supplied to

【0067】ADIPバンドパスフィルタ108により
帯域制限されたグルーブ情報GFMは、A/Bトラック
検出回路109、ADIPデコーダ110、及びCLV
プロセッサ111に対して供給される。A/Bトラック
検出回路109では、例えば図2(b)にて説明した方
式などに基づいて、入力されたグルーブ情報GFMか
ら、現在トレースしているトラックがトラックTR・
A,TR・Bの何れとされているのかについて判別を行
い、このトラック判別情報をドライバコントローラ46
に出力する。また、ADIPデコーダ110では、入力
されたグルーブ情報GFMをデコードしてディスク上の
絶対アドレス情報であるADIP信号を抽出し、ドライ
バコントローラ46に出力する。ドライバコントローラ
46では、上記トラック判別情報及びADIP信号に基
づいて、所要の制御処理を実行する。
The groove information GFM band-limited by the ADIP band-pass filter 108 is supplied to an A / B track detection circuit 109, an ADIP decoder 110, and a CLV.
It is supplied to the processor 111. In the A / B track detecting circuit 109, based on the input groove information GFM, for example, the track currently being traced is determined by the method described in FIG.
A, TR or B is determined, and the track determination information is transmitted to the driver controller 46.
Output to The ADIP decoder 110 decodes the input groove information GFM to extract an ADIP signal, which is absolute address information on the disk, and outputs the signal to the driver controller 46. The driver controller 46 executes necessary control processing based on the track discrimination information and the ADIP signal.

【0068】CLVプロセッサ111には、イコライザ
/PLL回路104からクロックCLKと、ADIPバ
ンドパスフィルタ108を介したグルーブ情報GFMが
入力される。CLVプロセッサ111では、例えばグル
ーブ情報GFMに対するクロックCLKとの位相誤差を
積分して得られる誤差信号に基づき、CLVサーボ制御
のためのスピンドルエラー信号SPEを生成し、サーボ
プロセッサ112に対して出力する。なお、CLVプロ
セッサ111が実行すべき所要の動作はドライバコント
ローラ46によって制御される。
The CLV processor 111 receives the clock CLK from the equalizer / PLL circuit 104 and the groove information GFM via the ADIP bandpass filter 108. The CLV processor 111 generates a spindle error signal SPE for CLV servo control based on, for example, an error signal obtained by integrating a phase error between the groove information GFM and the clock CLK, and outputs the spindle error signal SPE to the servo processor 112. The required operation to be executed by the CLV processor 111 is controlled by the driver controller 46.

【0069】サーボプロセッサ112は、上記のように
して入力されたトラッキングエラー信号TE、フォーカ
スエラー信号FE、スピンドルエラー信号SPE、ドラ
イバコントローラ46からのトラックジャンプ指令、ア
クセス指令等に基づいて各種サーボ制御信号(トラッキ
ング制御信号、フォーカス制御信号、スレッド制御信
号、スピンドル制御信号等)を生成し、サーボドライバ
113に対して出力する。サーボドライバ113では、
サーボプロセッサ112から供給されたサーボ制御信号
に基づいて所要のサーボドライブ信号を生成する。ここ
でのサーボドライブ信号としては、二軸機構を駆動する
二軸ドライブ信号(フォーカス方向、トラッキング方向
の2種)、スレッド機構を駆動するスレッドモータ駆動
信号、スピンドルモータ52を駆動するスピンドルモー
タ駆動信号となる。このようなサーボドライブ信号がデ
ッキ部5に対して供給されることで、ディスク51に対
するフォーカス制御、トラッキング制御、及びスピンド
ルモータ52に対するCLV制御が行われることにな
る。
The servo processor 112 performs various servo control signals on the basis of the tracking error signal TE, focus error signal FE, spindle error signal SPE, track jump command and access command from the driver controller 46 input as described above. (Tracking control signal, focus control signal, thread control signal, spindle control signal, etc.) are generated and output to the servo driver 113. In the servo driver 113,
A required servo drive signal is generated based on the servo control signal supplied from the servo processor 112. Here, the servo drive signal includes a two-axis drive signal (two types of focus direction and tracking direction) for driving the two-axis mechanism, a sled motor drive signal for driving the sled mechanism, and a spindle motor drive signal for driving the spindle motor 52. Becomes By supplying such a servo drive signal to the deck section 5, focus control and tracking control on the disk 51 and CLV control on the spindle motor 52 are performed.

【0070】ディスク51に対して記録動作が実行され
る際には、例えば、ビデオ信号処理部3のデータ処理/
システムコントロール回路31からスクランブル/ED
Cエンコード回路115に対して記録データDATAr
が入力されることになる。このユーザ記録データDAT
Arは、例えば転送クロック発生回路121にて発生さ
れた転送クロック(データ転送レート)に同期して入力
される。
When the recording operation is performed on the disk 51, for example, the data processing /
Scramble / ED from system control circuit 31
The recording data DATAR for the C encoding circuit 115
Will be input. This user record data DAT
Ar is input in synchronization with a transfer clock (data transfer rate) generated by the transfer clock generation circuit 121, for example.

【0071】スクランブル/EDCエンコード回路11
5では、例えば記録データDATArをバッファメモリ
42に書き込んで展開し、データスクランブル処理、E
DCエンコード処理(所定方式によるエラー検出符号の
付加処理)を施す。この処理の後、例えばECC処理回
路116によって、バッファメモリ42に展開させてい
る記録データDATArに対してRS−PC方式による
エラー訂正符号を付加するようにされる。ここまでの処
理が施された記録データDATArは、バッファメモリ
42から読み出されて、データバス114を介してRL
L(1,7)変調回路118に供給される。
Scramble / EDC encoding circuit 11
In step 5, for example, the recording data DATAR is written to the buffer memory 42 and developed, and the data scramble processing is performed.
DC encoding processing (addition processing of an error detection code by a predetermined method) is performed. After this processing, for example, the ECC processing circuit 116 adds an error correction code according to the RS-PC method to the recording data DATAR developed in the buffer memory 42. The recording data DATAR that has been processed up to this point is read from the buffer memory 42 and transmitted to the RL via the data bus 114.
The signal is supplied to the L (1, 7) modulation circuit 118.

【0072】RLL(1,7)変調回路118では、入
力された記録データDATArについてRLL(1,
7)変調処理を施し、このRLL(1,7)符号列とし
ての記録データを磁気ヘッド駆動回路119に出力す
る。
The RLL (1, 7) modulation circuit 118 applies RLL (1, 7) to the input recording data DATAR.
7) A modulation process is performed, and the recording data as the RLL (1, 7) code string is output to the magnetic head drive circuit 119.

【0073】ところで、MD−DATA2フォーマット
では、ディスクに対する記録方式として、いわゆるレー
ザストローブ磁界変調方式を採用している。レーザスト
ローブ磁界変調方式とは、記録データにより変調した磁
界をディスク記録面に印加すると共に、ディスクに照射
すべきレーザ光を記録データに同期してパルス発光させ
る記録方式をいう。このようなレーザストローブ磁界変
調方式では、ディスクに記録されるピットエッジの形成
過程が磁界の反転速度等の過渡特性に依存せず、レーザ
パルスの照射タイミングによって決定される。このた
め、例えば単純磁界変調方式(レーザ光をディスクに対
して定常的に照射すると共に記録データにより変調した
磁界をディスク記録面に印加するようにした方式)と比
較して、レーザストローブ磁界変調方式では、記録ピッ
トのジッタをきわめて小さくすることが容易に可能とさ
れる。つまり、レーザストローブ磁界変調方式は、高密
度記録化に有利な記録方式とされるものである。
Incidentally, the MD-DATA2 format employs a so-called laser strobe magnetic field modulation system as a recording system for a disk. The laser strobe magnetic field modulation method refers to a recording method in which a magnetic field modulated by recording data is applied to a recording surface of a disk, and a laser beam to be irradiated on the disk is pulsed in synchronization with the recording data. In such a laser strobe magnetic field modulation method, the process of forming a pit edge recorded on a disk does not depend on transient characteristics such as the reversal speed of a magnetic field, but is determined by the laser pulse irradiation timing. For this reason, the laser strobe magnetic field modulation method is compared with, for example, a simple magnetic field modulation method (a method in which a laser beam is constantly irradiated onto a disk and a magnetic field modulated by recording data is applied to a disk recording surface). In this case, it is possible to make the jitter of the recording pit extremely small. That is, the laser strobe magnetic field modulation method is a recording method advantageous for high-density recording.

【0074】メディアドライブ部4の磁気ヘッド駆動回
路119では、入力された記録データにより変調した磁
界が磁気ヘッド54からディスク51に印加されるよう
に動作する。また、RLL(1,7)変調回路118か
らレーザドライバ120に対しては、記録データに同期
したクロックを出力する。レーザドライバ120は、入
力されたクロックに基づいて、磁気ヘッド54により磁
界として発生される記録データに同期させたレーザパル
スがディスクに対して照射されるように、光学ヘッド5
3のレーザダイオードを駆動する。この際、レーザダイ
オードから発光出力されるレーザパルスとしては、記録
に適合する所要のレーザパワーに基づくものとなる。こ
のようにして、本例のメディアドライブ部4により上記
レーザストローブ磁界変調方式としての記録動作が可能
とされる。
The magnetic head drive circuit 119 of the media drive unit 4 operates so that a magnetic field modulated by input recording data is applied from the magnetic head 54 to the disk 51. Further, the RLL (1, 7) modulation circuit 118 outputs a clock synchronized with the recording data to the laser driver 120. The laser driver 120 controls the optical head 5 so that the disk is irradiated with a laser pulse synchronized with recording data generated as a magnetic field by the magnetic head 54 based on the input clock.
The third laser diode is driven. At this time, the laser pulse emitted and output from the laser diode is based on a required laser power suitable for recording. In this way, the recording operation as the laser strobe magnetic field modulation method is enabled by the media drive unit 4 of the present embodiment.

【0075】5.本実施の形態に対応するディスク構造
例 次に、本実施の形態に対応するディスク51のデータ構
造例について説明する。図7は、本実施の形態に対応す
るとされるディスク51の構造例を概念的に示してい
る。なお、この図に示すディスク51の物理フォーマッ
トについては、先に図1及び図2により説明した通りで
ある。
5. Next, an example of a data structure of the disk 51 according to the present embodiment will be described. FIG. 7 conceptually shows an example of the structure of a disk 51 which is assumed to correspond to the present embodiment. Note that the physical format of the disk 51 shown in this figure is as described above with reference to FIGS.

【0076】ディスク51においては、例えば、管理情
報エリアとしてPTOC、及びRTOCの領域が設けら
れる。PTOCは、例えばディスク最内周のプリマスタ
ードエリア(ピットエリア)において、ピット形態によ
り所要の管理情報が記録される。このPTOCの内容は
書き換えが不可とされている。例えば、上記PTOCが
記録されるプリマスタードエリアの外周には、光磁気記
録再生が可能とされる光磁気記録領域が形成される。そ
して、先ずその最内周における所定サイズの区間に対し
て上記RTOCの領域が設けられるものとされる。この
RTOCは、例えばディスクに記録されたデータを管理
するのに必要な基本的な情報が記録される。例えば本例
の場合であれば、ディスクに記録されたデータとして、
後述するトラック(ファイルと同義の場合有り)、及び
フォルダ(トラックをグループ化して管理するための構
造)を記録再生時において管理するための情報が格納さ
れる。なお、管理エリアにおけるU−TOCの内容は、
例えば、これまでのディスクに対するデータの記録結果
や、トラック(ファイル)、フォルダの削除等の編集処
理結果に従って逐次書き換えが行われるものとされる。
In the disk 51, for example, PTOC and RTOC areas are provided as management information areas. In the PTOC, required management information is recorded in a pit form, for example, in a premastered area (pit area) on the innermost circumference of the disk. The contents of the PTOC cannot be rewritten. For example, a magneto-optical recording area in which magneto-optical recording and reproduction can be performed is formed around the premastered area where the PTOC is recorded. Then, first, the RTOC area is provided for a section of a predetermined size in the innermost circumference. The RTOC records, for example, basic information necessary for managing data recorded on a disc. For example, in the case of this example, as data recorded on the disc,
Information for managing a track (which may be synonymous with a file) and a folder (structure for grouping and managing tracks) to be described later during recording and reproduction are stored. The contents of the U-TOC in the management area are as follows:
For example, it is assumed that rewriting is sequentially performed in accordance with the result of data recording on a disc and the result of editing processing such as deletion of tracks (files) and folders.

【0077】上記RTOCの外周側に対しては、ユーザ
データが記録されるためのデータエリアが設けられる。
本実施の形態では、このデータエリアは、1つのルート
フォルダ内に置かれたボリュームフォルダ(Volume Fold
er)として管理される。本実施の形態においてボリュー
ム(Volume)とは、ユーザデータの完全な集合として定義
され、1枚のディスクにはただ1つのボリュームが存在
するものとして規定される。そして、このボリューム内
に含まれるデータは、上記PTOC、RTOCで管理さ
れるものを除いて、ボリュームフォルダ以下のフォルダ
及びトラックとして格納されることになる。
On the outer peripheral side of the RTOC, a data area for recording user data is provided.
In the present embodiment, the data area is a volume folder (Volume Folder) located in one root folder.
er). In the present embodiment, a volume is defined as a complete set of user data, and is defined as having only one volume on one disk. The data contained in this volume is stored as folders and tracks under the volume folder except for those managed by the PTOC and RTOC.

【0078】ボリュームフォルダ内においては、先ず、
物理的に最内周側の位置(RTOC近傍の管理トラッ優
先領域)において、所定サイズ(例えば12クラスタ)
のボリュームインデックストラック(Volume Index Trac
k)が置かれる。このボリュームインデックストラック
は、例えば上記PTOC、RTOCが主的管理情報とす
れば、いわば副管理情報が記録される領域として規定さ
れるもので、トラック(ファイル)、フォルダ、及び補
助データ(Auxiliary Data)に関すプロパティ、タイト
ル、及びトラックを形成するパケットデータを管理する
ための情報が記録されるテーブルを有する。
In the volume folder, first,
A predetermined size (for example, 12 clusters) at the physically innermost position (the management track priority area near the RTOC)
Volume Index Trac
k) is placed. The volume index track is defined as an area in which sub-management information is recorded, for example, if the above-mentioned PTOC and RTOC are the main management information, and includes a track (file), a folder, and auxiliary data (Auxiliary Data). And a table in which information for managing packet data forming a property, a title, and a track related to the track is recorded.

【0079】また、少なくとも最初の1クラスタがRT
OC近傍の管理トラック優先領域に位置するようにして
記録されるトラックとして、サムネイルトラック(Thumb
nailPicture Track)がオプションとして配置可能とされ
ている。本実施の形態においては、ディスクに記録され
た各ファイルごとに対応付けして、所定解像度による1
枚の静止画像をサムネイル画像として有することが可能
とされている。サムネイル画像は、ファイルを視覚的に
認識可能とするための代表画像として扱われる。サムネ
イルトラックには、ディスクに記録されているファイル
(トラック)との対応付けと、サムネイル画像の格納位
置とが示されるインデックス情報と共に記録される。サ
ムネイルトラックのデータ長は、格納されるサムネイル
画像数等に応じて任意に拡張可能とされる。
Also, at least the first one cluster is RT
As a track recorded so as to be located in the management track priority area near the OC, a thumbnail track (Thumb
nailPicture Track) can be placed as an option. In the present embodiment, one file with a predetermined resolution is associated with each file recorded on the disc.
It is possible to have a number of still images as thumbnail images. The thumbnail image is treated as a representative image for making the file visually recognizable. The thumbnail track is recorded together with index information indicating the correspondence with the file (track) recorded on the disc and the storage position of the thumbnail image. The data length of the thumbnail track can be arbitrarily expanded according to the number of stored thumbnail images and the like.

【0080】そして、例えばユーザが撮影等によって記
録した画像/音声データはファイル単位で管理され、ボ
リュームフォルダ内において、トラックとしてボリュー
ムフォルダの下に置かれる、或いは、ボリュームフォル
ダ以下に置かれるフォルダ内に置かれることになる。図
7では、或る1ファイルが1トラックとして表現された
上で、このトラックが或る1つのフォルダ内に格納され
ている状態が示されている。フォルダは、上述のよう
に、トラック又はフォルダを1グループにまとめて管理
するための構造である。従ってボリュームフォルダ以下
の構造においては、ボリュームフォルダ内に格納可能な
最大件数と、フォルダの階層構造の最大段数により規定
される範囲内で、任意の数のトラック又はフォルダが格
納されることになる。
For example, image / audio data recorded by the user by photographing or the like is managed on a file basis, and is placed under the volume folder as a track in the volume folder or in a folder placed below the volume folder. Will be placed. FIG. 7 shows a state in which a certain file is represented as one track and this track is stored in a certain folder. As described above, a folder has a structure for managing tracks or folders in one group. Therefore, in the structure below the volume folder, an arbitrary number of tracks or folders is stored within the range defined by the maximum number of records that can be stored in the volume folder and the maximum number of levels in the folder hierarchical structure.

【0081】また、ボリュームフォルダ内には、補助デ
ータ(Auxiliary Data)が格納される補助データトラック
(Auxiliary Data Track)が配置される。補助データトラ
ックに格納されるべき情報としては、例えば、実際に適
用されるアプリケーションによって任意とされる。本実
施の形態においては、再生制御情報としてのスクリプト
の情報が格納されることになる。
An auxiliary data track storing auxiliary data (Auxiliary Data) is stored in the volume folder.
(Auxiliary Data Track) is placed. The information to be stored in the auxiliary data track is arbitrary depending on, for example, an application to be actually applied. In the present embodiment, script information as playback control information is stored.

【0082】ところで、上記した管理情報であるPTO
C,RTOC、また更にはボリュームインデックストラ
ックに格納された情報(これらの情報を総称しても、本
実施の形態では「管理情報」ということにする)は、例
えば、ディスク装填時において読み出されて、例えば、
メディアドライブ部4のバッファメモリ42(又はバッ
ファメモリ32)の所定領域に保持される。そして、デ
ータ記録時や編集時においては、その記録結果や編集結
果に応じてバッファメモリに保持されているこれら管理
情報について書き換えを行うようにし、その後、所定の
機会、タイミングでもって、バッファメモリに保持され
ている管理情報の内容に基づいて、ディスク51の管理
情報を書き換える(更新する)ようにされる(但し、P
TOCについては更新は行われない)。
By the way, the PTO, which is the management information described above,
The information stored in the C, RTOC, or even the volume index track (these information is collectively referred to as “management information” in the present embodiment) is read, for example, when a disc is loaded. For example,
The data is held in a predetermined area of the buffer memory 42 (or the buffer memory 32) of the media drive unit 4. Then, at the time of data recording or editing, the management information stored in the buffer memory is rewritten according to the recording result or the editing result, and thereafter, at a predetermined opportunity and timing, the data is stored in the buffer memory. The management information of the disk 51 is rewritten (updated) based on the content of the held management information (however, P
No update is performed for the TOC).

【0083】なお、この図に示すディスク構造例はあく
までも一例であって、ディスク上での各エリアの物理的
位置関係は、実際の使用条件等に応じて変更されて構わ
ないし、データが格納される構造も変更されてかまない
ものである。
Note that the example of the disk structure shown in this figure is merely an example, and the physical positional relationship of each area on the disk may be changed according to actual use conditions and the like, and data is stored. The structure can be changed.

【0084】6.センサユニット使用した編集例 6−1.センサユニットの使用例 上記構成による本実施の形態のビデオカメラでは、以降
説明するようにして、外部センサを接続することで、こ
の外部センサで検出されるセンサ情報を利用した簡易な
編集を行うことができる。
6. Editing example using sensor unit 6-1. Example of Use of Sensor Unit In the video camera according to the present embodiment having the above configuration, by connecting an external sensor as described below, simple editing using sensor information detected by the external sensor can be performed. Can be.

【0085】図8は、本実施の形態のビデオカメラに対
して接続されるセンサユニットの一般的な構成を示して
いる。この図に示すセンサユニット400は、本実施の
形態のビデオカメラとは別体とされ、図のように、セン
サ401,A/Dコンバータ402,DSP(DijitalSi
gnal Processor)403より成る。センサ401は、所
定の検出対象を検出するように構成された検出部位であ
り、このセンサ401にて得られた検出信号は、A/D
コンバータ402を介することでデジタル値に変換され
る。デジタル値に変換された検出信号は、DSP403
において所要の信号処理が施されて、センサデータとし
て出力される。この場合、DSP403の出力は、実際
にはケーブル等を介して本実施の形態のビデオカメラ装
置のI/F端子T3と接続される。これにより、センサ
ユニット400(DSP403)から出力される検出情
報は、ビデオカメラ装置のI/F端子T3から外部イン
ターフェイス8(ここでは図示せず)を介することで、
当該ビデオカメラ装置により処理可能な情報として取り
込まれることになる。
FIG. 8 shows a general configuration of a sensor unit connected to the video camera of the present embodiment. The sensor unit 400 shown in this figure is separate from the video camera of the present embodiment, and as shown in the figure, a sensor 401, an A / D converter 402, and a DSP (Digital Si
gnal Processor) 403. The sensor 401 is a detection part configured to detect a predetermined detection target, and a detection signal obtained by the sensor 401 is an A / D signal.
The signal is converted into a digital value via the converter 402. The detection signal converted into the digital value is output from the DSP 403
Is subjected to required signal processing, and is output as sensor data. In this case, the output of the DSP 403 is actually connected to the I / F terminal T3 of the video camera device of the present embodiment via a cable or the like. As a result, the detection information output from the sensor unit 400 (DSP 403) is transmitted from the I / F terminal T3 of the video camera device via the external interface 8 (not shown here).
The information is captured as information that can be processed by the video camera device.

【0086】図9は、本実施の形態のビデオカメラとセ
ンサユニットとを接続したシステムの具体例を示してい
る。この場合には、センサユニットを利用して、ゴルフ
プレーにおけるプレーヤの体重移動を付加情報として得
る。この場合のセンサユニット400は、ケーブル40
4によりビデオカメラのI/F端子T3と接続されてい
る。そして、このセンサユニット400は、図8に示し
たセンサ400として、圧力センサマット401を備え
ている。この圧力センサマット401において検出され
た圧力の情報は、A/Dコンバータ402→DSP40
3を介することで上記のようにしてセンサデータ(セン
サ情報)に変換され、ケーブル404を介してビデオカ
メラに対して入力される。
FIG. 9 shows a specific example of a system in which the video camera and the sensor unit of the present embodiment are connected. In this case, the weight shift of the player in golf play is obtained as additional information using the sensor unit. In this case, the sensor unit 400 is
4 is connected to the I / F terminal T3 of the video camera. The sensor unit 400 includes a pressure sensor mat 401 as the sensor 400 shown in FIG. The information on the pressure detected by the pressure sensor mat 401 is converted from the A / D converter 402 to the DSP 40.
3, the data is converted into sensor data (sensor information) as described above, and is input to the video camera via the cable 404.

【0087】このようなシステムのもと、被写体Hであ
るプレーヤは、圧力センサマット401のうえに立つ。
すると、センサユニット400では、プレーヤの足にか
かる圧力分布を検出してそのセンサデータをビデオカメ
ラに対して出力する。
Under such a system, the player who is the subject H stands on the pressure sensor mat 401.
Then, the sensor unit 400 detects the pressure distribution applied to the player's feet and outputs the sensor data to the video camera.

【0088】そして、上記のようにしてセンサユニット
400からのセンサデータがビデオカメラに入力されて
いる状態において、被写体Hであるプレーヤがスイング
しているところをビデオカメラにより撮影して録画を行
ったとする。このとき、本実施の形態においては、プレ
ーヤがスイングしている撮像画像を録画すると共に、こ
の録画時間に入力されていたセンサデータも、撮像画像
の記録時間に同期させて記録を行うようにされる。な
お、このための記録フォーマットについては、後述す
る。このようにして記録が行われることで、ディスクに
は、被写体がスイングしている撮像画像と、これに同期
してサンプルされたセンサユニット400からのセンサ
データが記録されることになる。つまり、本実施の形態
では、元の録画画像としてのファイルに加えて、これに
関連する付加情報としての足の圧力分布のセンサデータ
が、同時タイミングでディスクに記録される。
Then, in the state where the sensor data from the sensor unit 400 is input to the video camera as described above, it is assumed that the video camera shoots and records the place where the player who is the subject H is swinging. I do. At this time, in the present embodiment, the captured image in which the player swings is recorded, and the sensor data input during the recording time is also recorded in synchronization with the recording time of the captured image. You. The recording format for this will be described later. By performing the recording in this manner, the captured image in which the subject swings and the sensor data from the sensor unit 400 sampled in synchronization with the captured image are recorded on the disk. That is, in the present embodiment, in addition to the file as the original recorded image, sensor data of the pressure distribution of the foot as related information is recorded on the disc at the same time.

【0089】6−2.編集画像の表示例 図10は、上記のようにして記録された録画ファイルを
再生した場合の表示形態例を示している。この録画ファ
イルの再生を開始した場合、表示部6Aの表示画面に
は、例えば図10(a)に示すようにして、被写体画像
HGとされるプレーヤがこれからスイングを始めようと
する場面が動画像により表示される。そして、この際、
録画時において記録されたセンサデータの値を視覚的に
示すセンサ画像SGが、この再生画像に対してインポー
ズされるようにして同時表示される。
6-2. Display Example of Edited Image FIG. 10 shows a display example of a case where the recorded file recorded as described above is reproduced. When the playback of the recorded file is started, the display screen of the display unit 6A shows, as shown in, for example, FIG. Is displayed. And at this time,
At the time of recording, a sensor image SG visually indicating the value of the recorded sensor data is simultaneously displayed so as to be imposed on the reproduced image.

【0090】図11は、上記センサ画像SGの表示形態
例を拡大して示している。この図では、センサ画像SG
内には、左足を示す左足画像FLと右足を示す右足画像
FRとが並んで表示される。そして、このとき(即ち録
画時)に左足と右足にかかっていた圧力の分布が、図の
ようにメータ画像MGによって示される。この場合に
は、メータ画像MGのメータレベルが高い部位ほど、そ
のときかかっていた圧力が大きいことを示しているもの
である。
FIG. 11 shows an enlarged display example of the sensor image SG. In this figure, the sensor image SG
Inside, a left foot image FL indicating a left foot and a right foot image FR indicating a right foot are displayed side by side. Then, the distribution of the pressure applied to the left foot and the right foot at this time (that is, at the time of recording) is indicated by a meter image MG as shown in the figure. In this case, the higher the meter level of the meter image MG, the greater the pressure applied at that time.

【0091】そして、図10(a)に示す表示が行われ
て以降、図10(b)〜(d)に示すようにして、被写
体画像HGとされるプレーヤがスイングを行っていると
ころが動画像によって表示される。そして、この時表示
されるセンサ画像SGとしては、録画時におけるセンサ
データの変化に応じて、撮像画像の再生時間の進行に従
って変化する状態で表示が行われるものである。このよ
うな再生画像を見ることで、例えばユーザは、ゴルフス
イングと共に変化するプレーヤの体重移動の様子を確認
することができる。
After the display shown in FIG. 10A is performed, as shown in FIG. 10B to FIG. 10D, the place where the player who is the subject image HG is swinging is a moving image. Displayed by The sensor image SG displayed at this time is displayed in a state in which the sensor image SG changes in accordance with the progress of the reproduction time of the captured image in accordance with the change in the sensor data during recording. By looking at such a reproduced image, for example, the user can confirm how the weight of the player changes with the golf swing.

【0092】ここで、上記した録画ソースの再生表示
は、元のゴルフスイングを撮影した動画像の情報に対し
て、この撮影時において得られたセンサユニット400
からのセンサデータが視覚的に反映されるようにインポ
ーズ表示をさせているわけであり、これは、撮像画像の
映像ソースに対して一種の編集を行ったものと見ること
ができる。そして、本実施の形態においては、この編集
処理は、撮像画像の録画時においてセンサデータを共に
記録することで、いわばリアルタイムに行われているも
のであり、再生にあっても、単に録画ファイルを再生す
るだけで、その編集効果(センサ画像SGのインポー
ズ)が得られるものである。
Here, the reproduction display of the recording source described above is based on the information of the moving image obtained by shooting the original golf swing and the sensor unit 400 obtained at the time of shooting.
Is displayed so that the sensor data from the camera is visually reflected. This can be regarded as a kind of editing performed on the video source of the captured image. In the present embodiment, this editing process is performed in real time, so to speak, by recording sensor data together with the recording of a captured image. Simply by reproducing, the editing effect (imposition of the sensor image SG) can be obtained.

【0093】6−3.処理動作(記録時) 続いて、上記のようにして撮像画像と共にセンサデータ
を記録する動作を実現するための処理動作について説明
する。
6-3. Processing Operation (During Recording) Subsequently, a processing operation for realizing an operation of recording sensor data together with a captured image as described above will be described.

【0094】先ず、処理動作自体について説明する前
に、本実施の形態のビデオカメラにおける記録データの
フォーマットについて図13を参照して説明しておく。
ここで以降の説明に際し、本例のビデオカメラにおいて
は、例えば記録のための動画像データ及び音声データの
うち、動画像データは、MPEG2フォーマットにより
圧縮処理が施されるものとする。また、音声データは、
ATRAC2により圧縮処理が施されるものとする。
First, before describing the processing operation itself, the format of recording data in the video camera of the present embodiment will be described with reference to FIG.
Here, in the following description, in the video camera of the present example, it is assumed that, for example, of the moving image data and audio data for recording, the moving image data is subjected to compression processing in the MPEG2 format. The audio data is
It is assumed that compression processing is performed by ATRAC2.

【0095】そして、本例においては、上記のようにし
て得られる圧縮画像データと、圧縮音声データを、それ
ぞれ時系列的に分割し、分割して得られた圧縮画像デー
タと圧縮音声データを、図13に示すように、「パケッ
ト」としての所定の固定長のデータ単位に格納する。圧
縮画像データは画像データエリアA2に格納され、圧縮
音声データは、音声データエリアA1に対して格納され
る。
In this example, the compressed image data and the compressed audio data obtained as described above are divided in time series, and the compressed image data and the compressed audio data obtained by the division are divided into As shown in FIG. 13, the data is stored in a predetermined fixed-length data unit as a “packet”. The compressed image data is stored in the image data area A2, and the compressed audio data is stored in the audio data area A1.

【0096】更に、本実施の形態では、1パケット内に
対して、圧縮画像データと圧縮音声データ以外の所定種
類のデータ(オプションデータ:時系列データでなくと
もよい)を格納する領域としてオプションデータエリア
A3を割り当てるものと定義される。本実施の形態で
は、このオプションデータエリアA3に対してセンサデ
ータが格納される。そして、このパケットのシーケンス
により動画データ、音声データ及びセンサデータをディ
スクに記録していくようにされる。
Further, in the present embodiment, in one packet, option data is stored as an area for storing predetermined types of data (optional data: not necessarily time-series data) other than compressed image data and compressed audio data. The area A3 is defined to be allocated. In the present embodiment, sensor data is stored in the option data area A3. Then, the moving image data, the audio data, and the sensor data are recorded on the disk according to the packet sequence.

【0097】ここで、1パケット内の音声データエリア
A1に格納される圧縮音声データの再生時間は、画像デ
ータエリアA2に対して格納される圧縮画像データの再
生時間に同期しているものとされる。同様にして、オプ
ションデータエリアA3に対して格納されるセンサデー
タもまた、画像データエリアA2に対して格納される圧
縮画像データの再生時間に同期しているものとされる。
言い換えれば、パケット内のセンサデータは、同じパケ
ット内に格納されている圧縮画像データと圧縮音声デー
タを記録したときに、外部のセンサユニット400から
入力されていたデータとなる。なお、オプションデータ
エリアA3としては、所定フォーマットに従って管理さ
れているのであれば、センサデータと他の種類のオプシ
ョンデータが混在して格納される構造となっていても構
わないものである。
Here, the playback time of the compressed audio data stored in the audio data area A1 in one packet is synchronized with the playback time of the compressed image data stored in the image data area A2. You. Similarly, the sensor data stored in the option data area A3 is also synchronized with the playback time of the compressed image data stored in the image data area A2.
In other words, the sensor data in the packet is the data input from the external sensor unit 400 when the compressed image data and the compressed audio data stored in the same packet are recorded. The option data area A3 may have a structure in which sensor data and other types of option data are stored in a mixed manner, as long as the data is managed according to a predetermined format.

【0098】続いて、図12のフローチャートを参照し
て、記録時の処理動作について説明する。なお、この図
に示す処理は、例えばビデオコントローラ38がマスタ
ーコントローラとして機能したうえで、必要に応じてド
ライバコントローラ46及びカメラコントローラ25が
制御処理を実行することにより実現される。この点につ
いては、以降説明することとなる再生時の処理動作につ
いても同様である。
Next, the processing operation at the time of recording will be described with reference to the flowchart of FIG. Note that the processing shown in this figure is realized by, for example, the video controller 38 functioning as a master controller and the driver controller 46 and the camera controller 25 executing control processing as necessary. This point is the same for the processing operation at the time of reproduction, which will be described later.

【0099】この図に示すルーチンにおいては、ステッ
プS101において録画開始操作が行われるのを待機し
ており、ここで録画開始操作が行われたことが判別され
ると、ステップS102に進む。
In the routine shown in this figure, the process waits for a recording start operation to be performed in step S101. If it is determined that the recording start operation has been performed, the process proceeds to step S102.

【0100】ステップS102においては、例えばI/
F端子T3を介して現在センサデータが入力されている
か否かについて判別を行う。ここで、センサデータの入
力が無いことが判別された場合には、ステップS108
に進む。
In step S102, for example, I /
It is determined whether sensor data is currently input via the F terminal T3. Here, if it is determined that there is no input of sensor data, step S108
Proceed to.

【0101】これに対してステップS102においてセ
ンサデータの入力があると判別された場合には、ステッ
プS103に進む。このステップS103から録画動作
が開始される。このとき、ビデオ信号処理部3に対して
は、カメラブロック2から撮像画像のビデオ信号が供給
され、また、マイクロフォン202で収音された音声が
音声データとして供給されている。ステップS103に
おいては、ビデオ信号処理部3において、1パケット分
の圧縮画像データと圧縮音声データを取り込むための制
御処理を実行する。このとき、ビデオ信号処理部3にお
いては、データ処理/システムコントロール回路31の
制御によって、例えばビデオ信号と音声データについて
圧縮処理を施すと共に、同時間の圧縮画像データと圧縮
音声データをパケット単位で区切って、バッファメモリ
32に書き込むようにされる。
On the other hand, if it is determined in step S102 that sensor data has been input, the flow advances to step S103. The recording operation is started from this step S103. At this time, the video signal of the captured image is supplied from the camera block 2 to the video signal processing unit 3, and the sound collected by the microphone 202 is supplied as sound data. In step S103, the video signal processing unit 3 executes a control process for capturing one packet of compressed image data and compressed audio data. At this time, in the video signal processing unit 3, under the control of the data processing / system control circuit 31, for example, the video signal and the audio data are subjected to compression processing, and simultaneously compressed image data and compressed audio data are separated in packet units. Then, the data is written to the buffer memory 32.

【0102】続くステップS104においては、上記ス
テップS103にて取り込んだ圧縮画像データ,圧縮音
声データと同時間に入力されていたとされるセンサデー
タをバッファメモリ32に取り込む(書き込む)ための
処理を実行する。
In the following step S104, a process for taking (writing) the sensor data, which is assumed to have been input simultaneously with the compressed image data and compressed audio data taken in step S103, into the buffer memory 32 is executed. .

【0103】そして次のステップS105において上記
ステップS103,S104にてバッファメモリ32に
取り込んだ圧縮画像データ,圧縮音声データ、及びセン
サデータを図13に示した1パケットのデータとして生
成する。ここまでの処理によって、1パケット内には、
それぞれ再生時間的に同期する圧縮画像データ,圧縮音
声データ、及びセンサデータが格納されることになる。
そして、続くステップS106においては、上記ステッ
プS105にて得られたパケットをディスクに書き込む
ための制御処理を実行する。なお、実際にはビデオ信号
処理部3からメディアドライブ部4に転送されたパケッ
トは、バッファメモリ42に対して一時格納されてい
き、バッファメモリ42の蓄積容量に応じて、ディスク
に対して間欠的に書き込みが行われるものである。
In the next step S105, the compressed image data, compressed audio data, and sensor data fetched into the buffer memory 32 in the above steps S103 and S104 are generated as one packet data shown in FIG. By the processing up to this point, within one packet,
Compressed image data, compressed audio data, and sensor data, which are synchronized in reproduction time, are stored.
Then, in the subsequent step S106, a control process for writing the packet obtained in the above step S105 to the disk is executed. Actually, the packet transferred from the video signal processing unit 3 to the media drive unit 4 is temporarily stored in the buffer memory 42, and intermittently stored in the disk according to the storage capacity of the buffer memory 42. Is written to the.

【0104】上記ステップS103〜S106までの処
理は、ステップS107において録画が終了したことが
判別されるまで、繰り返される。これにより、撮像画
像、収音音声及びセンサデータの記録が行われていくこ
とになる。
The processes of steps S103 to S106 are repeated until it is determined in step S107 that the recording has been completed. Thereby, the recording of the captured image, the collected sound, and the sensor data is performed.

【0105】そして、例えば録画終了操作が行われた
り、或いはディスクの記録容量がフルになるなどして、
上記ステップS107において録画が終了したことが判
別されるとステップS110に進む。ステップS110
においては、デッキ部5における記録モードの停止、及
びTOC情報の書き換え等をはじめとする所要の録画終
了処理を実行して、このルーチンとしての処理を終了す
る。
Then, for example, when a recording end operation is performed or the recording capacity of the disk becomes full,
If it is determined in step S107 that the recording has been completed, the process proceeds to step S110. Step S110
In, the necessary recording end processing including the stop of the recording mode in the deck section 5 and the rewriting of the TOC information is executed, and the processing as this routine is ended.

【0106】また、ステップS102においてセンサデ
ータが入力されていないことが判別された場合には、ス
テップS108に進むことになる。ステップS108に
おいては、通常記録処理を実行する。ここでいう通常記
録処理とは、パケット化に際して、圧縮画像データと圧
縮音声データのみを取り込んでによりパケット化を行
い、センサデータの取り込んでこれをパケットに含める
ための処理は実行しないようにするものである。
If it is determined in step S102 that no sensor data has been input, the process proceeds to step S108. In step S108, a normal recording process is performed. The normal recording process referred to here is a process of capturing only the compressed image data and the compressed audio data to perform the packetization at the time of packetization, and not performing the process of capturing the sensor data and including it in the packet. It is.

【0107】そして、この通常記録時にあっても、ステ
ップS109にて録画が終了したことが判別されるとス
テップS110に進むようにされる。
Then, even during the normal recording, if it is determined in step S109 that the recording has been completed, the process proceeds to step S110.

【0108】6−4.処理動作(再生時) 続いて、図14を参照して、再生時において、再生画像
に対してセンサ画像SGをインポーズして表示するため
の処理動作について説明する。なお、この図に示す処理
としては、センサデータを含んで記録された録画ファイ
ルを再生するための処理であることを前提として説明す
る。
6-4. Processing Operation (During Playback) Subsequently, a processing operation for imposing and displaying the sensor image SG on the playback image during playback will be described with reference to FIG. Note that the process shown in this figure will be described on the assumption that it is a process for reproducing a recorded file recorded including sensor data.

【0109】この図に示す処理においては、先ず、ステ
ップS201において再生開始操作が行われるのを待機
しており、ここで再生開始操作が行われたことが判別さ
れると、ステップS202に進んで再生開始のための制
御処理を実行する。
In the processing shown in this figure, first, in step S201, the process waits for a reproduction start operation to be performed. If it is determined that the reproduction start operation has been performed, the process proceeds to step S202. The control process for starting the reproduction is executed.

【0110】上記ステップS202以降においては、デ
ィスクに対する再生動作が開始され、例えばデッキ部5
のバッファメモリ42においては、ディスクから読み出
された録画ファイルのデータが或る程度蓄積される状態
となる。そこでステップS203においては、上記バッ
ファメモリ42からパケット単位でデータの読み出しを
行って、例えばビデオ信号処理部3のバッファメモリ3
2に対して書き込むための制御処理を実行する。そし
て、次のステップS204においては、パケットから圧
縮動画像データ及び圧縮音声データを抽出して所要のデ
コード処理を実行する。これによって、最終的に、圧縮
動画像データは表示部6Aで表示可能な表示画像データ
に変換され、また、圧縮音声データは例えばサンプリン
グ周波数44.1KHz、量子化ビット数16ビットの
デジタルオーディオデータに変換される。
After the step S202, the reproducing operation for the disc is started, and for example, the deck unit 5
In the buffer memory 42, the data of the recording file read from the disk is stored to some extent. Therefore, in step S203, data is read from the buffer memory 42 in packet units, for example, in the buffer memory 3 of the video signal processing unit 3.
2 is executed. Then, in the next step S204, the compressed moving image data and the compressed audio data are extracted from the packet, and a required decoding process is executed. As a result, the compressed moving image data is finally converted into display image data that can be displayed on the display unit 6A, and the compressed audio data is converted into digital audio data having a sampling frequency of 44.1 KHz and a quantization bit number of 16 bits, for example. Is converted.

【0111】そして、続くステップS205において
は、上記ステップS203で取り込んだパケットのオプ
ションエリアA3に含まれるセンサデータを抽出して、
これについての解析を行う。そして、次のステップS2
06において、上記ステップS205により得たセンサ
データの値に従って、センサ画像データを生成する。こ
こでいうセンサ画像データとは、例えば図10及び図1
1に示したように、再生動画像に対してインポーズされ
るセンサ画像SGとしての画像データである。このよう
なセンサ画像データを生成するためのプログラム、及び
画像パーツ(例えば図11に示した左足画像FLや右足
画像FR)のデータや、メータ画像MGは、例えばビデ
オコントローラ38、若しくはデータ処理/システムコ
ントロール回路31が備えるROM等に予め記憶されて
いる。
In the subsequent step S205, sensor data included in the option area A3 of the packet fetched in the above step S203 is extracted, and
We will analyze this. Then, the next step S2
In 06, sensor image data is generated according to the value of the sensor data obtained in step S205. Here, the sensor image data refers to, for example, FIGS.
As shown in FIG. 1, it is image data as a sensor image SG imposed on a reproduced moving image. A program for generating such sensor image data, data of image parts (for example, the left foot image FL and the right foot image FR shown in FIG. 11) and the meter image MG are stored in, for example, the video controller 38 or the data processing / system. It is stored in the ROM or the like of the control circuit 31 in advance.

【0112】そして、例えば図11に示すようなセンサ
画像SGの画像データを生成するのであれば、所定の画
素数の領域に対して、左足画像FL及び右足画像FRを
ペーストしたうえで、センサデータの値に従って得られ
る位置情報と、各位置の圧力値とに基づいて、メータ画
像MGをペーストする。
For example, if the image data of the sensor image SG as shown in FIG. 11 is to be generated, the left foot image FL and the right foot image FR are pasted into an area of a predetermined number of pixels, and then the sensor data SG is generated. The meter image MG is pasted on the basis of the position information obtained in accordance with the value of and the pressure value of each position.

【0113】このようにして、ステップS206ではセ
ンサ画像データが得られる。そして、次のステップS2
07において、センサ画像データを、再生動画像データ
に対して合成するための信号処理を実行するものであ
る。これにより、図10に示したような表示画像に対応
した表示画像データが得られるなお、これらステップS
206及びS207の処理は、例えばデータ処理/シス
テムコントロール回路31が備えるVRAM等を作業領
域として利用して行われるものである。また、実際の処
理としては、例えばVRAM上に展開されている再生動
画像データに対して、センサ画像データをペーストしな
がら表示画像データを生成するという手順を踏んでも良
いものである。
In this way, in step S206, sensor image data is obtained. Then, the next step S2
At 07, signal processing for synthesizing the sensor image data with the reproduced moving image data is executed. As a result, display image data corresponding to the display image as shown in FIG. 10 is obtained.
The processing in steps 206 and S207 is performed using, for example, a VRAM or the like provided in the data processing / system control circuit 31 as a work area. Further, as an actual process, for example, a procedure of generating display image data while pasting sensor image data to reproduced moving image data expanded on a VRAM may be used.

【0114】続くステップS208においては、これま
での処理により得られた再生動画像データ(センサ画像
SGはインポーズされている)とデジタルオーディオデ
ータとを同期して再生出力するための処理を実行する。
この処理は、主としてデータ処理/システムコントロー
ル回路31が、ビデオ信号処理部3内の機能回路部に対
して所要の制御処理を実行することで実現される。
In the following step S208, processing for synchronously reproducing and outputting the reproduced moving image data (the sensor image SG is imposed) obtained by the above processing and the digital audio data is executed. .
This process is realized mainly by the data processing / system control circuit 31 executing a required control process on the functional circuit unit in the video signal processing unit 3.

【0115】次のステップS209においては再生が終
了したか否かが判別される。ここでいう再生終了とは、
例えばユーザによる再生の停止操作が行われたり、ファ
イルの再生が最後まで終了したような場合をいうもので
ある。このステップS209において再生が終了してい
ないと判別された場合には、ステップS203に戻るよ
うにされる。これによって、再生が終了するまで、上記
したパケット単位での処理が継続されることになる。そ
して、ステップS209において再生が終了したことが
判別されれば、このルーチンを抜けることでこれまでの
再生動作が終了されることになる。
At the next step S209, it is determined whether or not the reproduction has been completed. The end of playback here means
For example, this refers to a case where the user performs a reproduction stop operation or the reproduction of a file is completed to the end. If it is determined in step S209 that the reproduction has not been completed, the process returns to step S203. As a result, the above-described processing in packet units is continued until the reproduction ends. If it is determined in step S209 that the reproduction has been completed, the routine ends by exiting this routine.

【0116】7.変形例 ここで、本実施の形態としての変形例について説明す
る。図15は、図11に代わるセンサ画像SGの表示形
態例を示している。図15においては、圧力センサマッ
ト401Aにより得られたセンサデータとしての圧力値
をドット密度により表示するようにしている。つまり、
ドットの密度が高いほどその部分の圧力が高いことを示
すようにされる。図16は、図11に代わるセンサ画像
SGについての他の表示形態例であり、いわゆる等高線
によりセンサデータとしての圧力値を表現している。こ
のように、センサユニットとして圧力センサマット40
1A等を用いた場合には、その圧力値を表現する表示形
態は多様に考えられるものである。そして、上記図1
1、図15及び図16以外にも各種考えられるものであ
る。
7. Modification Here, a modification as the present embodiment will be described. FIG. 15 shows a display form example of the sensor image SG instead of FIG. In FIG. 15, the pressure value as sensor data obtained by the pressure sensor mat 401A is displayed by dot density. That is,
The higher the dot density, the higher the pressure in that portion. FIG. 16 shows another example of a display form of the sensor image SG instead of FIG. 11, in which pressure values as sensor data are expressed by so-called contour lines. Thus, the pressure sensor mat 40 is used as a sensor unit.
When 1A or the like is used, various display modes for expressing the pressure value can be considered. Then, FIG.
Various other than 1, 1, 15 and 16 can be considered.

【0117】また、図8に示す本実施の形態のセンサユ
ニット400としては、圧力センサマット401Aとす
る以外にも各種考えられる。そこで、センサユニット4
00としての他の例を述べる。1つにはセンサユニット
400のセンサ401として、ヘッドスピードを検出す
るためのセンサを設けるものである。この場合には、例
えば、プレーヤである被写体がスイングするクラブのヘ
ッドスピードが測定可能なようにセンサ401を備え付
ける。そして、ゴルフプレーヤがクラブをスイングする
場面を撮影して録画するようにされる。そしてこのとき
には、クラブをスイングしたときのヘッド速度の情報が
センサ401にて検出され、これがセンサデータとして
ビデオカメラに取り込まれるので、このセンサデータ
も、図13に示したパケットとして記録されるものであ
る。そして、このようにして記録された録画ファイルを
再生したときには、例えば図17に示すようにして再生
動画像の表示がおこなわれる。つまり、図のようにゴル
フプレーヤがスイングしている動画像に対して、ヘッド
速度を示すセンサ画像SG1がインポーズ表示されるも
のである。
Further, as the sensor unit 400 of the present embodiment shown in FIG. 8, various types can be considered in addition to the pressure sensor mat 401A. Therefore, the sensor unit 4
Another example as 00 is described. One is to provide a sensor for detecting the head speed as the sensor 401 of the sensor unit 400. In this case, for example, the sensor 401 is provided so that the head speed of the club in which the subject as the player swings can be measured. Then, a scene in which the golf player swings the club is photographed and recorded. At this time, information on the head speed at the time of swinging the club is detected by the sensor 401, and this is taken into the video camera as sensor data. Therefore, this sensor data is also recorded as a packet shown in FIG. is there. Then, when the recorded file recorded in this manner is reproduced, a reproduced moving image is displayed, for example, as shown in FIG. That is, the sensor image SG1 indicating the head speed is imposed and displayed on the moving image of the golf player swinging as shown in the figure.

【0118】また、1つには、センサユニット400の
センサ401として、ヘッド軌跡をスキャンできるセン
サを設けるようにすることも考えられる。この場合、例
えばセンサ401は、撮像画面上においてゴルフプレー
ヤがスイングするヘッドの位置情報をセンサデータとし
て扱うようにされる。そして、このセンサ401の情報
が入力されている状態でビデオカメラにより録画を行え
ば、プレーヤのスイングに応じて変化するヘッドの位置
情報が、センサデータに含められて記録が行われる。そ
して、上記のようにして記録された録画ファイルを再生
したときには、例えば図18に示すようにして再生動画
像の表示がおこなわれる。ここでは、ゴルフプレーヤが
スイングしている動画像において、そのスイング動作に
伴ってヘッド軌跡を示す線の画像(図では破線で示す)
がセンサ画像SG2としてインポーズ表示されるもので
ある。
As another one, it is conceivable to provide a sensor capable of scanning the head trajectory as the sensor 401 of the sensor unit 400. In this case, for example, the sensor 401 handles position information of the head on which the golf player swings on the imaging screen as sensor data. Then, if recording is performed by a video camera in a state where the information of the sensor 401 is input, head position information that changes according to the swing of the player is included in the sensor data and recorded. When the recorded file recorded as described above is reproduced, a reproduced moving image is displayed, for example, as shown in FIG. Here, in a moving image in which the golf player is swinging, an image of a line indicating a head trajectory along with the swing operation (indicated by a broken line in the figure)
Are imposed and displayed as the sensor image SG2.

【0119】なお、このようなヘッド軌跡をトレースす
るような画像表示を行うのであれば、予め録画前に画面
に表示されているヘッドの画像位置を所定操作によって
記憶させておき、このヘッドの画像の動きベクトルをビ
デオ信号処理部3内において検出することで、画面上の
ヘッド位置情報を得ることもできる。これは、本実施の
形態の場合であれば、ビデオ信号処理部3内に有るMP
EG2のエンコーダにおける動き検出機能を利用するこ
とで容易に実現が可能である。この場合には、特に外部
センサは必要ではなくなり、内部の動き検出回路系がセ
ンサとしての役割を果たすことになる。
If such an image display as to trace the head trajectory is performed, the image position of the head displayed on the screen before recording is stored in advance by a predetermined operation, and the image of the head is stored. By detecting the motion vector in the video signal processing unit 3, the head position information on the screen can be obtained. In the case of the present embodiment, this is the MP in the video signal processing unit 3.
It can be easily realized by using the motion detection function in the encoder of EG2. In this case, an external sensor is not particularly necessary, and the internal motion detection circuit plays a role as a sensor.

【0120】なお、図8に示したセンサユニット400
としての基本的構成は、実際に使用されるセンサ401
の種類などに応じて適宜変更されて構わないものであ
る。
The sensor unit 400 shown in FIG.
The basic configuration of the sensor 401 is as follows.
It may be changed as appropriate according to the type or the like.

【0121】また、本実施の形態としては、センサによ
って得られた或る特定の情報(センサデータ)を撮像画
像及び収音音声と共に記録して、この記録されたセンサ
データが、再生動画像に反映されるようにして表示が行
われるようにすることを主眼とするものであるから、上
記各実施の形態として示したゴルフ以外の用途にも多様
な例が考えられるものである。また、本発明としては、
静止画としての撮像画像情報とセンサデータを関連付け
して記録/再生することも概念として含まれるものであ
る。
Also, in the present embodiment, certain information (sensor data) obtained by the sensor is recorded together with the captured image and the collected sound, and the recorded sensor data is used as a reproduced moving image. Since the main purpose is to perform display in such a manner as to be reflected, various examples can be considered for uses other than golf shown in the above embodiments. Also, as the present invention,
Recording / reproducing by linking captured image information as a still image and sensor data is also included as a concept.

【0122】また、上記実施の形態では、本発明の記録
又は再生装置として、ミニディスクに対応して記録再生
が可能なビデオカメラ装置に搭載された場合について例
を挙げたが、これに限定されるものではなく、例えば、
他のディスクメディアに対応して画像等のファイルを記
録再生可能な記録再生装置や、VTR(Video Tape Reco
rder)などのテープメディアに対応する記録再生装置な
ど適用することも可能とされる。
Further, in the above-described embodiment, an example has been described in which the recording or reproducing apparatus of the present invention is mounted on a video camera apparatus capable of recording and reproducing corresponding to a mini-disc, but the present invention is not limited to this. Not something, for example,
A recording / reproducing device capable of recording / reproducing files such as images corresponding to other disk media,
It is also possible to apply a recording / reproducing device that supports tape media such as rder).

【0123】更に、本実施の形態のビデオカメラとして
は、ビデオ記録再生部位として、MD−DATA2に基
づくディスク記録再生装置としたが、ビデオ記録再生部
位としては、本実施の形態としての構成の他、他の種類
のディスク状記録媒体に対応する記録再生装置とされて
も構わない。更に、動画像データを圧縮するために本実
施の形態では、MPEG2方式を採用するものとして説
明したが、例えば他の動画像データの圧縮符号化が可能
な方式が採用されて構わない。また、静止画データ及び
音声データについての圧縮方式も、本実施の形態として
例示したもの(JPEG,ATRAC2等)に限定され
る必要も特にない。
Furthermore, the video camera according to the present embodiment is a disk recording / reproducing device based on MD-DATA2 as a video recording / reproducing part. Alternatively, the recording / reproducing apparatus may be a recording / reproducing apparatus compatible with another type of disc-shaped recording medium. Furthermore, in the present embodiment, the description has been made on the assumption that the MPEG2 method is used for compressing moving image data. However, for example, a method capable of compressing and encoding other moving image data may be adopted. Also, the compression method for still image data and audio data need not be particularly limited to those exemplified as the present embodiment (JPEG, ATRAC2, etc.).

【0124】[0124]

【発明の効果】以上説明したように本発明は、撮像画像
の記録時において、撮像画像の情報と共に外部のセンサ
手段にて検出されたセンサ情報(センサデータ)を記録
媒体に記録することが可能とされる。そして、上記のよ
うにして撮像画像とセンサ情報が記録された記録媒体を
再生した場合、撮像画像に対してセンサ情報を視覚的に
示すセンサ画像を合成して表示画像として出力させるも
のである。これにより、撮像画像の録画時において、こ
の撮像画像の関連情報である外部センサ情報を、編集素
材として同一の記録媒体に自動的に記録させることが可
能となる。つまり、或る意味では、撮像画像の録画情報
に対して関連情報を付加するという編集作業が、録画時
においてリアルタイムにおこなわれるものである。そし
て、再生時においては、単にこの録画ファイルを再生す
るだけで、編集結果としての再生画像が得られることに
なる。このように、本発明は、編集にあたって利便性が
向上するものである。また、パーソナルコンピュータ等
の編集機材を所有していないユーザであっても、編集さ
れた録画ソースが得られるということで、単にビデオカ
メラで撮影録画を行う場合と比較して、より高い娯楽性
が簡単に得られるという効果も有していることになる。
As described above, according to the present invention, when recording a captured image, sensor information (sensor data) detected by an external sensor means can be recorded on a recording medium together with information on the captured image. It is said. When the recording medium on which the captured image and the sensor information are recorded is reproduced as described above, a sensor image that visually indicates the sensor information is combined with the captured image and output as a display image. This makes it possible to automatically record external sensor information, which is information related to the captured image, on the same recording medium as editing material when recording the captured image. In other words, in a sense, the editing operation of adding the related information to the recording information of the captured image is performed in real time during recording. At the time of reproduction, a reproduced image as an edited result can be obtained simply by reproducing the recorded file. As described above, the present invention improves the convenience in editing. Even users who do not own editing equipment such as personal computers can obtain edited recording sources. It also has the effect of being easily obtained.

【0125】また、撮像画像とセンサ情報は、時間的同
期が得られるようにして記録を行うことで、再生時にお
いては、例えば動画像としての再生画像の再生時間の進
行に伴って変化するセンサデータを反映した画像表示を
行うことができる。これによって、撮像画像に対してセ
ンサ情報の画像を表示させるための編集としてはより高
度な編集効果が得られることになる。そして、この編集
もまた、ユーザはセンサデータを取り込みながら録画を
行うという操作だけで行うことができるものである。
Further, by recording the captured image and the sensor information in such a manner that time synchronization can be obtained, at the time of reproduction, for example, a sensor which changes as the reproduction time of a reproduced image as a moving image advances. Image display reflecting data can be performed. As a result, a higher editing effect can be obtained as editing for displaying the image of the sensor information on the captured image. This editing can also be performed by the user only by performing an operation of recording while capturing the sensor data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態のビデオカメラに対応する
ディスクのトラック構造を示す説明図である。
FIG. 1 is an explanatory diagram showing a track structure of a disc corresponding to a video camera according to an embodiment of the present invention.

【図2】実施の形態のビデオカメラに対応するディスク
のトラック部分を拡大して示す説明図である。
FIG. 2 is an explanatory diagram showing a track portion of a disc corresponding to the video camera of the embodiment in an enlarged manner.

【図3】実施の形態のビデオカメラに対応するディスク
の仕様を示す説明図である。
FIG. 3 is an explanatory diagram showing specifications of a disc corresponding to the video camera of the embodiment.

【図4】実施の形態のビデオカメラの内部構成のブロッ
ク図である。
FIG. 4 is a block diagram of an internal configuration of the video camera according to the embodiment.

【図5】実施の形態のビデオカメラのメディアドライブ
部の内部構成のブロック図である。
FIG. 5 is a block diagram of an internal configuration of a media drive unit of the video camera according to the embodiment.

【図6】実施の形態のビデオカメラの側面図、平面図、
及び背面図である。
FIG. 6 is a side view, a plan view, and the like of the video camera according to the embodiment;
And a rear view.

【図7】実施の形態に対応するディスク内のデータ構造
例を示す概念図である。
FIG. 7 is a conceptual diagram showing an example of a data structure in a disk according to the embodiment.

【図8】本実施の形態のセンサユニットとしての一般的
な構成例を示すブロック図である。
FIG. 8 is a block diagram showing a general configuration example as a sensor unit of the present embodiment.

【図9】センサユニットとして、圧力センサマットを使
用した場合の具体的な使用形態例を示す説明図である。
FIG. 9 is an explanatory diagram showing a specific example of usage when a pressure sensor mat is used as a sensor unit.

【図10】センサ画像がインポーズされる再生画像の表
示形態例を示す説明図である。
FIG. 10 is an explanatory diagram showing a display mode example of a reproduced image in which a sensor image is imposed.

【図11】センサ画像としての一例を示す説明図であ
る。
FIG. 11 is an explanatory diagram showing an example as a sensor image.

【図12】本実施の形態の撮像画像及びセンサデータの
記録動作を示すフローチャートである。
FIG. 12 is a flowchart illustrating a recording operation of a captured image and sensor data according to the present embodiment.

【図13】本実施の形態としての記録データのパケット
構造を示す説明図である。
FIG. 13 is an explanatory diagram showing a packet structure of recording data according to the present embodiment.

【図14】撮像画像と共にセンサデータを表示するため
の録画ファイルの再生処理を示すフローチャートであ
る。
FIG. 14 is a flowchart illustrating a playback process of a recorded file for displaying sensor data together with a captured image.

【図15】センサ画像としての他の表示形態例を示す説
明図である。
FIG. 15 is an explanatory diagram showing another example of a display form as a sensor image.

【図16】センサ画像としての更に他の表示形態例を示
す説明図である。
FIG. 16 is an explanatory diagram showing still another example of a display form as a sensor image.

【図17】変形例として、ヘッドスピードを測定するセ
ンサユニットを用いた場合の再生画像の表示形態例を示
す説明図である。である。
FIG. 17 is an explanatory diagram showing a display mode example of a reproduced image when a sensor unit for measuring a head speed is used as a modification. It is.

【図18】変形例として、画面上のヘッド位置をセンサ
データとするセンサユニットを用いた場合の再生画像の
表示形態例を示す説明図である。
FIG. 18 is an explanatory diagram showing, as a modified example, a display mode example of a reproduced image when a sensor unit using a head position on a screen as sensor data is used.

【符号の説明】[Explanation of symbols]

1 レンズブロック、2 カメラブロック、3 ビデオ
信号処理部、4 メディアドライブ部、5 デッキ部、
6 表示/画像/音声入出力部、6A 表示部、7 操
作部、8 外部インターフェイス、9 電源ブロック、
11 光学系、12 モータ部、22 サンプルホール
ド/AGC回路、23 A/Dコンバータ、24 タイ
ミングジェネレータ、25 カメラコントローラ、31
データ処理/システムコントロール回路、32 バッ
ファメモリ、33 ビデオ信号処理回路、34 メモ
リ、35 動き検出回路、36 メモリ、37 音声圧
縮エンコーダ/デコーダ、38 ビデオコントローラ、
41 MD−DATA2エンコーダ/デコーダ、42
バッファメモリ、43 二値化回路、44 RF信号処
理回路、45 サーボ回路、46 ドライバコントロー
ラ、51 ディスク、52 スピンドルモータ、53
光学ヘッド、54 磁気ヘッド、55 スレッドモー
タ、61 ビデオD/Aコンバータ、62 表示コント
ローラ、63 コンポジット信号処理回路、64 A/
Dコンバータ、65 D/Aコンバータ、66 アン
プ、101 RFアンプ、103 AGC/クランプ回
路、104イコライザ/PLL回路、105 ビタビデ
コーダ、106 RLL(1,7)復調回路、107
マトリクスアンプ、108 ADIPバンドパスフィル
タ、109 A/Bトラック検出回路、110 ADI
Pデコーダ、111 CLVプロセッサ、112 サー
ボプロセッサ、113 サーボドライバ、114 デー
タバス、115 スクランブル/EDCエンコード回
路、116 ECC処理回路、117 デスクランブル
/EDCデコード回路、118 RLL(1,7)変調
回路、119 磁気ヘッド駆動回路、120 レーザド
ライバ、121転送クロック発生回路、201 カメラ
レンズ、202マイクロフォン、203ディスクスロッ
ト、204 ビューファインダ、205 スピーカ、3
00メインダイヤル、301 レリーズキー、304
ズームキー、305 イジェクトキー、306 再生キ
ー、307 停止キー、308,309 サーチキー、
310 十字/クリックキー、311 ジョグダイヤ
ル、401 サムネイル画像、402 ポインタ、41
0 見出し画像、410A 日時見出し画像、Ld ラ
ンド、NWG ノンウォブルドグルーブ、WG ウォブ
ルドグルーブ、Tr・A,Tr・B トラック
1 lens block, 2 camera block, 3 video signal processing section, 4 media drive section, 5 deck section,
6 display / image / audio input / output unit, 6A display unit, 7 operation unit, 8 external interface, 9 power supply block,
Reference Signs List 11 optical system, 12 motor unit, 22 sample hold / AGC circuit, 23 A / D converter, 24 timing generator, 25 camera controller, 31
Data processing / system control circuit, 32 buffer memory, 33 video signal processing circuit, 34 memory, 35 motion detection circuit, 36 memory, 37 audio compression encoder / decoder, 38 video controller,
41 MD-DATA2 encoder / decoder, 42
Buffer memory, 43 binarization circuit, 44 RF signal processing circuit, 45 servo circuit, 46 driver controller, 51 disk, 52 spindle motor, 53
Optical head, 54 magnetic head, 55 thread motor, 61 video D / A converter, 62 display controller, 63 composite signal processing circuit, 64 A /
D converter, 65 D / A converter, 66 amplifier, 101 RF amplifier, 103 AGC / clamp circuit, 104 equalizer / PLL circuit, 105 Viterbi decoder, 106 RLL (1, 7) demodulation circuit, 107
Matrix amplifier, 108 ADIP bandpass filter, 109 A / B track detection circuit, 110 ADI
P decoder, 111 CLV processor, 112 servo processor, 113 servo driver, 114 data bus, 115 scramble / EDC encoding circuit, 116 ECC processing circuit, 117 descramble / EDC decoding circuit, 118 RLL (1, 7) modulation circuit, 119 Magnetic head drive circuit, 120 laser driver, 121 transfer clock generation circuit, 201 camera lens, 202 microphone, 203 disk slot, 204 viewfinder, 205 speaker, 3
00 main dial, 301 release key, 304
Zoom key, 305 Eject key, 306 Play key, 307 Stop key, 308, 309 Search key,
310 Cross / click key, 311 jog dial, 401 thumbnail image, 402 pointer, 41
0 heading image, 410A date and time heading image, Ld land, NWG non-wobbled groove, WG wobbled groove, TrA, TrB track

───────────────────────────────────────────────────── フロントページの続き (72)発明者 諸冨 司郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 樫本 智代 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C022 AB02 AB22 AC03 AC31 AC42 AC54 AC69 AC71 AC72 AC74 5C023 AA11 AA14 AA18 AA37 CA01 CA05 CA08 DA01 DA08 EA17 5C053 FA23 GA11 GB36 GB38 JA01 JA30 KA01 KA24 KA25 LA01 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shiro Morotomi 6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Tomoyo Kashimoto 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation F term (reference) 5C022 AB02 AB22 AC03 AC31 AC42 AC54 AC69 AC71 AC72 AC74 5C023 AA11 AA14 AA18 AA37 CA01 CA05 CA08 DA01 DA08 EA17 5C053 FA23 GA11 GB36 GB38 JA01 JA30 KA01 KA24 KA25 KA25 LA01

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 撮像画像を得る撮像手段と、 所定の検出対象を検出するもので、当該記録装置とは別
体とされるセンサ手段にて検出されたセンサ情報を入力
するセンサ情報入力手段と、 上記撮像画像に基づいて得られる画像情報を所定の記録
媒体に記録可能とされた上で、この画像情報の記録時に
おいて上記センサ情報入力手段により取得されるセンサ
情報を上記記録媒体に記録可能とされる記録手段と、 を備えていることを特徴とする記録装置。
An imaging unit for obtaining a captured image; a sensor information input unit for detecting a predetermined detection target and inputting sensor information detected by a sensor unit separate from the recording device; The image information obtained based on the captured image can be recorded on a predetermined recording medium, and the sensor information obtained by the sensor information input means can be recorded on the recording medium when the image information is recorded. And a recording means.
【請求項2】 上記記録手段は、 上記画像情報と上記センサ情報との時間的同期が得られ
るようにされた所定の形式によって、上記画像情報と上
記センサ情報を記録可能に構成されていることを特徴と
する請求項1に記載の記録装置。
2. The recording means is configured to be able to record the image information and the sensor information in a predetermined format in which time synchronization between the image information and the sensor information can be obtained. The recording device according to claim 1, wherein:
【請求項3】 撮像画像が画像情報として記録されてい
ると共に、記録時において所定の状態を検出する外部セ
ンサ手段から入力したセンサ情報が記録されている記録
媒体に対応した再生を行う再生装置であって、 上記記録媒体から、少なくとも上記画像情報及び上記セ
ンサ情報を読み出すことのできるデータ読み出し手段
と、 少なくとも、上記データ読み出し手段により読み出した
画像情報から表示画像情報を生成して出力することので
きる再生出力手段と、 上記データ読み出し手段により読み出されたセンサ情報
に基づいて、センサ情報を視覚的に表現するセンサ画像
情報を生成するセンサ画像生成手段と、 上記再生出力手段において、上記データ読み出し手段に
より読み出した画像情報に対して上記センサ画像情報を
合成した表示画像情報が出力されるように、上記データ
読み出し手段と、上記センサ画像生成手段と、上記再生
出力手段の各動作を制御することのできる再生制御手段
と、 を備えていることを特徴とする再生装置。
3. A reproducing apparatus for reproducing a recorded medium in which a captured image is recorded as image information and sensor information inputted from an external sensor means for detecting a predetermined state at the time of recording is recorded. A data reading unit that can read at least the image information and the sensor information from the recording medium; and at least display image information can be generated and output from the image information read by the data reading unit. Reproduction output means; sensor image generation means for generating sensor image information for visually expressing sensor information based on the sensor information read by the data read means; and in the reproduction output means, the data read means Display image that combines the sensor image information with the image information read by A reproducing apparatus comprising: the data readout unit; the sensor image generating unit; and a reproduction control unit capable of controlling each operation of the reproduction output unit so that information is output. .
【請求項4】 上記記録媒体には、上記画像情報と上記
センサ情報との時間的同期が得られるようにされた所定
の形式によって上記画像情報と上記センサ情報を記録可
能とされているものとしたうえで、 上記再生制御手段は、 上記画像情報と上記センサ情報との時間的同期が得られ
た表示画像情報が上記再生出力手段から出力されるよう
に、上記データ読み出し手段と、上記センサ画像生成手
段と、上記再生出力手段の各動作を制御可能に構成され
ていることを特徴とする請求項3に記載の再生装置。
4. The recording medium, wherein the image information and the sensor information can be recorded in a predetermined format in which time synchronization between the image information and the sensor information can be obtained. Then, the reproduction control means includes: the data readout means; and the sensor image, so that display image information obtained by obtaining temporal synchronization between the image information and the sensor information is output from the reproduction output means. 4. The reproducing apparatus according to claim 3, wherein each operation of the generating unit and the reproducing output unit is configured to be controllable.
JP11037423A 1999-02-16 1999-02-16 Recording device and reproducing device Withdrawn JP2000236466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11037423A JP2000236466A (en) 1999-02-16 1999-02-16 Recording device and reproducing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11037423A JP2000236466A (en) 1999-02-16 1999-02-16 Recording device and reproducing device

Publications (1)

Publication Number Publication Date
JP2000236466A true JP2000236466A (en) 2000-08-29

Family

ID=12497123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11037423A Withdrawn JP2000236466A (en) 1999-02-16 1999-02-16 Recording device and reproducing device

Country Status (1)

Country Link
JP (1) JP2000236466A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013188426A (en) * 2012-03-15 2013-09-26 Sony Corp Information processing apparatus, information processing system, and program
JP2014011633A (en) * 2012-06-29 2014-01-20 Casio Comput Co Ltd Radio synchronization system, radio apparatus, sensor apparatus, radio synchronization method, and program
WO2014073454A1 (en) * 2012-11-09 2014-05-15 ソニー株式会社 Information processing device, information processing method, and recording medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013188426A (en) * 2012-03-15 2013-09-26 Sony Corp Information processing apparatus, information processing system, and program
US10460157B2 (en) 2012-03-15 2019-10-29 Sony Corporation Information processing device, information processing system, and program
US11250247B2 (en) 2012-03-15 2022-02-15 Sony Group Corporation Information processing device, information processing system, and program
JP2014011633A (en) * 2012-06-29 2014-01-20 Casio Comput Co Ltd Radio synchronization system, radio apparatus, sensor apparatus, radio synchronization method, and program
KR101528208B1 (en) * 2012-06-29 2015-06-16 가시오게산키 가부시키가이샤 Wireless synchronous system, radio apparatuses, sensor devices, wireless synchronizing method, and computer-readable recording medium
US9451218B2 (en) 2012-06-29 2016-09-20 Casio Computer Co., Ltd. Wireless synchronous system, radio apparatuses, sensor devices, wireless synchronizing method, and computer-readable recording medium
WO2014073454A1 (en) * 2012-11-09 2014-05-15 ソニー株式会社 Information processing device, information processing method, and recording medium
JPWO2014073454A1 (en) * 2012-11-09 2016-09-08 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
US9946352B2 (en) 2012-11-09 2018-04-17 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10042431B2 (en) 2012-11-09 2018-08-07 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2018139409A (en) * 2012-11-09 2018-09-06 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
US10289209B2 (en) 2012-11-09 2019-05-14 Sony Corporation Information processing apparatus, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP3982072B2 (en) Image processing apparatus and display method
US7970259B2 (en) Recording and / or reproducing apparatus and editing method
US7236684B2 (en) Editing apparatus and editing method
JPH11238245A (en) Photodetection signal processor
JP3903561B2 (en) Recording apparatus and recording method
JP4269465B2 (en) Image display system and image display method
JP4820485B2 (en) Image processing device
JP2000236466A (en) Recording device and reproducing device
JP4178679B2 (en) Recording / reproducing apparatus and image display method
JP2000215648A (en) Recording device
JPH11339446A (en) Recording/reproducing apparatus
JP2000217055A (en) Image processor
JP3988266B2 (en) Recording / reproducing apparatus, recording / reproducing method, and recording medium
JP2001069387A (en) Recorder and recording method
JPH11220684A (en) Recording device
JPH11219525A (en) Disk shaped recording medium, recorder and reproducer
JPH11273230A (en) Recording medium, recording and reproducing device and its method
JPH11213524A (en) Recording and reproducing device
JP4423698B2 (en) Thumbnail display device
JP4114317B2 (en) Editing device
JPH11195288A (en) Editing device and disk recording medium
JPH11205719A (en) Image processing unit
JP2002135709A (en) Editing device, recording and reproducing device, editing method, and recording medium
JP2000050191A (en) Editing device
JPH11266421A (en) Recording device and reproducing device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509