JP2000184396A - Video processor, its control method and storage medium - Google Patents

Video processor, its control method and storage medium

Info

Publication number
JP2000184396A
JP2000184396A JP10351892A JP35189298A JP2000184396A JP 2000184396 A JP2000184396 A JP 2000184396A JP 10351892 A JP10351892 A JP 10351892A JP 35189298 A JP35189298 A JP 35189298A JP 2000184396 A JP2000184396 A JP 2000184396A
Authority
JP
Japan
Prior art keywords
video
image
images
correcting
transmitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10351892A
Other languages
Japanese (ja)
Other versions
JP4018273B2 (en
Inventor
Tomohiko Matsuura
友彦 松浦
Taichi Matsui
太一 松井
Hiroaki Sato
宏明 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP35189298A priority Critical patent/JP4018273B2/en
Priority to US09/456,293 priority patent/US6704042B2/en
Publication of JP2000184396A publication Critical patent/JP2000184396A/en
Application granted granted Critical
Publication of JP4018273B2 publication Critical patent/JP4018273B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereo video image without a sense of incongruity to an operator at a remote terminal by unifying lightness of stereo images obtained by 2-system of image pickup means and transmitting them to the remote terminal. SOLUTION: The video processor has two systems of image pickup means 1-1, 1-4 and video images obtained by each of the means are fed to a RAM 1-10 via an I/O 1-13. Then a CPU 1-9 detects luminance of corresponding point with correlation in the respective video images and corrects the luminance to be the same for both the images substantially. Then the corrected video image is transmitted to a remote terminal via a communication control section 1-14 and a network 1-19.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は映像処理装置及びそ
の制御方法及び記憶媒体、詳しくは所定のネットワーク
回線を介して遠隔端末に撮像映像を送信する映像処理装
置及びその制御方法及び記憶媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video processing apparatus, a control method thereof, and a storage medium, and more particularly to a video processing apparatus for transmitting a captured video to a remote terminal via a predetermined network line, a control method thereof, and a storage medium. It is.

【0002】[0002]

【従来の技術】ビデオカメラなどで撮影された映像情報
をインターネットに代表される、いわゆるネットワーク
を介して遠隔地の端末に送信し、撮影された映像をその
遠隔地の端末においてライブ、つまり、動画表示可能な
技術が実用化されている。
2. Description of the Related Art Image information captured by a video camera or the like is transmitted to a remote terminal via a so-called network represented by the Internet, and the captured video is live at the remote terminal, ie, a moving image. Displayable technologies have been put to practical use.

【0003】この技術を用いて、並列に配置された2台
のビデオカメラにより撮影された2系統の映像を遠隔地
に送信し、遠隔地において立体感のあるステレオ映像を
ライブで表示する技術を考察する。
[0003] Using this technique, a technique of transmitting two systems of images taken by two video cameras arranged in parallel to a remote place, and displaying a stereoscopic three-dimensional image live in the remote place. Consider.

【0004】一般に、この種の撮影システムを構築しよ
うとする場合、安価に供給されている家庭用ビデオカメ
ラに内蔵されているカメラモジュールなどを使用するこ
とが考えられるであろう。
In general, when attempting to construct this type of photographing system, it would be conceivable to use a camera module or the like built in a home video camera supplied at low cost.

【0005】[0005]

【発明が解決しようとする課題】しかし、家庭用ビデオ
カメラに内蔵されているカメラモジュールなどはAE
(自動露出)機能を解除できないことが多い。それ故、
1台のビデオカメラにより得られる映像を発信する場合
には全く問題とならなかった点が、2台のビデオカメラ
により得られる一対のステレオ映像を発信しようとする
場合に問題になることがある。その理由は、ビデオカメ
ラのAE機能を解除できないことにより、それぞれ異な
るAE値で撮影された映像を発信してしまうからであ
る。
However, a camera module or the like built in a home video camera is an AE.
In many cases, the (auto exposure) function cannot be released. Therefore,
What was not a problem when transmitting an image obtained by one video camera may be a problem when transmitting a pair of stereo images obtained by two video cameras. The reason for this is that, because the AE function of the video camera cannot be released, images shot with different AE values are transmitted.

【0006】仮に、同じAE値で撮影できる、若しくは
AE機能を解除できるとしても、各カメラモジュールの
個体差により完全に同じ輝度信号が得られるとも限らな
い。このようなビデオカメラにより得られる一対のステ
レオ映像をそのまま発信してしまった場合、遠隔地の端
末上でステレオ映像を再現するとき、観察者の左右の目
に異なる明るさの映像を提示してしまい、違和感を拭え
ず、都合が悪い。
[0006] Even if the photographing can be performed with the same AE value or the AE function can be canceled, it is not always the case that completely the same luminance signal can be obtained due to the individual difference of each camera module. If a pair of stereo images obtained by such a video camera is transmitted as it is, when reproducing the stereo image on a remote terminal, images of different brightness are presented to the left and right eyes of the observer. It is inconvenient because you can't wipe out the discomfort.

【0007】[0007]

【課題を解決するための手段】本発明はかかる点に鑑み
なされたものであり、2系統の撮像手段で得られたステ
レオ画像の明るさを統一して、遠隔端末に送信すること
で、遠隔端末の操作者に違和感のないステレオ映像を提
供することを可能ならしめる映像処理装置及びその制御
方法及び記憶媒体を提供しようとするものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and it is possible to unify the brightness of stereo images obtained by two types of imaging means and transmit the stereo images to a remote terminal, thereby enabling remote control. It is an object of the present invention to provide an image processing apparatus, a control method thereof, and a storage medium that enable a terminal operator to provide a stereo image without a sense of discomfort.

【0008】少なくとも2系統の撮像手段から得られた
映像情報を所定のネットワークを介して配信する映像処
理装置であって、前記撮像手段により得られたそれぞれ
の映像中の明度情報を検出する検出手段と、該検出手段
で検出されたそれぞれの映像中の明度情報に基づいて、
一方の映像を補正する補正手段と前記補正手段で補正さ
れた映像を組み合わせて前記ネットワークを介して送信
する送信手段とを備える。
A video processing apparatus for distributing video information obtained from at least two systems of imaging means via a predetermined network, wherein said detection means detects lightness information in each video obtained by said imaging means. And, based on the brightness information in each video detected by the detection means,
A correcting unit for correcting one of the images; and a transmitting unit for combining the image corrected by the correcting unit and transmitting the combined image via the network.

【0009】[0009]

【発明の実施の形態】以下、添付図面に従って本発明に
係る実施形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0010】本実施形態の基本概念を簡単に説明すると
次の通りである。
The basic concept of the present embodiment will be briefly described as follows.

【0011】並列に配置された2台のビデオカメラによ
り得られる2つのビデオ信号(ステレオビデオ信号)を
リアルタイムでキャップチャできる映像配信装置(カメ
ラサーバ)において、キャップチャされた2つの映像を
比較し、それぞれの映像の対応する箇所がそれぞれ同じ
ような輝度値を持つように明るさの補正を行い、補正後
の2つの映像を縮小および結合することによりひとつ映
像として再合成し、ネットワークを介して遠隔地の端末
(クライアント)にステレオ映像を発信するものであ
る。
[0011] In a video distribution device (camera server) capable of capturing in real time two video signals (stereo video signals) obtained by two video cameras arranged in parallel, the two captured videos are compared. , Correct the brightness so that the corresponding portions of the respective images have the same luminance value, reduce and combine the two corrected images to re-synthesize them as one image, and It transmits stereo images to remote terminals (clients).

【0012】以下、これを実現するための構成とその動
作を説明する。
Hereinafter, a configuration for realizing this and an operation thereof will be described.

【0013】図1は本実施形態の映像配信装置のブロッ
ク構成図である。
FIG. 1 is a block diagram of the video distribution apparatus of the present embodiment.

【0014】ハードウェアとしては、撮影装置1−1及
び1−4と、映像処理装置1−8から構成される。映像
処理装置1−8は、ビデオカメラからの映像を取り込
(キャプチャ)するハードウェアを有するものの、汎用
の情報処理装置(例えばパーソナルコンピュータ等)と
ソフトウェアでもって実現できるものである。
The hardware includes photographing devices 1-1 and 1-4 and a video processing device 1-8. The video processing device 1-8 has hardware for capturing video from a video camera, but can be realized by a general-purpose information processing device (for example, a personal computer) and software.

【0015】撮影装置1−1(撮像装置1−4も同様)
は映像を入力する撮像部1−2(1−5)と撮影時の露
出状態を自動的に決定する露出制御部1−3(1−6)
からなる。ここで露出状態を決定するパラメータとして
は、シャッタースピード、アイリス、ゲイン、ホワイト
バランスなどが考えられるが、ここでは特に限定しな
い。また以下の説明では簡単のためにこれらをまとめて
単に露出パラメータと言う。
Photographing device 1-1 (similarly for photographing device 1-4)
Denotes an imaging unit 1-2 (1-5) for inputting an image and an exposure control unit 1-3 (1-6) for automatically determining an exposure state at the time of shooting.
Consists of Here, the parameters for determining the exposure state include a shutter speed, an iris, a gain, and a white balance, but are not particularly limited here. In the following description, these are collectively referred to simply as exposure parameters for simplicity.

【0016】撮像部1−2(1−5)の映像出力信号は
NTSC形式やYC分離方式などがあり、映像は映像処
理装置1−8に具備されるI/O部1−13を介し、映
像処理装置1−8内のRAM1−10に順次格納され
る。このときI/O1−13はいわゆるキャプチャボー
ドなどと呼ばれる映像を実時間でキャプチャすることの
できる適当なインタフェースを2系統備えているものと
する。
The video output signal of the imaging unit 1-2 (1-5) has an NTSC format or a YC separation system, and the video is output via an I / O unit 1-13 provided in a video processing device 1-8. The data is sequentially stored in the RAM 1-10 in the video processing device 1-8. At this time, it is assumed that the I / O 1-13 has two suitable interfaces called a capture board or the like capable of capturing an image in real time.

【0017】露出制御部1−3(1−6)は撮影してい
る画面全体に対して明度バランスを自動的に調整する機
能を持つ。露出制御部1−3(1−6)は制御信号線を
通じて撮像部1−2(1−5)から得られる輝度信号を
参照したり、その情報をもとに算出された最適な露出パ
ラメータを使用して撮影するように撮像部1−2(1−
5)に指示することが可能である。
The exposure control section 1-3 (1-6) has a function of automatically adjusting the lightness balance with respect to the entire screen being photographed. The exposure control unit 1-3 (1-6) refers to a luminance signal obtained from the imaging unit 1-2 (1-5) through a control signal line, and sets an optimal exposure parameter calculated based on the information. The imaging unit 1-2 (1-
It is possible to instruct 5).

【0018】撮像部1−2(1−5)及び露出制御部1
−3(1−6)を備える撮影装置1−1(1−4)は、
家庭用のビデオカメラに内蔵されているカメラモジュー
ルを用いることで容易に実現できる。
Image pickup section 1-2 (1-5) and exposure control section 1
The photographing apparatus 1-1 (1-4) including -3 (1-6)
This can be easily realized by using a camera module built in a home video camera.

【0019】映像処理装置1−8は、装置全体の制御を
司るCPU1−9、CPU1−9のワークエリアとして
使用したり、OS、カメラサーバとして機能するアプリ
ケーション等をロードし、実行するためのRAM1−1
0をはじめ、以下の構成を備える。
A video processing device 1-8 is a RAM 1-1 for controlling the CPU 1-9, which controls the entire device, and a RAM 1 for loading and executing an OS, an application functioning as a camera server, and the like, and the like. -1
0 and the following configuration.

【0020】1−11は、ブートプログラムやBIOS
が記憶されているROMであり、1ー12はOS,カメ
ラサーバとして機能するプログラム等を記憶している二
次記憶装置(ハードディスク装置等)である。1−13
は撮影装置1−1(1−14)との通信を行うI/Oで
あり、1−14はネットワーク1−19を通じて遠隔地
へのステレオ映像を発信する通信制御部である。1−1
8は、上記の各処理部を接続するバスである。映像処理
装置1−8は先に説明したように汎用のコンピュータに
より実現できる。また、バス1−18にはキーボード1
−15、マウスなどのポインティングデバイス1−1
6、映像モニタ1−17が接続される。
1-11 is a boot program and a BIOS.
Is a secondary storage device (such as a hard disk device) that stores an OS, a program functioning as a camera server, and the like. 1-13
Is an I / O for communicating with the photographing apparatus 1-1 (1-14), and 1-14 is a communication control unit for transmitting a stereo image to a remote place via the network 1-19. 1-1
Reference numeral 8 denotes a bus that connects the above processing units. The video processing device 1-8 can be realized by a general-purpose computer as described above. A keyboard 1 is connected to the bus 1-18.
-15, pointing device 1-1 such as mouse
6. The video monitor 1-17 is connected.

【0021】映像処理装置1−8は、撮影装置1−1及
び1−4から得られる2系統の映像に対して後述するよ
うな処理を施しステレオ映像を生成し、ネットワーク1
−19を通じて遠隔地の端末(クライアント)にステレ
オ映像を発信する処理を行う。
The video processing device 1-8 generates a stereo video by performing the processing described later on the two systems of video obtained from the photographing devices 1-1 and 1-4, and generates a stereo video.
A process of transmitting a stereo image to a remote terminal (client) through -19 is performed.

【0022】図2を用いて本実施形態の基本原理を説明
する。
The basic principle of this embodiment will be described with reference to FIG.

【0023】同図(a)は並列に配置された2台のビデ
オカメラが同時に、或る情景を撮影している様子を示し
たものである。2−1及び2−2はビデオカメラであ
り、図1の撮影装置1−1及び1−4に相当する。2−
3は2台のビデオカメラにより撮影されている情景を表
しており、2−4及び2−5はそれぞれビデオカメラ2
−1及び2−2で撮影された情景に対する映像信号のあ
る時点の映像を表している。
FIG. 1A shows a state in which two video cameras arranged in parallel are simultaneously photographing a certain scene. Reference numerals 2-1 and 2-2 denote video cameras, which correspond to the photographing apparatuses 1-1 and 1-4 in FIG. 2-
Reference numeral 3 denotes a scene shot by two video cameras, and reference numerals 2-4 and 2-5 denote video cameras 2 respectively.
1 shows a video at a certain point in time of a video signal corresponding to the scene captured by -1 and 2-2.

【0024】2台のビデオカメラ2−1及び2−2はそ
れらの撮影位置が互いに異なるため、映像2−4及び2
−5では情景2−3の見え方が若干異なっている。さら
に、ビデオカメラ2−1及び2−2に具備される露出制
御部1−3及び1−6の適正露出判定結果が異なった
り、またはビデオカメラ2−1及び2−2そのものの個
体差により、映像2−4及び2−5では画面全体の明る
さも同一ではない。
Since the two video cameras 2-1 and 2-2 have different photographing positions, the images 2-4 and 2
At -5, the appearance of the scene 2-3 is slightly different. Further, the proper exposure determination results of the exposure control units 1-3 and 1-6 provided in the video cameras 2-1 and 2-2 are different, or individual differences between the video cameras 2-1 and 2-2 are caused. In the images 2-4 and 2-5, the brightness of the entire screen is not the same.

【0025】同図(a)で撮影されている2系統の映像
信号を映像処理装置1−8に入力してステレオ映像を生
成する原理を同図(b)に示す。
FIG. 2B shows the principle of generating a stereo image by inputting the two-system video signals photographed in FIG. 2A to the image processing device 1-8.

【0026】図示の2−6は映像処理装置1−8に相当
し、同装置内に入力された2系統の映像がどのように加
工されて出力されるのかを模式的に示したものである。
2−7及び2−8は2台のビデオカメラ2−1及び2−
2が撮影し、I/O1−13によりキャップチャされR
AM1−10に格納された2系統の映像である。これら
2系統の映像間において、相互相関値が最大となる対応
づけを求める等の公知の画像処理技術により映像間の対
応関係を調べ、対応する場所を同じ明るさに補正して得
られた映像が2−9及び2−10である。
Reference numeral 2-6 in the drawing corresponds to the image processing apparatus 1-8, and schematically shows how two systems of images input into the apparatus are processed and output. .
2-7 and 2-8 are two video cameras 2-1 and 2-
2 shoots and is captured by I / O1-13 and R
It is a video of two systems stored in AM1-10. The image obtained by correcting the correspondence between the two systems of images by using a known image processing technique such as finding a correspondence that maximizes the cross-correlation value and correcting the corresponding locations to the same brightness. Are 2-9 and 2-10.

【0027】次にこれらの映像をやはり公知の画像処理
技術により縦方向だけ半分の大きさに圧縮することによ
り得られる映像が2−11及び2−12である。最後に
圧縮された2系統の映像2−11及び2−12を統合
し、ひとつの映像としたものが2−13であり、この最
終的に生成された映像2−13がネットワークを通じて
遠隔地の端末に発信される。
Next, images 2-11 and 2-12 are obtained by compressing these images to half the size in the vertical direction by the well-known image processing technique. Finally, the two compressed images 2-11 and 2-12 are integrated into one image 2-13, and the finally generated image 2-13 is transmitted to a remote location through a network. Called to the terminal.

【0028】上記処理を実現するプログラムは、二次記
憶1−12内にあって、これをRAM1−10にロード
し、CPU1−9が実行するものとしているが、ROM
に納めら専用装置として構成させても良いのは勿論であ
る。
The program for realizing the above processing is in the secondary storage 1-12, which is loaded into the RAM 1-10 and executed by the CPU 1-9.
Needless to say, the device may be configured as a dedicated device.

【0029】さて、映像2−13を受け取った遠隔地端
末(やはり、汎用情報処理装置で構成可能)では、以上
で説明してきたような処理を逆にたどる。即ち、映像2
−13を縦方向に分離し、得られた2系統の映像をそれ
ぞれ縦方向に伸張する。このようにして得られた2系統
の映像を一対のステレオ映像として提示する。提示の方
法に関してはヘッドマウントディスプレイ、レンティキ
ュラスクリーン、液晶シャッター、偏向眼鏡など様々な
方法が考えられるがこれは本発明の本質的な部分ではな
いので特に限定しない。
On the other hand, the remote terminal receiving the video 2-13 (which can also be constituted by a general-purpose information processing device) reverses the above-described processing. That is, video 2
-13 is separated in the vertical direction, and the obtained two systems of images are respectively expanded in the vertical direction. The two systems of images obtained in this way are presented as a pair of stereo images. Regarding the method of presentation, various methods such as a head-mounted display, a lenticular screen, a liquid crystal shutter, and polarizing glasses can be considered, but these are not an essential part of the present invention and are not particularly limited.

【0030】以上説明したように、2台のビデオカメラ
により得られるステレオ映像をネットワーク上に発信す
る前に、それらの輝度信号を比較し補正する手段を設け
ることにより、2台のビデオカメラから得られる一対の
ステレオ信号の明るさを統一することができるため、伝
送先の遠隔地に対してより違和感の少ないステレオ映像
を提供することが可能となる。
As described above, before transmitting a stereo image obtained by the two video cameras to the network, means for comparing and correcting the luminance signals thereof is provided. Since the brightness of a pair of stereo signals can be unified, it is possible to provide a stereo image with less discomfort to a remote place at the transmission destination.

【0031】図3は本実施形態の映像処理装置の基本処
理手順を示すフローチャートである。全体の流れとして
は、2台のビデオカメラにより撮影された2系統の映像
の明るさを統一し、両映像を結合することによりひとつ
の映像を再合成して発信するというものである。
FIG. 3 is a flowchart showing a basic processing procedure of the video processing apparatus of the present embodiment. The overall flow is to unify the brightness of two systems of images taken by two video cameras, recompose one image by combining both images, and transmit the combined image.

【0032】はじめに、2台のビデオカメラ1−1及び
1−4を用いて撮影されている2系統の映像を映像処理
装置1−8に入力する(ステップS301)。これは、
映像処理装置1−8に具備されるI/O1−1を介して
行われる。入力された2系統の映像は直ちにRAM1−
10(または二次記憶1−12)に格納される(ステッ
プS302)。次に、ステップS303ではRAM1−
10(または二次記憶1−12)に格納されている2系
統の映像にたいして相互相関値を利用することによりそ
の対応関係を求めている。ここで2つの映像間の相互相
関値を算出し、それが最大となる対応づけを求めること
により、2つの映像間の対応関係を抽出する。次に、ス
テップS304では求められた2系統の映像が対応関係
を利用して、両映像が同じような明度を持つように明度
の補正を行う。これは映像内で対応している部分の輝度
情報を比較することによりその映像の明度補正量を算出
し、その補正量を用いて片方(または両方)の映像の明
度補正が行われる。
First, two systems of video images captured using the two video cameras 1-1 and 1-4 are input to the video processing device 1-8 (step S301). this is,
This is performed via the I / O 1-1 provided in the video processing device 1-8. The input two video images are immediately stored in RAM 1-
10 (or the secondary storage 1-12) (step S302). Next, in step S303, RAM1-
The corresponding relationship is obtained by using the cross-correlation value for the two systems of video stored in the secondary storage 10 (or the secondary storage 1-12). Here, the correlation between the two videos is extracted by calculating the cross-correlation value between the two videos and finding the association that maximizes the value. Next, in step S304, brightness correction is performed using the correspondence relationship between the obtained two systems of video so that the two videos have the same brightness. In this method, the brightness correction amount of the video is calculated by comparing the luminance information of the corresponding portions in the video, and the brightness correction of one (or both) video is performed using the correction amount.

【0033】次に明度の統一された2系統の映像をそれ
ぞれ縦方向に半分の大きさまで縮小し(ステップS30
5)、縮小された2系統の映像を縦方向に結合してひと
つの映像として再合成する(ステップS306)。これ
らの処理も公知の画像処理技術により実現可能である。
こうして、生成されたステレオ映像がネットワーク1−
19を介して遠隔地に発信される(ステップSS30
7)。
Next, the two systems of images having the same brightness are reduced to half the size in the vertical direction, respectively (step S30).
5) The reduced two-system video is combined in the vertical direction and recombined as one video (step S306). These processes can also be realized by a known image processing technique.
Thus, the generated stereo image is transmitted to the network 1-
Is transmitted to a remote place via the remote control 19 (step SS30).
7).

【0034】なお、ステップS305及びS306の処
理を行う目的は、そもそも2系統の映像が一対のステレ
オ映像であることから、これらを別々に発信してしまう
と受信側で2系統の映像の同期をとる必要が生じたり、
伝送中のネットワーク内で片方の映像がロスした場合な
どステレオ映像にとって都合の悪い状況が発生するのを
軽減するためである。
The purpose of performing the processing of steps S305 and S306 is that the two systems are originally a pair of stereo images, and if these are transmitted separately, the two systems are synchronized on the receiving side. Need to be taken,
This is to reduce the occurrence of a situation that is inconvenient for stereoscopic video, such as when one video is lost in the network being transmitted.

【0035】また、ステップS304の処理において、
2系統の映像の対応関係をもとに両映像の明度を補正す
る方法はいくつか考えられるが、以下にその簡単な例を
説明する。
In the process of step S304,
There are several methods for correcting the brightness of the two images based on the correspondence between the two systems of images, and a simple example will be described below.

【0036】2つの映像の相互相関値が最大になる対応
関係を求めた場合、一方の映像(以下映像Aと表す)が
他方の映像(以下映像Bと表す)に対してどれだけ画素
位置がずれているかという情報が映像全体としてただひ
とつだけ求まる。この位置ずれの量を(δx,δy)と
表す。映像Aの画素をA(x,y)、映像Bの画素をB
(x,y)と表すと、A(x,y)はB(x+δx,y
+δy)と対応していることになる(もちろん映像の境
界を越えた場合はその限りではない)ため、映像Aをラ
スタスキャンし、それぞれの画素についてA(x,y)
とB(x+δx,y+δy)の輝度信号の差をe(x,
y)として求め、映像全体においてe(x,y)の平均
値を求めることにより、映像Bの全ての画素に対する輝
度値補正量を算出することができる。
When a correspondence relationship in which the cross-correlation value between two images is maximized is obtained, how much the pixel position of one image (hereinafter, referred to as image A) is different from that of the other image (hereinafter, referred to as image B). Only one piece of information as to whether the image is out of alignment is obtained for the entire image. The amount of this displacement is represented as (δx, δy). Pixels of video A are A (x, y), pixels of video B are B
When expressed as (x, y), A (x, y) becomes B (x + δx, y
+ Δy) (of course, this is not the case if the boundary of the image is exceeded), so that the image A is raster-scanned, and A (x, y) is obtained for each pixel.
And the difference between the luminance signals of B (x + δx, y + δy) as e (x,
y), and calculating the average value of e (x, y) in the entire video, it is possible to calculate the luminance correction amount for all the pixels of the video B.

【0037】以上が、映像間の相互相関値が最大となる
ような対応関係を利用した場合の映像の明度を補正する
方法の例であるが、もちろんこれは極簡単な処理の例で
あり更に適当な方法によって補正精度の向上が期待でき
る。
The above is an example of the method of correcting the brightness of an image when utilizing the correspondence that maximizes the cross-correlation value between the images. However, this is, of course, an example of a very simple process. Improvement of correction accuracy can be expected by an appropriate method.

【0038】<第2の実施形態>第2の実施形態を説明
する。本第2の実施形態では上記の第1の実施形態に加
えて、映像信号の処理をハードウェアで実行するため
に、DSP(Digital Signal Processor)を付加する。こ
のように比較的計算コストの高い画像処理をハードウェ
アで実行することにより、映像信号の処理速度が上がり
さらにリアルタイム性を向上させることができる。
<Second Embodiment> A second embodiment will be described. In the second embodiment, in addition to the first embodiment, a DSP (Digital Signal Processor) is added to execute processing of a video signal by hardware. As described above, by executing the image processing with relatively high computational cost by hardware, the processing speed of the video signal can be increased and the real-time property can be further improved.

【0039】図4は本第2の実施形態のハードウェア構
成を示すブロック図である。以下では図1と異なる部分
に関してのみ説明する。図4では撮影装置1−1及び1
−4と映像処理装置1−8との間にDSP1−7を設け
る。DSP1−7は撮影装置1−1及び1−4とビデオ
信号線で接続されており撮影装置1−1及び1−4が撮
影する2系統の映像をキャプチャし、上記第1の実施形
態で述べたような映像処理をハードウェアで高速に実行
する機能を有する。
FIG. 4 is a block diagram showing a hardware configuration of the second embodiment. Hereinafter, only portions different from those in FIG. 1 will be described. In FIG. 4, the photographing devices 1-1 and 1
DSP-1-7 is provided between -4 and the video processing device 1-8. The DSP 1-7 is connected to the photographing apparatuses 1-1 and 1-4 via video signal lines, and captures two systems of video images photographed by the photographing apparatuses 1-1 and 1-4, as described in the first embodiment. It has a function to execute such video processing at high speed by hardware.

【0040】本第2の実施形態の基本原理及び処理手順
は、図2及び図3に示す第1の実施形態の場合に準ず
る。ただしDSP1−7を用いて高速な映像処理が可能
となるため、第1の実施形態に比べて更に計算コストの
高い画像処理手法を実装することもできる。第1の実施
形態では、映像間の対応づけを求める方法として相互相
関値を利用したが、本第2の実施形態ではステレオ対応
探索を使用して対応づけを求める方法を採用する。
The basic principle and processing procedure of the second embodiment are based on the case of the first embodiment shown in FIGS. However, since high-speed video processing can be performed using the DSP 1-7, it is possible to implement an image processing method having a higher calculation cost than in the first embodiment. In the first embodiment, a cross-correlation value is used as a method for obtaining correspondence between videos. In the second embodiment, a method for obtaining correspondence using stereo correspondence search is employed.

【0041】第1の実施形態では処理手順(S303)
において、映像間の対応づけを求める方法として相互相
関値を利用していた。この方法は計算コストが比較的小
さく高速に実行可能であるが、映像全体に対してただひ
とつの対応関係しか抽出できないという欠点をもってい
る。即ち、2台の撮影装置4−1及び4−4はその撮影
位置が異なるため、情景の見え方も微妙に変化してお
り、正確に映像全体が矛盾なく対応がとれていることは
ありえない。そこで本第2の実施形態では処理手順(S
303)において、映像全体ではなく1画素単位(また
はある大きさのブロック単位)で対応関係を求めること
のできるステレオ対応探索を用いることにする。これは
もともと本発明が並列に配置された2台の撮影装置から
得られる一対のステレオ映像を遠隔地に発信することを
目的としているため、撮影装置の配置方法だけに着目し
ても、精度の高いステレオ対応探索を実現するために有
利ないくつかの条件を既に満たしていることからもその
有効性が期待できる。ステレオ対応探索も相互相関と同
様に公知の画像処理技術であるので具体的なアルゴリズ
ムについては説明を省略する。
In the first embodiment, the processing procedure (S303)
Has used a cross-correlation value as a method of obtaining correspondence between videos. This method has a relatively low computational cost and can be executed at high speed, but has a drawback that only one correspondence can be extracted from the entire video. That is, since the two photographing devices 4-1 and 4-4 have different photographing positions, the appearance of the scene is also slightly changed, and it is impossible that the entire image is accurately corresponded without inconsistency. Therefore, in the second embodiment, the processing procedure (S
In 303), a stereo correspondence search that can obtain a correspondence relationship in units of one pixel (or in units of blocks of a certain size), not the entire video, is used. Since this is originally intended to transmit a pair of stereo images obtained from two photographing devices arranged in parallel to a remote place, the accuracy of the photographing device can be improved even if attention is paid only to the arrangement method of the photographing devices. The effectiveness can be expected because some advantageous conditions for realizing a high stereo correspondence search have already been satisfied. The stereo correspondence search is also a well-known image processing technique like the cross-correlation, and a description of a specific algorithm will be omitted.

【0042】以上のようにDSP及びステレオ対応探索
の導入により、更に高速に精度の高い明度補正の実現が
期待できる。
As described above, the introduction of the DSP and the stereo correspondence search can be expected to realize higher-speed and more accurate brightness correction.

【0043】<第3の実施形態>第3の実施形態を説明
する。2つのビデオカメラから得られる映像の明度を補
正するため、第1の実施形態では相互相関値を用い、第
2の実施形態ではステレオ対応探索を使用した。本実施
形態では処理コストを削減するために映像間の対応関係
を求めることなく、映像のヒストグラム変換のみを用い
て明度の補正を行う。
<Third Embodiment> A third embodiment will be described. In order to correct the brightness of images obtained from two video cameras, a cross-correlation value is used in the first embodiment, and a stereo correspondence search is used in the second embodiment. In the present embodiment, in order to reduce the processing cost, the brightness is corrected using only the histogram conversion of the video without finding the correspondence between the videos.

【0044】本第3の実施形態のハードウェア構成及び
基本原理は、図1及び図2に示す第1の実施形態の場合
に準ずる。また、図5に示す本第3の実施形態の処理手
順は図3に示す第1の実施形態の場合のそれに類似する
ので、以下ではその異なる部分についてのみ説明する。
The hardware configuration and the basic principle of the third embodiment are based on the case of the first embodiment shown in FIGS. Since the processing procedure of the third embodiment shown in FIG. 5 is similar to that of the first embodiment shown in FIG. 3, only the different parts will be described below.

【0045】本第3の実施形態の処理手順のステップS
503,S504は第1の実施形態における処理手順中
のステップSS303,S304に相当する部分であ
り、第1、第2の実施形態では映像間の対応関係を求
め、その対応関係をもとに明度の補正を行っていたが、
先にも述べた通り本第3の実施形態ではヒストグラムを
求め(ステップSS503)、一方(もしくは両方)の
映像のヒストグラム変換を行うことによって明度の補正
を行う(ステップS504)。ヒストグラム変換もまた
公知の画像処理技術であるので詳細な説明は省略する。
Step S of the processing procedure of the third embodiment
Steps 503 and S504 correspond to steps SS303 and S304 in the processing procedure in the first embodiment. In the first and second embodiments, a correspondence between videos is obtained, and the brightness is determined based on the correspondence. Was corrected.
As described above, in the third embodiment, a histogram is obtained (step SS503), and brightness correction is performed by performing histogram conversion of one (or both) images (step S504). Since the histogram conversion is also a known image processing technique, a detailed description is omitted.

【0046】以上のように映像間の対応関係を求めるこ
となく、簡便な方法を用いて映像間の明度差を補正する
ことにより計算コストの削減ができるため、DSPなど
の高価な器材を導入しなくてもある程度の明度補正が実
現できる。
As described above, the calculation cost can be reduced by correcting the brightness difference between the images by using a simple method without finding the correspondence between the images, so that expensive equipment such as a DSP is introduced. A certain degree of brightness correction can be realized even without it.

【0047】また、実施形態では補正対象の映像は、予
め決められた一方の撮影装置(一方のビデオカメラ)に
よって得られた映像に対して行なうものとして説明した
が、これを動的に決定してもよい。例えば、2つの映像
A,Bがあって、映像Aの全体の輝度(合計値)が、映
像Bより小さい場合には、映像Aのダイナミックレンジ
は狭いことを意味する。換言すれば、映像Bの方がダイ
ナミックレンジが広いことになる。補正をかけるとき、
広いレンジには狭いレンジの特性を包含しているので、
この場合には映像Bを補正対象とするのである。
Further, in the embodiment, the image to be corrected has been described as being applied to an image obtained by one of the predetermined photographing devices (one of the video cameras). You may. For example, if there are two images A and B and the overall luminance (total value) of the image A is smaller than the image B, it means that the dynamic range of the image A is narrow. In other words, the video B has a wider dynamic range. When making corrections,
Since the wide range encompasses the characteristics of the narrow range,
In this case, the image B is to be corrected.

【0048】また、第1、第3の実施形態、及び第2の
実施形態でもその一部はソフトウェアでもって実現す
る。先に説明したように、実施形態で説明した映像処理
装置は、汎用の情報処理装置でもって実現できるわけで
あるから、本発明は、前述した実施形態の機能を実現す
るソフトウェアのプログラムコードを記録した記憶媒体
を、システムあるいは装置に供給し、そのシステムある
いは装置のコンピュータ(またはCPUやMPU)が記
憶媒体に格納されたプログラムコードを読出し実行する
ことによっても、達成されることは言うまでもない。
Also, in the first, third and second embodiments, a part thereof is realized by software. As described above, since the video processing device described in the embodiment can be realized by a general-purpose information processing device, the present invention records the program code of software that realizes the functions of the above-described embodiment. It is needless to say that the storage medium is supplied to a system or an apparatus, and a computer (or a CPU or an MPU) of the system or the apparatus reads out and executes the program code stored in the storage medium.

【0049】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0050】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0051】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0052】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0053】以上で説明したように本実施形態によれ
ば、2台のビデオカメラにより得られるステレオ映像を
ネットワーク上に発信する前に、それらの輝度信号を比
較し補正することによって一対のステレオ信号の明るさ
を統一することができるため、伝送先の遠隔地に対して
より違和感の少ないステレオ映像を提供することが可能
となる。
As described above, according to the present embodiment, a pair of stereo signals is obtained by comparing and correcting the luminance signals of the stereo images obtained by the two video cameras before transmitting them on the network. Since the brightness of the image can be unified, a stereo image with less discomfort can be provided to a remote place at the transmission destination.

【0054】[0054]

【発明の効果】以上で説明したように本発明によれば、
2系統の撮像手段で夫々得られた画像の明るさを統一し
て、遠隔端末に送信することで、遠隔端末の操作者に違
和感のないステレオ映像を提供することが可能になる。
According to the present invention as described above,
By unifying the brightness of the image obtained by each of the two imaging units and transmitting the unified brightness to the remote terminal, it is possible to provide the remote terminal operator with a stereoscopic image without a sense of incongruity.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施形態の概略構成ブロック図である。FIG. 1 is a schematic configuration block diagram of an embodiment.

【図2】実施形態の基本原理説明図である。FIG. 2 is an explanatory diagram of a basic principle of the embodiment.

【図3】実施形態における装置の動作処理手順を示すフ
ローチャートである。
FIG. 3 is a flowchart illustrating an operation processing procedure of the apparatus according to the embodiment.

【図4】第2の実施形態における概略構成ブロック図で
ある。
FIG. 4 is a schematic block diagram according to a second embodiment.

【図5】第3の実施形態における動作処理手順を示すフ
ローチャートである。
FIG. 5 is a flowchart illustrating an operation processing procedure according to the third embodiment.

フロントページの続き (72)発明者 佐藤 宏明 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 Fターム(参考) 5C022 AA11 AB01 AB65 AB68 AC42 AC69 AC75 5C054 AA02 CC02 DA06 EA01 EA05 EA07 ED01 FD01 FD02 FE06 GA01 GA04 GB01 HA18 5C061 AA29 AB01 AB04 AB08 AB11 AB12 AB17 AB21 AB24 Continuation of the front page (72) Inventor Hiroaki Sato 3-30-2 Shimomaruko, Ota-ku, Tokyo F-term in Canon Inc. (reference) 5C022 AA11 AB01 AB65 AB68 AC42 AC69 AC75 5C054 AA02 CC02 DA06 EA01 EA05 EA07 ED01 FD01 FD02 FE06 GA01 GA04 GB01 HA18 5C061 AA29 AB01 AB04 AB08 AB11 AB12 AB17 AB21 AB24

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも2系統の撮像手段から得られ
た映像情報を所定のネットワークを介して配信する映像
処理装置であって、 前記撮像手段により得られたそれぞれの映像中の明度情
報を検出する検出手段と、 該検出手段で検出されたそれぞれの映像中の明度情報に
基づいて、一方の映像を補正する補正手段と前記補正手
段で補正された映像を組み合わせて前記ネットワークを
介して送信する送信手段とを備えることを特徴とする映
像処理装置。
1. A video processing apparatus for distributing video information obtained from at least two systems of image capturing means via a predetermined network, wherein lightness information in each video obtained by said image capturing means is detected. A detecting unit, a correcting unit that corrects one of the images based on the brightness information in each of the images detected by the detecting unit, and a transmission transmitting the combined image corrected by the correcting unit via the network. A video processing apparatus comprising:
【請求項2】 前記検出手段は、前記撮像手段で得られ
たそれぞれの映像の相関する対応点の輝度を検出するこ
とを特徴とする請求項第1項に記載の映像処理装置。
2. The image processing apparatus according to claim 1, wherein said detecting means detects a luminance of a correlated corresponding point of each image obtained by said image pickup means.
【請求項3】 前記検出手段は、前記撮像手段で得られ
たそれぞれの映像全体の輝度を検出することを特徴とす
る請求項1に記載の映像処理装置。
3. The video processing apparatus according to claim 1, wherein said detection means detects the luminance of the entire video obtained by said imaging means.
【請求項4】 前記補正手段は、輝度差を減少させるこ
とを特徴とする請求項第1項に記載の映像処理装置。
4. The video processing apparatus according to claim 1, wherein said correction means reduces a luminance difference.
【請求項5】 前記送信手段における結合処理では、撮
像手段で得られた2系統の映像の両方を半分の大きさに
縮小し、それらを結合することを特徴とする請求項1に
記載の映像処理装置。
5. The image according to claim 1, wherein, in the combining process in the transmitting unit, both of the two systems of images obtained by the image capturing unit are reduced to a half size and combined. Processing equipment.
【請求項6】 少なくとも2系統の撮像手段から得られ
た映像情報を所定のネットワークを介して配信する映像
処理装置の制御方法であって、 前記撮像手段により得られたそれぞれの映像中の明度情
報を検出する検出工程と、 該検出工程で検出されたそれぞれの映像中の明度情報に
基づいて、一方の映像を補正する補正工程と該補正工程
で補正された映像を組み合わせて前記ネットワークを介
して送信する送信工程とを備えることを特徴とする映像
処理装置の制御方法。
6. A control method for a video processing device for distributing video information obtained from at least two systems of image capturing means via a predetermined network, comprising: brightness information in each video obtained by said image capturing means. A detection step of detecting, based on the brightness information in each of the images detected in the detection step, a correction step of correcting one of the images, and combining the image corrected in the correction step via the network And a transmitting step of transmitting.
【請求項7】 コンピュータが読込み実行することで、
少なくとも2系統の撮像手段から得られた映像情報を所
定のネットワークを介して配信する映像処理装置として
機能するプログラムコードを格納した記憶媒体であっ
て、 前記撮像手段により得られたそれぞれの映像中の明度情
報を検出する検出手段と、 該検出手段で検出されたそれぞれの映像中の明度情報に
基づいて、一方の映像を補正する補正手段と前記補正手
段で補正された映像を組み合わせて送信する送信手段と
して機能するプログラムコードを格納することを特徴と
する記憶媒体。
7. When a computer reads and executes the program,
A storage medium storing a program code functioning as a video processing device for distributing video information obtained from at least two systems of imaging means via a predetermined network, wherein a storage medium stores a program code for each video obtained by said imaging means. Detecting means for detecting lightness information; correcting means for correcting one of the images based on the lightness information in each of the images detected by the detecting means; and transmitting the combined image corrected by the correcting means. A storage medium storing a program code functioning as a means.
JP35189298A 1998-12-10 1998-12-10 Video processing apparatus, control method therefor, and storage medium Expired - Fee Related JP4018273B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP35189298A JP4018273B2 (en) 1998-12-10 1998-12-10 Video processing apparatus, control method therefor, and storage medium
US09/456,293 US6704042B2 (en) 1998-12-10 1999-12-08 Video processing apparatus, control method therefor, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35189298A JP4018273B2 (en) 1998-12-10 1998-12-10 Video processing apparatus, control method therefor, and storage medium

Publications (2)

Publication Number Publication Date
JP2000184396A true JP2000184396A (en) 2000-06-30
JP4018273B2 JP4018273B2 (en) 2007-12-05

Family

ID=18420335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35189298A Expired - Fee Related JP4018273B2 (en) 1998-12-10 1998-12-10 Video processing apparatus, control method therefor, and storage medium

Country Status (1)

Country Link
JP (1) JP4018273B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002007451A1 (en) * 2000-07-19 2002-01-24 Junichi Takeno Stereoscopic vision system
KR100925200B1 (en) 2003-01-16 2009-11-06 엘지전자 주식회사 Method for compensating a luminance signal level in digital video recorder for monitoring
JP2010510571A (en) * 2006-11-21 2010-04-02 トムソン ライセンシング Method and system for color correction of 3D image
JP2011258179A (en) * 2010-05-14 2011-12-22 Canon Inc Image processing device and control method thereof
WO2014103094A1 (en) * 2012-12-27 2014-07-03 株式会社ソニー・コンピュータエンタテインメント Information processing device, information processing system, and information processing method
US9508190B2 (en) 2006-06-09 2016-11-29 Thomson Licensing Method and system for color correction using three-dimensional information

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101821141B1 (en) * 2012-02-09 2018-01-23 삼성전자주식회사 3d imaging system and imaging display method for the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0258993A (en) * 1988-08-25 1990-02-28 Fujitsu Ltd Stereoscopic television signal processor
JPH02206294A (en) * 1989-02-06 1990-08-16 Nippon Telegr & Teleph Corp <Ntt> Picture matching system
JPH0750856A (en) * 1993-08-06 1995-02-21 Fujitsu Ltd Level correction circuit for multi-lens type stereoscopic video
JPH07154827A (en) * 1993-11-29 1995-06-16 Canon Inc Plural images synthesizing device and image display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0258993A (en) * 1988-08-25 1990-02-28 Fujitsu Ltd Stereoscopic television signal processor
JPH02206294A (en) * 1989-02-06 1990-08-16 Nippon Telegr & Teleph Corp <Ntt> Picture matching system
JPH0750856A (en) * 1993-08-06 1995-02-21 Fujitsu Ltd Level correction circuit for multi-lens type stereoscopic video
JPH07154827A (en) * 1993-11-29 1995-06-16 Canon Inc Plural images synthesizing device and image display device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002007451A1 (en) * 2000-07-19 2002-01-24 Junichi Takeno Stereoscopic vision system
KR100925200B1 (en) 2003-01-16 2009-11-06 엘지전자 주식회사 Method for compensating a luminance signal level in digital video recorder for monitoring
US9508190B2 (en) 2006-06-09 2016-11-29 Thomson Licensing Method and system for color correction using three-dimensional information
JP2010510571A (en) * 2006-11-21 2010-04-02 トムソン ライセンシング Method and system for color correction of 3D image
JP4945642B2 (en) * 2006-11-21 2012-06-06 トムソン ライセンシング Method and system for color correction of 3D image
US8538144B2 (en) 2006-11-21 2013-09-17 Thomson Licensing Methods and systems for color correction of 3D images
JP2011258179A (en) * 2010-05-14 2011-12-22 Canon Inc Image processing device and control method thereof
WO2014103094A1 (en) * 2012-12-27 2014-07-03 株式会社ソニー・コンピュータエンタテインメント Information processing device, information processing system, and information processing method
JP2014127151A (en) * 2012-12-27 2014-07-07 Sony Computer Entertainment Inc Information process device, information process system and information process method
US9619868B2 (en) 2012-12-27 2017-04-11 Sony Corporation Information processing device, information processing system, and information processing method

Also Published As

Publication number Publication date
JP4018273B2 (en) 2007-12-05

Similar Documents

Publication Publication Date Title
US6704042B2 (en) Video processing apparatus, control method therefor, and storage medium
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
WO2011033968A1 (en) Device, method, and program for processing image
CN102972035A (en) Stereoscopic panorama image synthesizing device and compound-eye imaging device as well as stereoscopic panorama image synthesizing method
US10691012B2 (en) Image capturing apparatus, method of controlling image capturing apparatus, and non-transitory computer-readable storage medium
JP4794938B2 (en) Monitoring system, monitoring device, monitoring method, and program
JP2007266713A (en) Monitoring system, monitoring method, and program
JPWO2008126371A1 (en) Video composition method, video composition system
KR102330264B1 (en) Electronic device for playing movie based on movment information and operating mehtod thereof
JP2019022151A (en) Information processing apparatus, image processing system, control method, and program
JP2019103067A (en) Information processing device, storage device, image processing device, image processing system, control method, and program
JP2013025649A (en) Image processing device, image processing method, and program
KR20190025373A (en) Method for controlling synchronization of multiple image sensors and electronic device implementing the same
JP2000184396A (en) Video processor, its control method and storage medium
JPH1188912A (en) Compound eye camera and display control method for the compound eye camera
CN113763472B (en) Viewpoint width determining method and device and storage medium
CN114449130B (en) Multi-camera video fusion method and system
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
CN113781560A (en) Method and device for determining viewpoint width and storage medium
JP4665781B2 (en) Imaging apparatus, image processing method, and program
JP7240258B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
WO2017166081A1 (en) Image registration method and device for terminal, and terminal
KR102074072B1 (en) A focus-context display techinique and apparatus using a mobile device with a dual camera
JP2005348115A (en) Brightness correction image generating device and brightness correction image generation method
JP3982316B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040618

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040618

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070920

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees