JP5509986B2 - Image processing apparatus, image processing system, and image processing program - Google Patents

Image processing apparatus, image processing system, and image processing program Download PDF

Info

Publication number
JP5509986B2
JP5509986B2 JP2010073455A JP2010073455A JP5509986B2 JP 5509986 B2 JP5509986 B2 JP 5509986B2 JP 2010073455 A JP2010073455 A JP 2010073455A JP 2010073455 A JP2010073455 A JP 2010073455A JP 5509986 B2 JP5509986 B2 JP 5509986B2
Authority
JP
Japan
Prior art keywords
image processing
distance
imaging
video data
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010073455A
Other languages
Japanese (ja)
Other versions
JP2011205585A (en
Inventor
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2010073455A priority Critical patent/JP5509986B2/en
Publication of JP2011205585A publication Critical patent/JP2011205585A/en
Application granted granted Critical
Publication of JP5509986B2 publication Critical patent/JP5509986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

テレビ会議等、撮影対象である複数の人または物体の撮像手段(カメラ)からの距離がそれぞれ異なる位置にある状況で撮影された映像データにおいて、撮影対象の解像度を一定に揃えた画像を作成して出力する画像処理装置、画像処理システム、及び画像処理プログラムに関するものである。   Creates an image with a fixed resolution of the shooting target in video data shot in a situation where the distance from the imaging means (camera) of multiple people or objects to be shot is different, such as in a video conference. The present invention relates to an image processing apparatus, an image processing system, and an image processing program.

従来の画像処理技術として、撮像部(カメラ)の撮影映像、映像内の各撮影対象が有する情報の重要度の差を元に、一撮影映像内の一部領域の解像度や圧縮率を変える方法がある。   As a conventional image processing technique, a method of changing the resolution and compression rate of a partial area in one captured video based on the difference in the importance of information captured by the imaging unit (camera) and each imaging target in the video There is.

例えば、撮影手段からの距離により映像データを複数の領域に分割して、物体の存在確率が高く、かつ検出精度が必要な領域のみ高解像度画像による対応付けを行い、その他の領域に対しては低解像度画像による対応付けを行う技術がある(例えば、特許文献1参照)。   For example, the video data is divided into a plurality of areas according to the distance from the photographing means, and only the areas where the object existence probability is high and the detection accuracy is necessary are associated with the high-resolution image. There is a technique for performing association using a low-resolution image (see, for example, Patent Document 1).

また、人の顔等の特徴領域と、それ以外の背景領域で、画像の圧縮強度を変えるようにしているものもある(例えば、特許文献2参照)。   In some cases, the compression strength of an image is changed between a feature region such as a human face and other background regions (see, for example, Patent Document 2).

特開2006−038578JP 2006-038578 A 特開2009−027564JP2009-027564

上述した従来の技術は、撮影した映像に対し、それを閲覧する人にとって重要度が高い情報を含む一部領域内の映像データ量を、解像度の増加や圧縮強度の減少などの方法により増加させようとするものであるが、例えば、テレビ会議システムのように、会議室内の映像を遠隔地の表示装置に送信して映像を閲覧させる場合の画像処理技術としては不向きである。   The above-described conventional technology increases the amount of video data in a partial area containing information that is highly important to the viewer of the captured video by a method such as increasing the resolution or decreasing the compression strength. However, it is unsuitable as an image processing technique in a case where, for example, a video in a conference room is transmitted to a remote display device so that the video can be viewed as in a video conference system.

ところで、テレビ会議システムのように、遠隔地に複数の人や物等の撮影対象が存在し、その撮影対象を他方の遠隔地の人が閲覧するような状況下においては、遠隔地の撮影対象を映すカメラと複数の撮影対象それぞれとの間の距離が等距離となるような非日常的な配置状況を意図的に作り出さない限り、複数の撮影対象それぞれの画像は一般的には同一の値とならず、通常の撮影では、カメラから近い位置に存在する撮影対象の画像は大きく、カメラから遠い位置に存在する撮影対象の画像は小さなものとなる。   By the way, in a situation where there are a plurality of people or objects to be photographed at a remote location and the other remote location is viewing the subject, as in a video conference system, Unless you intentionally create an unusual arrangement where the distance between the camera and each of the multiple shooting targets is the same distance, the images of the multiple shooting targets will generally have the same value. However, in normal shooting, the image of the shooting target existing at a position close to the camera is large, and the image of the shooting target existing at a position far from the camera is small.

一般的なカメラによる撮像部では、出力される撮影映像の解像度は全領域一定であるので、大きく映った対象の画像ほど解像度が上がり、画像領域として高い情報量を持つことになる。これはつまり、空間内における撮像部と撮影対象との間の距離が、撮影画像上での撮影対象が持つ情報量の大小を決める大きな要因であることを示す。   In an image capturing unit using a general camera, the resolution of a captured video to be output is constant throughout the region. Therefore, the resolution of a larger target image increases, and the image region has a higher amount of information. This means that the distance between the imaging unit and the shooting target in the space is a major factor that determines the amount of information that the shooting target has on the shot image.

ところがテレビ会議等においては、撮像部からの距離という要因を優先的に考えて人や物の配置を決めるという状況は少なく、まずは会議内の議論等、本来の会議の目的を円滑に行えるような人物配置が最優先されることが多い。この場合、遠隔地にいる映像閲覧者が興味を持った人物等が必ずしも遠隔地の撮像部の近くに位置しているとは限らず、また閲覧者の興味対象自体も、会議の進行状況等の変化に伴って移り変わっていく可能性が高い。更には、遠隔地にいる映像閲覧者が複数になった場合、あるいは遠隔地に設置されるカメラが複数台になった場合等には、複数の人や物の撮像部からの物理的距離・配置を変えることによって、上記の位置や興味の問題に対処することは困難である。   However, in video conferencing, there are few situations where the arrangement of people and objects is determined with priority given to the factor of distance from the imaging unit. First, the purpose of the original conference, such as discussion within the conference, can be performed smoothly. Person placement is often given the highest priority. In this case, the person who is interested in the video viewer in the remote location is not necessarily located near the imaging unit in the remote location, and the interest of the viewer itself is also the progress of the conference, etc. There is a high possibility that it will change with the change of. Furthermore, when there are multiple video viewers at a remote location, or when multiple cameras are installed at a remote location, the physical distance from the imaging unit for multiple people or objects It is difficult to deal with the above location and interest issues by changing the arrangement.

このようなことから、テレビ会議等では閲覧者にとって興味のある、より大きな情報量を得たい撮影対象がカメラから遠くに位置していて小サイズ、低解像度で映り、逆に興味の少ない撮影対象がたまたま撮像部の近くに位置することで大きな情報量として映像データが送信されることは、映像データの送信データ量の無駄を生じるという問題があり、このような問題をカメラの設置位置変更により少しでも解消しようとすると、撮像部の設置位置が大きく制約されるという問題につながる。更に、たまたま撮像部の近くに位置する人物については、常に高解像度で詳細に映され、閲覧されるので、プライバシー保護の観点から好ましくないという問題がある。   For this reason, in video conferences and other situations, the shooting target that is of interest to viewers and wants to obtain a larger amount of information is located far from the camera and appears in a small size and low resolution. If the video data is transmitted as a large amount of information due to being located near the imaging unit, there is a problem that the amount of transmission data of the video data is wasted, and such a problem is caused by changing the installation position of the camera. If it tries to solve even a little, it will lead to the problem that the installation position of an imaging part will be restrict | limited greatly. Furthermore, since a person who happens to be located near the imaging unit is always displayed in detail with high resolution and viewed, there is a problem that it is not preferable from the viewpoint of privacy protection.

このような問題を解決するため、本発明は、撮影される複数の人または物体が、撮影するための撮像部からの距離がそれぞれ異なる位置にある状況で、撮影された撮影対象である人または物体の撮像部からの距離に応じて、撮影された映像データ内での解像度を変更する処理を行うことで、撮影された映像データ内の各撮影対象の解像度を可能な範囲で一定に揃えることが可能な画像処理装置、画像処理システム、及び画像処理プログラムを実現することを課題とするものである。   In order to solve such a problem, the present invention is directed to a person or object to be photographed in a situation where a plurality of persons or objects to be photographed are at different positions from the imaging unit for photographing. By performing processing to change the resolution in the captured video data according to the distance from the imaging unit of the object, the resolution of each shooting target in the captured video data is made uniform within a possible range. It is an object of the present invention to realize an image processing apparatus, an image processing system, and an image processing program that can perform the above processing.

そのため、本発明の画像処理装置は、人や物などの撮影対象を撮影して映像データを取得する撮像部と、該撮像部から撮影対象までの距離を計測して距離データを取得する距離計測部と、前記映像データ内の所定の領域にある撮影対象の映像情報分解能と、前記撮像部と前記撮影対象間の距離とを基準値として、その他の撮影対象と前記撮像部間の距離と、その他の撮影対象の映像情報分解能との値の比が一定になるように、前記映像データにおける各領域の解像度変更処理を行う画像処理部を備えたことを特徴とする。 For this reason, the image processing apparatus of the present invention captures an imaging target such as a person or an object and acquires video data, and distance measurement that acquires distance data by measuring a distance from the imaging unit to the imaging target. A distance between the imaging unit and the other imaging target and the imaging unit , with reference to the image information resolution of the imaging target in a predetermined area in the video data, and the distance between the imaging unit and the imaging target, An image processing unit is provided for performing resolution changing processing of each region in the video data so that a ratio of values to other video information resolutions of the imaging target is constant .

このようにした本発明によれば、送信するのに必要な映像データ量を従来に比べて減少させることができ、送信データ量の無駄を抑制できるという効果が得られる。また、撮像部に対する撮影対象の位置の違いによって生じる画像の情報量の際が非常に小さくなり、カメラの位置を決める際の制約が少なくなる。つまり撮像部の設置位置の自由度が高まるという効果が得られる。更に、撮像部に対する撮影対象の位置の違いによる撮影対象の被閲覧条件の差異を少なくし、不公平感を軽減させプライバシー保護の点でも好ましいものになるという効果が得られる。   According to the present invention as described above, it is possible to reduce the amount of video data necessary for transmission compared to the prior art, and to obtain an effect of suppressing waste of the amount of transmission data. In addition, the amount of image information generated due to the difference in the position of the imaging target with respect to the imaging unit is very small, and there are fewer restrictions when determining the position of the camera. That is, there is an effect that the degree of freedom of the installation position of the imaging unit is increased. Furthermore, there is an effect that the difference in viewing conditions of the photographing target due to the difference in the position of the photographing target with respect to the imaging unit is reduced, the unfair feeling is reduced, and the privacy protection is preferable.

第1の実施例を示すシステム構成のブロック図Block diagram of system configuration showing first embodiment 第1の実施例の利用イメージ例を示す概略図Schematic showing an example of usage image of the first embodiment 映像データのイメージ例を示す概略図Schematic diagram showing an example of image data 二次元距離データのイメージ例を示す概略図Schematic diagram showing an example of two-dimensional distance data 第1の実施例の作用を示すフローチャートFlow chart showing the operation of the first embodiment 解像度変更処理の例を示す図Diagram showing an example of resolution change processing 映像データの解像度変更処理のイメージ例を示す図The figure which shows the image example of the resolution change process of video data 映像データと解像度変更処理後の画像のイメージ例を示す図The figure which shows the image example of the picture after image data and resolution change processing 第2の実施例を示すシステム構成のブロック図Block diagram of system configuration showing second embodiment

以下、図面を参照して本発明による画像処理装置、画像処理システム、及び画像処理プログラムの実施例を説明する。   Embodiments of an image processing apparatus, an image processing system, and an image processing program according to the present invention will be described below with reference to the drawings.

図1は第1の実施例を示すシステム構成のブロック図である。   FIG. 1 is a block diagram of a system configuration showing a first embodiment.

画像処理装置1は、撮像部2、距離情報取得部3、ユーザ入力部4、画像処理部5を備え、画像処理部5には通信回線を介して遠隔地に設けられている複数の映像表示装置6が接続されている。   The image processing apparatus 1 includes an imaging unit 2, a distance information acquisition unit 3, a user input unit 4, and an image processing unit 5. The image processing unit 5 displays a plurality of images displayed at a remote place via a communication line. A device 6 is connected.

ここで、撮像部2は、具体的には撮影手段であるカメラ及び信号処理部で実現され、映像データを二次元のデジタルデータとして出力することが可能な機能を備えている。この、撮像部2で撮影された映像データは、最も単純な形式としては、各二次元座標に配置された画素値の集合として表現される。   Here, the imaging unit 2 is specifically realized by a camera and a signal processing unit as imaging means, and has a function capable of outputting video data as two-dimensional digital data. The video data photographed by the imaging unit 2 is expressed as a set of pixel values arranged at each two-dimensional coordinate as the simplest format.

以下、説明のため、「lmg(x,y)=r,g,b」のように表現し、x,y座標にある画像データは、値がr,g,bという画素ベクトルを持つものとする。   Hereinafter, for description, it is expressed as “lmg (x, y) = r, g, b”, and the image data at the x, y coordinates has a pixel vector whose values are r, g, b. To do.

距離情報取得部3は、撮像部2が配置された位置から撮影される人や物等の各撮影対象までの距離を計測する機能を有するもので、具体的には光レーダ法、アクティブステレオ法、モアレ法、干渉法等、既存の三次元空間計測法の能動的計測法により前記の距離を計測する機能を備え、計測により取得した各撮影対象までの距離を二次元データ(以下、二次元距離データと表記する)として画像処理部5に送信するものとなっている。   The distance information acquisition unit 3 has a function of measuring a distance from a position where the imaging unit 2 is arranged to each imaging target such as a person or an object, and specifically, an optical radar method or an active stereo method. , The moire method, the interferometry method, etc. are equipped with the function to measure the distance by the active measurement method of the existing three-dimensional space measurement method. This is transmitted to the image processing unit 5 as a distance data).

この二次元距離データは、以下「Dis(X,Y)=c」のように表現し、X,Y座標にある各撮影対象に対して、cという距離データを持つものとする。このcの値は上記の計測法で求めることができる。   This two-dimensional distance data is expressed as “Dis (X, Y) = c” below, and has distance data c for each imaging target at the X and Y coordinates. The value of c can be obtained by the above measurement method.

本実施例では、説明を簡略化するため、撮像部2と距離情報取得部3がほぼ同一の位置から同一方向を向くように物理的に近接して配置され、映像データと二次元距離データが類似した空間領域に関する情報として取得できるようにしているが、実際の利用にあたっては、撮像部2と距離情報取得部3が別個に配置されていても構わず、その場合は一般的に知られている座標変換や射影変換等の処理により仮想的に同一の光軸を持つように変換して後処理を行うことで、映像データと二次元距離データを類似した空間領域に関する情報として取得することが可能である。   In the present embodiment, in order to simplify the description, the imaging unit 2 and the distance information acquisition unit 3 are physically arranged so as to face the same direction from substantially the same position, and the video data and the two-dimensional distance data are Although it can be acquired as information about a similar spatial region, in actual use, the imaging unit 2 and the distance information acquisition unit 3 may be separately arranged, and in that case, it is generally known It is possible to acquire video data and two-dimensional distance data as information related to similar spatial regions by performing post-processing by performing transformation such that there is virtually the same optical axis by processing such as coordinate transformation and projective transformation. Is possible.

尚、二次元距離データの指定方法は複数考えられるが、本実施例ではCmaxを最大値、Cminを最小値とする複数段階の離散的な値を持つものとする。   Although two or more two-dimensional distance data designation methods are conceivable, in this embodiment, it is assumed that there are a plurality of discrete values having Cmax as a maximum value and Cmin as a minimum value.

また、距離情報取得部3は、リアルタイム計測モードとユーザ指定時計測モードに切り替えることが可能であり、ユーザ指定時計測モードによる計測時には、ユーザ入力部4から各撮影対象までの距離の計測の指示及び二次元距離データの出力指示命令を取得し、命令規則に従って距離計測及び画像処理部5への二次元距離データの出力を行う。   The distance information acquisition unit 3 can switch between the real-time measurement mode and the user-designated measurement mode. At the time of measurement in the user-designated measurement mode, an instruction to measure the distance from the user input unit 4 to each imaging target is provided. 2D distance data output instruction command is acquired, and distance measurement and output of 2D distance data to the image processing unit 5 are performed according to the command rule.

ここで、リアルタイム計測モードとは、距離情報取得部3による二次元距離データの出力頻度が撮像部2の映像データ出力頻度と同等以上高い、もしくは映像データの出力頻度より小さいものの、その差が小さいという状況に適したモードであり、距離情報取得部3が実施できる最大の出力頻度で、常時二次元距離データを出力し続けるように動作するモードである。   Here, in the real-time measurement mode, although the output frequency of the two-dimensional distance data by the distance information acquisition unit 3 is equal to or higher than the video data output frequency of the imaging unit 2 or smaller than the video data output frequency, the difference is small. This mode is suitable for the situation described above, and is a mode that operates to continuously output the two-dimensional distance data at the maximum output frequency that the distance information acquisition unit 3 can implement.

また、ユーザ指定時計測モードとは、距離情報取得部3が採用する三次元空間計測法の中の一部の方法が持つ処理速度特性による制約や、画像処理装置1の動作の消費エネルギーを抑えたい等の理由で、距離計測、二次元距離データの出力頻度を撮像部2による映像データの出力頻度に比べて低くする必要がある状況において、本システムのユーザが指示する規則に従って二次元距離データを生成、出力するよう動作するモードである。   In addition, the user-designated measurement mode suppresses restrictions due to processing speed characteristics of some methods in the three-dimensional space measurement method adopted by the distance information acquisition unit 3 and energy consumption of the operation of the image processing apparatus 1. In the situation where the distance measurement and the output frequency of the two-dimensional distance data need to be lower than the output frequency of the video data by the imaging unit 2 for reasons such as the two-dimensional distance data according to the rules instructed by the user of this system Is a mode that operates to generate and output.

ユーザ入力部4は、例えばキーボードやマウスなどで実現される情報入力手段であり、画像処理部5に対して、次の2つの入力を行う機能を有している。   The user input unit 4 is information input means realized by, for example, a keyboard or a mouse, and has a function of performing the following two inputs to the image processing unit 5.

その入力機能の1つは、画像処理部5がユーザ指定時計測モードのとき距離情報取得部3に送信する二次元距離データの作成、出力命令の送信規則をユーザが画像処理部5に対して入力指示する機能である。この場合の入力方法は、単純に、ユーザがユーザ入力部4の1つのボタンを1回押すとその時点の二次元距離データを画像処理部5に送るよう、画像処理部5に指示する方法、「aaaa年bb月cc日dd時〜ee時の間、1時間にff回の等間隔頻度」で画像処理部5から距離情報取得部3に二次元距離データを生成、出力させるように指示する方法、更に複雑な規則の場合は自作のコンピュータプログラムを入力する方法等が考えられる。   One of the input functions is that the user creates a two-dimensional distance data to be transmitted to the distance information acquisition unit 3 when the image processing unit 5 is in the user-designated measurement mode, and the user sends an output command transmission rule to the image processing unit 5. This is an input instruction function. The input method in this case is simply a method of instructing the image processing unit 5 to send the two-dimensional distance data at that time to the image processing unit 5 when the user presses one button of the user input unit 4 once. A method of instructing the distance information acquisition unit 3 to generate and output the two-dimensional distance data at an “interval frequency of ff times per hour between dd month to ee hour of aaa year bb month cc day”, In the case of more complicated rules, a method of inputting a self-made computer program can be considered.

また、もう1つの入力機能は、画像処理部5が後述する「距離要因解像度差異無効化画像」の生成過程で行う解像度変更処理において、ユーザが指定する各撮影対象に対する解像度(以下、ユーザ指定解像度)の基準値を画像処理部5に入力する機能である。   Another input function is a resolution (hereinafter referred to as user-specified resolution) for each imaging target specified by the user in the resolution changing process performed by the image processing unit 5 in the process of generating a “distance factor resolution difference invalidated image” described later. ) Is input to the image processing unit 5.

画像処理部5が行う解像度変更処理の例としては、2種類の方法が考えられ、ユーザ入力部4でどちらかを選択することができるように設定されているが、2種類の方法の内容については後述する。   As an example of the resolution changing process performed by the image processing unit 5, two types of methods are conceivable and the user input unit 4 is set so that either one can be selected. Will be described later.

画像処理部5は、撮像部2と距離情報取得部3から随時送信されてくる映像データと二次元距離データを受信し、両者のデータから後述する「距離情報マップ」を作成する機能、及びユーザ入力部4から入力される送信規則に従って「ユーザ指定時計測モード」時の距離情報取得部3に二次元距離データの生成、出力命令を送信する機能、距離情報マップとユーザ入力部4から入力されたユーザ指定解像度の基準値のデータを用いて映像データの解像度を領域に応じて変更した距離要因解像度差異無効化画像を作成して映像表示装置6に送信する機能を有している。   The image processing unit 5 receives video data and two-dimensional distance data transmitted from the imaging unit 2 and the distance information acquisition unit 3 as needed, creates a “distance information map” described later from both data, and a user According to the transmission rule input from the input unit 4, a function for generating two-dimensional distance data and transmitting an output command to the distance information acquisition unit 3 in the “measurement mode at the time of user designation”, input from the distance information map and the user input unit 4 It has a function of creating a distance factor resolution difference invalidated image in which the resolution of the video data is changed according to the area using the reference value data of the user-specified resolution and transmitting it to the video display device 6.

上記距離情報マップは、撮像部2からの映像データ及び距離情報取得部3からの二次元距離データを用いて作成される映像データの二次元画像内において撮像部2と各撮影対象間の距離を示す二次元データであり、映像データの出力頻度と二次元距離データの出力頻度のうちの低い方と同期された頻度で作成される。   The distance information map indicates the distance between the imaging unit 2 and each imaging target in the two-dimensional image of the video data created using the video data from the imaging unit 2 and the two-dimensional distance data from the distance information acquisition unit 3. It is generated at a frequency synchronized with the lower one of the output frequency of video data and the output frequency of two-dimensional distance data.

また、距離情報マップは、映像データと二次元距離データを重ね合わせる処理により作成されるもので、二次元距離データの上下左右へのシフト処理や、拡大あるいは縮小処理によって映像データと二次元距離データを重ね合わせ、映像データの各座標位置に対して二次元距離データを割当てるようにする。   The distance information map is created by superimposing the video data and the two-dimensional distance data. The video data and the two-dimensional distance data are obtained by shifting the two-dimensional distance data up and down, left and right, and by enlarging or reducing the data. And two-dimensional distance data is assigned to each coordinate position of the video data.

以下において距離情報マップは、「Map(x,y)=(Dis(f(x),g(y)))=d」のように表され、マップ内におけるdの最大値をDmaxとする。   In the following, the distance information map is expressed as “Map (x, y) = (Dis (f (x), g (y))) = d”, and the maximum value of d in the map is Dmax.

ここで、x,yは映像データの座標値と同一の値であり、f(x),g(y)は映像データと二次元距離データを重ね合わせるためのシフト処理や、拡大あるいは縮小処理を表現する関数で、映像データにおけるx,y座標と二次元距離データにおけるX,Y座標の対応関係を表しているが、ユーザの校正によって関数のパラメータを与えるような形式にしてもよいし、領域検出などの画像処理によって自動的に設定されるようにしてもよい。   Here, x and y are the same values as the coordinate values of the video data, and f (x) and g (y) are a shift process for superimposing the video data and the two-dimensional distance data, and an enlargement or reduction process. The function to be expressed represents the correspondence between the x and y coordinates in the video data and the X and Y coordinates in the two-dimensional distance data. It may be automatically set by image processing such as detection.

画像処理部5が行う映像データの解像度変更処理の例としては以下に述べる2つの例がある。その1つは、距離情報マップ内で、撮影対象までの距離dが最大(Dmax)となる領域の解像度を基準値として、その他の領域の解像度をこの基準値と等しい解像度になるように変更するもので、以下これを「解像度一定化優先方式」と呼ぶ。別の1つは、解像度を一定値に揃えるための基準値をユーザが指定する方法で、例えば、撮像部2が出力する映像データを映像表示装置6に表示し、ユーザが望む解像度を、実際に映像表示装置6に表示されている映像の任意の画像領域をユーザがユーザ入力部4で指定すると、その指定された領域の解像度を基準値として、その基準値と等しい解像度になるように揃える処理が映像データの全領域に対して行われるもので、以下これを「ユーザ指定解像度優先方式」と呼ぶ。   There are two examples of video data resolution changing processing performed by the image processing unit 5 as described below. One of them is that the resolution of the area where the distance d to the object to be imaged is the maximum (Dmax) in the distance information map is set as a reference value, and the resolution of the other areas is changed to a resolution equal to this reference value. This is hereinafter referred to as “resolution fixed priority method”. Another one is a method in which the user designates a reference value for aligning the resolution to a constant value. For example, the video data output from the imaging unit 2 is displayed on the video display device 6, and the resolution desired by the user is actually set. When the user designates an arbitrary image area of the video displayed on the video display device 6 by the user input unit 4, the resolution of the designated area is set as a reference value, and the resolution is equal to the reference value. The processing is performed on the entire area of the video data, and this is hereinafter referred to as “user-specified resolution priority method”.

このユーザ指定解像度優先方式は、ユーザが望む解像度を基準値にすることができるメリットがあるが、反面、ユーザが指定した領域よりも大きなdの値をとる領域が理論上とるべき解像度より低い解像度になってしまうというデメリットを伴う。これは元々の映像データの解像度が理論上とるべき解像度を実現できるだけの分解能を持っていないために起こるものであるが、前記の「解像度一定化優先方式」ではDmaxの領域が解像度変更処理後の最大解像度を取る領域となるので、そのような問題は起こらないメリットを有している。   This user-specified resolution priority method has an advantage that the resolution desired by the user can be set as a reference value. However, on the other hand, a region in which the value of d is larger than the region specified by the user is lower than the theoretical resolution. With the disadvantage of becoming. This occurs because the resolution of the original video data does not have enough resolution to achieve the theoretical resolution, but in the above-mentioned “resolution stabilization priority method”, the Dmax region is the one after the resolution change processing. Since this is an area that takes the maximum resolution, such a problem does not occur.

映像表示装置6は、例えばCRTやLCD等によるディスプレイで実現され、画像処理部5から送られてくる距離要因解像度差異無効化画像を表示するものである。   The video display device 6 is realized by a display such as a CRT or LCD, for example, and displays the distance factor resolution difference invalidated image sent from the image processing unit 5.

図2は本実施例の利用イメージ例を示す概略図で、図に示したように拠点Aでは参加者5名の会議が行われており、その様子を画像処理装置1の撮像部2で撮影すると共に、距離情報取得部3で撮影対象の距離を計測し、それに基づいて画像処理部5で生成された距離要因解像度差異無効化画像が拠点Aから遠隔の地にある拠点Bに設けられている画像表示部6に表示されている。   FIG. 2 is a schematic diagram showing an example of a usage image of the present embodiment. As shown in the figure, a meeting of five participants is held at the site A, and the state is photographed by the imaging unit 2 of the image processing apparatus 1. At the same time, the distance information acquisition unit 3 measures the distance to be imaged, and the distance factor resolution difference invalidated image generated by the image processing unit 5 based on the measured distance is provided at the site B remote from the site A. The image display unit 6 is displayed.

尚、図2では撮像部2が撮影対象より高い位置に配置されているので、取得される映像データは俯瞰映像データである。   In FIG. 2, since the imaging unit 2 is arranged at a position higher than the object to be imaged, the acquired video data is overhead video data.

本実施例では、このように一つの拠点で映像が撮影され、遠隔地の別の拠点に映像が配信されるような状況を想定して、画像処理装置1が動作する例を説明する。   In the present embodiment, an example will be described in which the image processing apparatus 1 operates assuming a situation in which a video is shot at one base and the video is distributed to another remote base.

図3は撮像部2により取得される映像データのイメージ例を示す概略図、図4は距離情報取得部3が生成する二次元距離データのイメージ例を示す概略図で、図3のx,y及び図4のX,Yは座標であり、x座標及びX座標は左から右へ向かって座標値が増加し、y座標及びY座標は上から下に向かって座標値が増加する。   3 is a schematic diagram illustrating an example of video data acquired by the imaging unit 2, FIG. 4 is a schematic diagram illustrating an example of two-dimensional distance data generated by the distance information acquisition unit 3, and x, y in FIG. 4 and FIG. 4, X and Y are coordinates, and the coordinate values of the x and X coordinates increase from left to right, and the coordinate values of the y and Y coordinates increase from top to bottom.

図5は上述した構成による第1の実施例の作用を示すフローチャートで、図中にSで示したステップに従って以下の作用を説明する。尚、以下に説明する各部の動作は、図示しない記憶部に格納されたプログラム(ソフトウェア)に基づいて図示しない制御部により制御されるものとする。
S1:画像処理装置1の処理を開始すると、撮像部2で映像データが取得されて画像処理部5に送信され、また撮像部2が配置された位置から撮影される各対象までの距離が距離情報取得部3で計測されて、二次元距離データが画像処理部5に送信される。この場合、距離情報取得部3による距離の計測はリアルタイム計測モードとユーザ指定時計測モードのいずれであってもよい。
S2:画像処理部5は撮像部2からの映像データと距離情報取得部3からの二次元距離データを元に距離情報マップを作成する。
S3:画像処理部5は作成した距離情報マップを用いて、距離毎に映像データの領域を分割する。すなわち、距離情報マップで同一の距離情報を持つ座標値の集合をグループとして認識する処理を行い、各領域に順次アクセスできるようにする。領域分割については、既存の画像処理における一般的な手法を利用することができる。
S4:画像処理部5は映像データの分割した領域について、解像度変更未処理の領域を1つ選択する。
S5:画像処理部5は選択した領域(以下、選択領域)の距離dから、解像度一定化優先方式またはユーザ指定解像度優先方式による解像度変更処理で新たに適用する解像度の値を決定する。
FIG. 5 is a flowchart showing the operation of the first embodiment having the above-described configuration. The following operation will be described according to the step indicated by S in the drawing. Note that the operation of each unit described below is controlled by a control unit (not shown) based on a program (software) stored in a storage unit (not shown).
S1: When processing of the image processing apparatus 1 is started, video data is acquired by the imaging unit 2 and transmitted to the image processing unit 5, and the distance from the position where the imaging unit 2 is arranged to each target is a distance. The two-dimensional distance data is measured by the information acquisition unit 3 and transmitted to the image processing unit 5. In this case, the distance measurement by the distance information acquisition unit 3 may be either the real-time measurement mode or the user-specified measurement mode.
S2: The image processing unit 5 creates a distance information map based on the video data from the imaging unit 2 and the two-dimensional distance data from the distance information acquisition unit 3.
S3: The image processing unit 5 divides the area of the video data for each distance using the created distance information map. That is, a process of recognizing a set of coordinate values having the same distance information as a group in the distance information map is performed so that each area can be accessed sequentially. For area division, a general method in existing image processing can be used.
S4: The image processing unit 5 selects one of the unprocessed resolution change areas for the divided area of the video data.
S5: The image processing unit 5 determines a resolution value to be newly applied in the resolution changing process by the resolution fixing priority method or the user-specified resolution priority method from the distance d of the selected region (hereinafter, selected region).

解像度一定化優先方式の場合は、「Res1=k1*d」の式により新たに適用する解像度を求める。ここでRes1は、解像度一定化優先方式の場合の、選択領域に新たに適用される解像度と映像データの元々の解像度の比(単位:%)、k1は「1/Dmax」で求められる定数である。   In the case of the resolution fixed priority method, the resolution to be newly applied is obtained by the expression “Res1 = k1 * d”. Here, Res1 is a ratio (unit:%) of the resolution newly applied to the selected area and the original resolution of the video data in the case of the resolution fixed priority method, and k1 is a constant obtained by “1 / Dmax”. is there.

また、ユーザ指定解像度優先方式の場合は、「Res2=k2*d」の式により新たに適用する解像度を求める。ここでRes2は、解像度一定化優先方式の場合のユーザが指定した選択領域に新たに適用される解像度と映像データの元々の解像度の比(単位:%)、k2は「1/Dspu」で求められる定数であって、Dspuはユーザがユーザ入力部4で指定入力した画像領域の距離である。
S6:画像処理部5は上記のように求めた解像度を用い、映像データの選択領域の画像に対して解像度変更処理を行う。この解像度変更処理について、解像度一定化優先方式の場合を例にして説明する。
In the case of the user-specified resolution priority method, the resolution to be newly applied is obtained by the expression “Res2 = k2 * d”. Here, Res2 is a ratio (unit:%) of the resolution newly applied to the selection area designated by the user in the case of the resolution fixed priority method and the original resolution of the video data, and k2 is obtained by “1 / Dspu”. Dspu is a distance of the image area designated and input by the user using the user input unit 4.
S6: The image processing unit 5 uses the resolution obtained as described above, and performs a resolution changing process on the image in the selected area of the video data. This resolution changing process will be described by taking the case of the resolution fixed priority method as an example.

図6は解像度変更処理の例を示す図で、同図(a)は元々の映像データの画素値、同図(b)は「d=Dmax/4」の場合の解像度変更処理後の映像データ、同図(c)は「d=Dmax/9」の場合の解像度変更処理後の映像データである。   FIG. 6 is a diagram showing an example of the resolution changing process. FIG. 6A shows the pixel value of the original video data, and FIG. 6B shows the video data after the resolution changing process in the case of “d = Dmax / 4”. FIG. 5C shows video data after the resolution changing process in the case of “d = Dmax / 9”.

図6(a)に示したように、元々の映像データの画素値が各座標毎にx座標方向にImg11、Img12、Img13・・・、y座標方向にImg11、Img22、Img31・・・のように表され、すべての画素が同一領域で同じ距離dを持つ場合を例にして説明する。   As shown in FIG. 6A, the pixel values of the original video data are Img11, Img12, Img13... In the x coordinate direction and Img11, Img22, Img31. A case where all the pixels have the same distance d in the same region will be described as an example.

例えば、距離dがDmax/4の場合、Res1の値は「25%」となるが、図6(b)に示したように、解像度変更処理後の映像データの画素値を、映像データと同一位置の座標を始点とする縦横2×2の4個の座標を1つの領域として、映像データの画素値で置換することにより、元々の映像データの解像度を「1/4=25%」の粗さの新たな解像度に変換する。   For example, when the distance d is Dmax / 4, the value of Res1 is “25%”. However, as shown in FIG. 6B, the pixel value of the video data after the resolution changing process is the same as the video data. By replacing four coordinates of vertical and horizontal 2 × 2 starting from the coordinates of the position as one area with the pixel value of the video data, the resolution of the original video data is reduced to “1/4 = 25%”. Convert to the new resolution.

同様に距離dがDmax/9の場合、Res1の値は「11%」となるので、図6(c)に示したように、解像度変更処理後の映像データの画素値を、映像データと同一位置の座標を始点とする縦横3×3の9個の座標を1つの領域として、映像データの画素値で置換することにより、元々の映像データの解像度を「1/9=11%」の粗さの新たな解像度に変換する。解像度の変更方法としてはニアレストネイバー法が用いられる。   Similarly, when the distance d is Dmax / 9, the value of Res1 is “11%”. Therefore, as shown in FIG. 6C, the pixel value of the video data after the resolution changing process is the same as the video data. By replacing the nine coordinates 3 × 3 in length and width starting from the coordinates of the position as one area with the pixel value of the video data, the resolution of the original video data is reduced to “1/9 = 11%”. Convert to the new resolution. The nearest neighbor method is used as a resolution changing method.

図7は上記の解像度変更処理による映像データのイメージ例を示す図で、同図(a)はRes1の値が「25%(1/4)」の場合の解像度の変更例、同図(b)はRes1の値が「11%(1/9)」の場合の解像度の変更例である。図7(a)、(b)において、それぞれの左側に元々の映像データ、右側に解像度変更処理後の映像データを示しており、上側に画素レベルでの解像度変更処理の流れを拡大イメージで示している。   FIG. 7 is a diagram showing an image example of the video data by the resolution changing process. FIG. 7A shows an example of changing the resolution when the value of Res1 is “25% (1/4)”. ) Is an example of changing the resolution when the value of Res1 is “11% (1/9)”. 7A and 7B, the original video data is shown on the left side, the video data after the resolution change process is shown on the right side, and the flow of the resolution change process at the pixel level is shown on the upper side in an enlarged image. ing.

上述した二つの例では、解像度変更処理後の画素値を、左上隅にある画素で代表させて置換したが、この画素値の決定方法は他の方法を用いることも可能であり、例えば、元々の映像データの画像の領域内の各画素の平均値として、当該画素群に平均値フィルタをかけたような値を出力する構成としてもよい。
S7:画像処理部5は距離の異なる各領域のすべてに対して解像度変更処理が終了したか否かを判断し、終了していない場合、S4に戻ってS7までの処理を繰り返す。
S8:解像度変更処理が終了した場合、新たな解像度による映像データである距離要因解像度差異無効化画像を作成して映像表示装置6に出力する。
In the two examples described above, the pixel value after the resolution change process is replaced by the pixel in the upper left corner. However, other methods can be used for determining the pixel value. As an average value of each pixel in the image area of the video data, a value obtained by applying an average value filter to the pixel group may be output.
S7: The image processing unit 5 determines whether or not the resolution changing process has been completed for all the regions having different distances. If not, the process returns to S4 and repeats the processes up to S7.
S8: When the resolution changing process is completed, a distance factor resolution difference invalidated image, which is video data with a new resolution, is created and output to the video display device 6.

尚、上述の処理において、撮像部2からの映像データの出力頻度が距離情報取得部3からの二次元距離データの出力頻度より高い場合は、解像度変更処理の頻度を映像データの出力頻度に合わせ、また二次元距離データの出力頻度が映像データの出力頻度より低いことに起因して距離情報マップのデータが不足する場合は、前回用いた距離情報マップのデータをそのまま継続利用することで補うものとする。これにより距離要因解像度差異無効化画像の映像としてのサンプリングレートは映像データのそれと等しくなる。   In the above processing, when the output frequency of the video data from the imaging unit 2 is higher than the output frequency of the two-dimensional distance data from the distance information acquisition unit 3, the frequency of the resolution change process is matched with the output frequency of the video data. In addition, if the distance information map data is insufficient due to the output frequency of the two-dimensional distance data being lower than the output frequency of the video data, the distance information map data used last time can be compensated by continuing to use the data as it is And As a result, the sampling rate of the distance factor resolution difference invalidated image as a video becomes equal to that of the video data.

図8は元々の映像データの画像と解像度変更処理後の画像のイメージ例を示す図で、同図(a)は元々の映像データの画像例としての或る会議室の室内映像であり、同図(b)その室内映像に対して解像度一定化優先方式による解像度変更処理を施すことで得られた距離要因解像度差異無効化画像である。   FIG. 8 is a diagram showing an example of an image of the original video data and an image of the image after the resolution change process. FIG. 8A is an indoor video of a certain conference room as an example of the image of the original video data. FIG. 5B is a distance factor resolution difference invalidated image obtained by subjecting the room video to resolution changing processing by the resolution fixed priority method.

図8(a)、(b)では右側手前一人と、その奥に一人、それぞれ体格と服装が類似した人物が計2名映っているが、図8(a)の元々の映像データでは、映像表示装置6で映像を閲覧する閲覧者が奥の人物の画像程度の解像度の映像データしか求めていない場合、手前の人物は必要以上の解像度で詳しく映されていることになり、生成された映像データに無駄を生じ、また手前の人物が被閲覧によりプライバシーの侵害を必要以上に受けることになる。   8 (a) and 8 (b), there are two persons with similar physique and clothes, one person on the right side and one person in the back, but the original video data in FIG. 8 (a) When the viewer who browses the video on the display device 6 is only requesting video data with a resolution comparable to the image of the person in the back, the front person is shown in detail at a resolution higher than necessary, and the generated video is displayed. Data is wasted, and the person in the foreground receives more than necessary infringement of privacy by browsing.

これに対して、図8(b)の距離要因解像度差異無効化画像では、手前の人物と奥の人物の構成画素の視覚的分解能がほぼ等しくなっており、解像度変更処理前の元々の映像データの画像と比べて、公平な視覚的画像提示が実現されている。   On the other hand, in the distance factor resolution difference invalidated image of FIG. 8B, the visual resolution of the constituent pixels of the person in the foreground and the person in the back is almost equal, and the original video data before the resolution changing process. Compared with these images, a fair visual image presentation is realized.

以上説明したように第1の実施例では、各撮影対象の画像解像度と撮像部からの距離の比を一定にするように解像度変更処理を行うことで、撮像部から撮影対象までの距離の差に起因する撮影対象の画像解像度の差異を無効化できるので、映像データをそのまま遠隔地に送る場合に比べて、送受信するのに必要なデータ量が減少し、送信データ量の無駄を抑制できるという効果が得られる。また、撮像部に対する位置の違いによって生じる各撮影対象画像が持つ情報量の差異が小さくなり、撮像部の設置位置を決める際の制約が小さくなるという効果が得られる。更に、撮像部近傍にいる撮影対象の人物と遠い位置にいる撮影対象の人物の被閲覧条件の際に対する不公平感を軽減できるので、プライバシー保護の観点上好ましいものになるという効果も得られる。   As described above, in the first embodiment, the resolution change process is performed so that the ratio between the image resolution of each shooting target and the distance from the imaging unit is constant, so that the difference in distance from the imaging unit to the shooting target is obtained. Since the difference in the image resolution of the shooting target due to the image can be invalidated, the amount of data required for transmission / reception is reduced and the waste of the transmission data amount can be suppressed compared with the case where the video data is sent to the remote place as it is. An effect is obtained. In addition, the difference in the amount of information held by each image to be photographed due to the difference in position with respect to the imaging unit is reduced, and the effect of reducing the restrictions when determining the installation position of the imaging unit is obtained. Furthermore, since it is possible to reduce the unfairness of the person to be photographed in the vicinity of the image pickup unit and the person to be photographed in a distant position with respect to the viewing conditions, it is possible to obtain an effect that is preferable from the viewpoint of privacy protection.

図9は本発明の第2の実施例を示すシステム構成のブロック図で、上述した第1の実施例と同様の部分は、同一の符号を付してその説明を省略する。   FIG. 9 is a block diagram of a system configuration showing a second embodiment of the present invention. The same parts as those in the first embodiment described above are denoted by the same reference numerals and description thereof is omitted.

この第2の実施例は、第1の実施例における距離情報取得部3(図1参照)を省略して、撮像部2に距離情報取得機能を備えさせたものとしている。すなわち、この第2の実施例における撮像部2は第1の実施例での機能と同様に映像データの出力機能を有することに加えて、第1の実施例で距離情報取得部3が行っていた距離計測、及び二次元距離データの出力機能を有しており、撮像部2から各撮影対象までの距離計測は撮像部2が撮影して取得した映像データを用いて行われる。   In the second embodiment, the distance information acquisition unit 3 (see FIG. 1) in the first embodiment is omitted, and the imaging unit 2 is provided with a distance information acquisition function. That is, the imaging unit 2 in the second embodiment has a video data output function in the same manner as the function in the first embodiment, and the distance information acquisition unit 3 performs in the first embodiment. Distance measurement and two-dimensional distance data output functions, and distance measurement from the imaging unit 2 to each imaging target is performed using video data captured and acquired by the imaging unit 2.

撮像部2の具体的な距離計測法としては、撮像部2がピント合わせを自動で行うオートフォーカス機能を備えたものである場合はレンズ焦点法、オートフォーカス機能を備えていない場合は単眼視法が用いられる。このレンズ焦点法や単眼視法は、所謂受動的三次元空間計測法として知られている。   As a specific distance measuring method of the imaging unit 2, the lens focusing method is used when the imaging unit 2 has an autofocus function for automatically focusing, and the monocular viewing method is not provided with an autofocus function. Is used. This lens focus method and monocular method are known as so-called passive three-dimensional space measurement methods.

また、画像処理部5は、第1の実施例と同様の機能を有するが、映像データと二次元距離データは撮像部2から受信し、その映像データと二次元距離データから距離情報マップを作成し、解像度変更処理を行って距離要因解像度差異無効化画像を作成する。距離情報マップと距離要因解像度差異無効化画像の作成方法は第1の実施例と同様である。   The image processing unit 5 has the same function as the first embodiment, but receives video data and two-dimensional distance data from the imaging unit 2, and creates a distance information map from the video data and two-dimensional distance data. Then, resolution change processing is performed to create a distance factor resolution difference invalidated image. The method of creating the distance information map and the distance factor resolution difference invalidated image is the same as in the first embodiment.

ユーザ入力部4及び画像処理部5は第1の実施例と同様の機能を備えている。   The user input unit 4 and the image processing unit 5 have the same functions as in the first embodiment.

このようにした第2の実施例の作用、つまり映像データの取得及び各撮影対象までの距離計測から距離要因解像度差異無効化画像の出力まで、第1の実施例と同様の処理(図5のフローチャートと同様の処理)が行われるが、この第2の実施例では図5のフローチャートにおけるS1で撮像部2により映像データの取得、各対象までの距離計測が行われ、画像処理部5に映像データと二次元距離データが送られることになる。この他は第1の実施例と同様である。   Operations similar to those of the first embodiment, such as the operation of the second embodiment, that is, the acquisition of video data and the distance measurement to each photographing target to the output of the distance factor resolution difference invalidated image (FIG. 5). In this second embodiment, the image data is acquired by the imaging unit 2 and the distance to each target is measured in S1 in the flowchart of FIG. Data and two-dimensional distance data will be sent. The rest is the same as in the first embodiment.

以上説明したように、第2の実施例では、所謂受動的三次元空間計測法の「レンズ焦点法」や「単眼視法」を用いることで、第1の実施例における距離情報取得部を用いることなく距離要因解像度差異無効化画像を作成できるようにしているため、映像データと二次元距離データに対する座標変換や射影変換、拡大縮小処理等の校正処理作業を省略し、それによる装置動作処理における負荷の軽減、距離情報取得部が不要になることによる装置構成の簡略化等を実現しながら、第1の実施例と同様の効果を得ることができる。   As described above, in the second embodiment, the distance information acquisition unit in the first embodiment is used by using the so-called passive three-dimensional space measurement method “lens focus method” or “monocular vision method”. This makes it possible to create a distance factor resolution difference invalidated image without the need for calibration processing operations such as coordinate transformation, projection transformation, and enlargement / reduction processing for video data and two-dimensional distance data. The same effects as those of the first embodiment can be obtained while reducing the load and simplifying the apparatus configuration by eliminating the need for the distance information acquisition unit.

以上、第1、第2実施例について説明したが、本発明はこれに限られるものではない。   The first and second embodiments have been described above, but the present invention is not limited to this.

すなわち、第1の実施例では、距離情報取得部3として、一般的な能動的三次元空間計測法を実施する機能を備えた装置を使用した例を挙げたが、同様の距離データが得られる別の構成を採用することも可能である。例えば受動的計測法であるステレオ法の「両眼視」方式の場合を説明すると、撮像部2を1台目のカメラ、距離情報取得部3を2台目のカメラとして、両カメラにより得られたステレオを画像から距離計測演算を行って距離データを取得することもできる。また、受動的計測法であるステレオ法の「カメラ移動」方式の場合であれば、撮像部2を移動させる機能と距離計測演算機能を備えた装置を距離情報取得部3とすることも可能である。   That is, in the first embodiment, an example using an apparatus having a function of performing a general active three-dimensional space measurement method as the distance information acquisition unit 3 is described, but similar distance data can be obtained. Other configurations can be employed. For example, in the case of the “binocular vision” method of the stereo method which is a passive measurement method, the imaging unit 2 is obtained as a first camera and the distance information acquisition unit 3 as a second camera. It is also possible to obtain distance data by performing distance measurement calculation from the stereo image. Further, in the case of the “camera movement” method of the stereo method which is a passive measurement method, a device having a function of moving the imaging unit 2 and a distance measurement calculation function can be used as the distance information acquisition unit 3. is there.

また、第1の実施例では、画像処理部5がユーザ指定時計測モード時の距離情報取得部3に二次元距離データの生成、出力指示を送信する規則として、ユーザが任意に計測のタイミングを指示する方法を例として挙げたが、画像処理部5に映像データ内の撮影対象の動作を自動検出する機能を持たせ、撮影対象の大きな動作を検出した場合、その動作終了時点で距離情報取得部3に二次元距離データの生成、出力指示を1回送信するようにしてもよい。   In the first embodiment, the user arbitrarily sets the timing of measurement as a rule for the image processing unit 5 to transmit a generation and output instruction of two-dimensional distance data to the distance information acquisition unit 3 in the measurement mode at the time of user designation. The method of instructing was given as an example, but when the image processing unit 5 has a function of automatically detecting the operation of the shooting target in the video data and a large operation of the shooting target is detected, distance information is acquired at the end of the operation An instruction for generating and outputting two-dimensional distance data may be transmitted to the unit 3 once.

また、第1の実施例では、撮像部2が取得する映像データとして俯瞰映像データを例にして説明したが、同様の大域的データが得られる映像であれば、魚眼レンズを使用して撮影した映像や、全方位映像などの別の映像でもよい。   In the first embodiment, the overhead video data has been described as an example of the video data acquired by the imaging unit 2. However, if the video has similar global data, the video captured using the fisheye lens is used. Or another image such as an omnidirectional image may be used.

更に、第1の実施例では、解像度の変更方法としてニアレストネイバー法を例にして説明したが、バイキュービック法等を用いたり、平均値フィルタのフィルタサイズを変更するなどの方法を用いることも可能である。   Furthermore, in the first embodiment, the nearest neighbor method has been described as an example of the resolution changing method. However, a bicubic method or the like, or a method of changing the filter size of the average value filter may be used. Is possible.

一方、第2の実施例では、撮像部2がオートフォーカス機能を備えない場合の三次元空間計測法として、「単眼視」法を挙げたが、例えば「特開2004−294421の自己位置計測方法及び装置」に示される技術を応用して、同一平面上にあって互い位置関係が既知の状態である4個以上のマーカを撮影画角内に配置し、それぞれのマーカを画像認識部に画像認識させ、マーカ同士の空間内位置関係、またはマーカサイズのデータを用いて演算処理を行うことによって撮影対象空間の距離計測を行うことにしてもよい。   On the other hand, in the second embodiment, the “monocular vision” method is used as the three-dimensional space measurement method when the imaging unit 2 does not have the autofocus function. For example, “Self-position measurement method disclosed in Japanese Patent Laid-Open No. 2004-294421” By applying the technology shown in the "Device and device", four or more markers that are on the same plane and have a known positional relationship are arranged within the shooting angle of view, and each marker is imaged on the image recognition unit. The distance measurement of the imaging target space may be performed by recognizing and performing arithmetic processing using the positional relationship between the markers in the space or the marker size data.

1 画像処理装置
2 撮像部
3 距離情報取得部
4 ユーザ入力部
5 画像処理部
6 映像表示装置
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Imaging part 3 Distance information acquisition part 4 User input part 5 Image processing part 6 Video display apparatus

Claims (10)

人や物などの撮影対象を撮影して映像データを取得する撮像部と、
該撮像部から撮影対象までの距離を計測して距離データを取得する距離計測部と、
前記映像データ内の所定の領域にある撮影対象の映像情報分解能と、前記撮像部と前記撮影対象間の距離とを基準値として、その他の撮影対象と前記撮像部間の距離と、その他の撮影対象の映像情報分解能との値の比が一定になるように、前記映像データにおける各領域の解像度変更処理を行う画像処理部を備えたことを特徴とする画像処理装置。
An imaging unit that captures video data by capturing a subject such as a person or an object;
A distance measuring unit that measures the distance from the imaging unit to the object to be captured and obtains distance data;
The distance between the other imaging target and the imaging unit and the other imaging using the video information resolution of the imaging target in the predetermined area in the video data and the distance between the imaging unit and the imaging target as reference values. An image processing apparatus comprising: an image processing unit that performs resolution change processing of each area in the video data so that a ratio of a value to a target video information resolution is constant .
人や物などの撮影対象を撮影して映像データを取得する機能及び取得した映像データを用いて撮影対象までの距離を計測する機能を有する撮像部と、
前記映像データ内の所定の領域にある撮影対象の映像情報分解能と、前記撮像部と前記撮影対象間の距離とを基準値として、その他の撮影対象と前記撮像部間の距離と、その他の撮影対象の映像情報分解能との値の比が一定になるように、前記映像データにおける各領域の解像度変更処理を行う画像処理部を備えたことを特徴とする画像処理装置。
An imaging unit having a function of photographing a photographing target such as a person or an object to acquire video data and a function of measuring a distance to the photographing target using the acquired video data;
The distance between the other imaging target and the imaging unit and the other imaging using the video information resolution of the imaging target in the predetermined area in the video data and the distance between the imaging unit and the imaging target as reference values. An image processing apparatus comprising: an image processing unit that performs resolution change processing of each area in the video data so that a ratio of a value to a target video information resolution is constant .
請求項1または請求項2に記載の画像処理装置において、
前記基準値は、前記撮像部からの距離が最大の撮影対象の映像情報分解能とすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus according to claim 1, wherein the reference value is a video information resolution of an imaging target having a maximum distance from the imaging unit.
請求項1または請求項2に記載の画像処理装置において、
ユーザ入力部を備え、
前記基準値は、前記ユーザ入力部から入力される任意の撮影対象の映像情報分解能とすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
With user input,
The image processing apparatus according to claim 1, wherein the reference value is video information resolution of an arbitrary photographing target input from the user input unit.
請求項2に記載の画像処理装置において、
撮影された画像データから、撮影対象までの距離の計測を、撮影対象空間内に配置された複数個のマーカを画像認識することによって行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
An image processing apparatus for measuring a distance from a photographed image data to a photographing target by recognizing a plurality of markers arranged in the photographing target space.
請求項4に記載の画像処理装置において、
前記画像処理部が行う解像度変更処理にニアレストネイバー法を用いることを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
An image processing apparatus using a nearest neighbor method for resolution change processing performed by the image processing unit.
請求項4に記載の画像処理装置において、
前記画像処理部が行う解像度変更処理に平均値フィルタを用いることを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
An image processing apparatus using an average value filter for resolution changing processing performed by the image processing unit.
人や物などの撮影対象を撮影して映像データを取得する撮像部と、
該撮像部から撮影対象までの距離を計測して距離データを取得する距離計測部と、
前記映像データ内の所定の領域にある撮影対象の映像情報分解能と、前記撮像部と前記撮影対象間の距離とを基準値として、その他の撮影対象と前記撮像部間の距離と、その他の撮影対象の映像情報分解能との値の比が一定になるように、前記映像データにおける各領域の解像度変更処理を行う画像処理部を備えた画像処理装置と、
この画像処理装置が設置される場所から離れた遠隔地に設置され、前記画像処理部から送られてくる解像度変更処理された映像データを表示する表示装置からなることを特徴とする画像処理システム。
An imaging unit that captures video data by capturing a subject such as a person or an object;
A distance measuring unit that measures the distance from the imaging unit to the object to be captured and obtains distance data;
The distance between the other imaging target and the imaging unit and the other imaging using the video information resolution of the imaging target in the predetermined area in the video data and the distance between the imaging unit and the imaging target as reference values. An image processing apparatus including an image processing unit that performs resolution change processing of each region in the video data so that a ratio of values to the target video information resolution is constant ;
An image processing system comprising: a display device that is installed in a remote place away from a place where the image processing device is installed, and displays video data subjected to resolution change processing sent from the image processing unit.
人や物などの撮影対象を撮影して映像データを取得する機能及び取得した映像データを用いて撮影対象までの距離を計測する機能を有する撮像部と、
前記映像データ内の所定の領域にある撮影対象の映像情報分解能と、前記撮像部と前記撮影対象間の距離とを基準値として、その他の撮影対象と前記撮像部間の距離と、その他の撮影対象の映像情報分解能との値の比が一定になるように、前記映像データにおける各領域の解像度変更処理を行う画像処理部を備えた画像処理装置と、
この画像処理装置が設置される場所から離れた遠隔地に設置され、前記画像処理部から送られてくる解像度変更処理された映像データを表示する表示装置からなることを特徴とする画像処理システム。
An imaging unit having a function of photographing a photographing target such as a person or an object to acquire video data and a function of measuring a distance to the photographing target using the acquired video data;
The distance between the other imaging target and the imaging unit and the other imaging using the video information resolution of the imaging target in the predetermined area in the video data and the distance between the imaging unit and the imaging target as reference values. An image processing apparatus including an image processing unit that performs resolution change processing of each region in the video data so that a ratio of values to the target video information resolution is constant ;
An image processing system comprising: a display device that is installed in a remote place away from a place where the image processing device is installed, and displays video data subjected to resolution change processing sent from the image processing unit.
撮像部に人や物などの撮影対象を撮影させて映像データを取得させる工程と、
距離計測部に前記撮像部から撮影対象までの距離を計測させて距離データを取得させる工程と、
画像処理部に前記映像データ内の所定の領域にある撮影対象の映像情報分解能と、前記撮像部と前記撮影対象間の距離とを基準値として、その他の撮影対象と前記撮像部間の距離と、その他の撮影対象の映像情報分解能との値の比が一定になるように、前記映像データにおける各領域の解像度変更処理を行わせる工程と、
を実行させることを特徴とする画像処理プログラム。
Causing the imaging unit to shoot a subject such as a person or an object to acquire video data;
Causing the distance measurement unit to measure the distance from the imaging unit to the object to be photographed to obtain distance data;
The image processing unit uses the video information resolution of the shooting target in the predetermined area in the video data and the distance between the imaging unit and the shooting target as reference values, and the distance between the other shooting target and the imaging unit. A step of performing resolution change processing of each area in the video data so that the ratio of the value to the video information resolution of other shooting targets is constant ;
An image processing program for executing
JP2010073455A 2010-03-26 2010-03-26 Image processing apparatus, image processing system, and image processing program Active JP5509986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010073455A JP5509986B2 (en) 2010-03-26 2010-03-26 Image processing apparatus, image processing system, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010073455A JP5509986B2 (en) 2010-03-26 2010-03-26 Image processing apparatus, image processing system, and image processing program

Publications (2)

Publication Number Publication Date
JP2011205585A JP2011205585A (en) 2011-10-13
JP5509986B2 true JP5509986B2 (en) 2014-06-04

Family

ID=44881697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010073455A Active JP5509986B2 (en) 2010-03-26 2010-03-26 Image processing apparatus, image processing system, and image processing program

Country Status (1)

Country Link
JP (1) JP5509986B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017054475A1 (en) * 2015-09-28 2017-04-06 中兴通讯股份有限公司 Image capturing method, device, and terminal

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138453B2 (en) * 2012-10-29 2017-05-31 京セラ株式会社 Equipment with videophone function, program, and control method of equipment with videophone function
JP5955348B2 (en) * 2013-05-22 2016-07-20 株式会社テレパシーホールディングス Wearable device having privacy protection function of captured image, control method thereof, and image sharing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4475579B2 (en) * 2004-11-11 2010-06-09 日本電信電話株式会社 Video communication apparatus and video communication apparatus control method
JP2007311835A (en) * 2006-05-15 2007-11-29 Canon Electronics Inc Image processing unit and control method therefor
JP2008263500A (en) * 2007-04-13 2008-10-30 Konica Minolta Holdings Inc Communication device and communication program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017054475A1 (en) * 2015-09-28 2017-04-06 中兴通讯股份有限公司 Image capturing method, device, and terminal

Also Published As

Publication number Publication date
JP2011205585A (en) 2011-10-13

Similar Documents

Publication Publication Date Title
WO2015081870A1 (en) Image processing method, device and terminal
KR101899877B1 (en) Apparatus and method for improving quality of enlarged image
JP6100089B2 (en) Image processing apparatus, image processing method, and program
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
KR101003277B1 (en) Method and system for producing seamless composite images having non-uniform resolution from a multi-imager
US7834907B2 (en) Image-taking apparatus and image processing method
CN102724398B (en) Image data providing method, combination method thereof, and presentation method thereof
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
CN102385747A (en) Method for generating panoramic image
CN111246080B (en) Control apparatus, control method, image pickup apparatus, and storage medium
KR101465112B1 (en) camera system
TWI502548B (en) Real-time image processing method and device therefor
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
JP6584237B2 (en) Control device, control method, and program
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP6700935B2 (en) Imaging device, control method thereof, and control program
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP2012133408A (en) Image processing device and program
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP5479850B2 (en) Moving image creating apparatus and moving image creating method
JP2019101563A (en) Information processing apparatus, information processing system, information processing method, and program
JP2006191408A (en) Image display program
JP5202448B2 (en) Image processing system and method
JP5718502B2 (en) Image creating apparatus and image creating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R150 Certificate of patent or registration of utility model

Ref document number: 5509986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150