JP2008306264A - Image processor, image processing method, program, and recording medium - Google Patents

Image processor, image processing method, program, and recording medium Download PDF

Info

Publication number
JP2008306264A
JP2008306264A JP2007149127A JP2007149127A JP2008306264A JP 2008306264 A JP2008306264 A JP 2008306264A JP 2007149127 A JP2007149127 A JP 2007149127A JP 2007149127 A JP2007149127 A JP 2007149127A JP 2008306264 A JP2008306264 A JP 2008306264A
Authority
JP
Japan
Prior art keywords
image
unit
pattern
color
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007149127A
Other languages
Japanese (ja)
Other versions
JP4999559B2 (en
Inventor
Toshihiro Takada
敏弘 高田
Shigeki Aoyanagi
滋己 青柳
Yasunari Harada
康徳 原田
Junji Yamato
淳司 大和
Keiji Hirata
圭ニ 平田
Yoshinari Shirai
良成 白井
Naomi Yamashita
直美 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007149127A priority Critical patent/JP4999559B2/en
Publication of JP2008306264A publication Critical patent/JP2008306264A/en
Application granted granted Critical
Publication of JP4999559B2 publication Critical patent/JP4999559B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent images captured in respective conference rooms from mutually be fed back to be displayed one over another on displays etc., in the respective conference rooms. <P>SOLUTION: A first image captured by photographing a member B in a first conference room by a camera in the conference room is displayed in a second conference room. When an image captured by photographing a member A before the displayed first image in the second conference room by a camera therein is displayed as it is in the first conference room, a second image 80 obtained by feeding the first image back is displayed together with the member A. For the purpose, an area 90, shown by a dotted line matching the first image displayed in a photographic area, in the photographed second image is determined. The member A is not included in the area 90. An alpha channel having the area 90 set as a transmission area is constituted and added to the second image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明はテレビ会議等を行うために用いられる画像処理装置、画像処理方法、プログラムおよび記録媒体に関するものである。   The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium used for conducting a video conference and the like.

従来よりテレビ会議システムが開発されており、そのテレビ会議システムを用いることにより、遠隔の2以上の会議室の間で映像・音声の送受信を行うことができ、その2以上の会議室にいる人たちで会議を行うことができていた。
一方、従来の画像処理の技術として、背景画像の用意されていない動画像において、動領域の切れ目のない閉輪郭を生成し、この閉輪郭を用いて動領域と背景領域とを分離する技術が開発されている(例えば、特許文献1参照)。
特開平11−353486号公報(第1頁、第1図等)
Video conferencing systems have been developed in the past. By using the video conferencing system, video / audio can be transmitted and received between two or more remote conference rooms. We were able to hold a meeting.
On the other hand, as a conventional image processing technology, there is a technology for generating a closed contour without a moving region in a moving image for which a background image is not prepared, and separating the moving region and the background region using the closed contour. It has been developed (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 11-353486 (first page, FIG. 1 etc.)

しかしながら、従来のテレビ会議システムにおいては、第一の会議室における会議の様子を撮影するカメラの設置場所や向き等によっては、カメラが、第一の会議室内の参加者等だけでなく、撮影領域内に配置されたディスプレイ等に表示されている第二の会議室の状態を撮影した画像や、資料の画像等を撮影してしまう場合がある。このように一旦ディスプレイ等に表示された画像を再度撮影して得られた画像は、通常、画質が悪く、内容が把握しにくい。従って、このような画像が、第二の会議室で表示されると、目障りであるとともに、この画像内のディスプレイ内に表示されている画像等に、第二の会議室における会議の参加者の注意が移ってしまい、会議に集中できず、効率の良い会議が実現できない恐れがあるという問題があった。   However, in the conventional video conference system, depending on the installation location and orientation of the camera that captures the state of the conference in the first conference room, the camera is not only a participant in the first conference room, There may be a case where an image obtained by photographing the state of the second conference room displayed on a display or the like disposed inside, an image of a document, or the like is photographed. Thus, an image obtained by re-taking an image once displayed on a display or the like usually has poor image quality and is difficult to grasp. Therefore, when such an image is displayed in the second conference room, it is annoying and the image displayed in the display in this image is displayed in the conference room in the second conference room. There has been a problem that attention has shifted and it is not possible to concentrate on the meeting, and there is a possibility that an efficient meeting cannot be realized.

特に、第一の会議室において撮影された画像に、第二の会議室の様子を表示しているディスプレイ等を含む画像が含まれている場合、この第一の会議室において撮影された画像が、遠隔地の第二の会議室に送信されてディスプレイ等に表示されると、第二の会議室のディスプレイ等には、本来は表示が不要な第二の会議室内で撮影された画像等がフィードバックされて表示されることとなる。この結果、第二の会議室内においては、第一の会議室の様子と第二の会議室の様子とが同じ画面に表示されてしまい、表示される画像全体が混雑したものとなり、会議に集中できなくなってしまうという問題があった。
具体的には、第二の会議室で参加者の一人が発言している様子が、第二の会議室のディスプレイ等にも表示される結果、第二の会議室では、現在、どこで、誰が発言しているかを、瞬時に判断しにくくなり、参加者が状況の把握ができずに混乱してしまい、会議に集中できなくなってしまうという問題があった。
In particular, when an image taken in the first meeting room includes an image including a display that displays the state of the second meeting room, the image taken in the first meeting room is When sent to the second conference room at a remote location and displayed on a display or the like, the display or the like of the second conference room contains images or the like taken in the second conference room that are not originally required to be displayed. Feedback will be displayed. As a result, in the second meeting room, the state of the first meeting room and the state of the second meeting room are displayed on the same screen, and the entire displayed image is congested, and the concentration in the meeting There was a problem that it was impossible.
Specifically, one of the participants speaking in the second meeting room is also displayed on the display of the second meeting room. As a result, in the second meeting room, where and who There was a problem that it was difficult to instantly determine whether or not he was speaking, and the participants could not grasp the situation and were confused and unable to concentrate on the meeting.

本発明は、上記問題を解決すべくなされたもので、その目的は、前述したように各会議室でそれぞれ撮影された第一の画像が互いにフィードバックされて、各会議室内のディスプレイ等に表示される第二の画像に重なって表示されることを防ぐ画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。   The present invention has been made to solve the above-mentioned problems, and the object thereof is to feed back the first images taken in each conference room as described above and display them on a display or the like in each conference room. Another object of the present invention is to provide an image processing device, an image processing method, a program, and a recording medium that prevent the second image from being displayed on the second image.

上記課題を解決するために、本発明は、第一の画像を受け付ける受付部と、前記受付部が受け付けた第一の画像を表示する表示部と、前記表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付部と、前記第一の画像と前記第二の画像内に含まれる第一の画像との色あわせ、および位置あわせのための補正に用いられる補正パラメータが格納される補正パラメータ格納部と、前記補正パラメータに基づいて、前記第一の画像、または、第二の画像内の第一の画像が位置する領域内の画像を補正し、前記第一の画像と、前記第二の画像内の第一の画像が位置する領域内の画像とを比較する比較部と、前記比較部の比較結果を用いて、前記第二の画像内の前記第一の画像と一致する領域を透過領域に設定した透過画像を生成する透過画像構成部と、前記透過画像構成部が生成した透過画像を出力する出力部とを具備することを特徴とする画像処理装置である。
かかる構成により、色と位置とを補正して、第二の画像内の第一の画像と、撮影対象となったオリジナルの第一の画像とが一致するか否かを精度良く判断することができ、撮影した第二の画像の、撮影領域内で表示されていた第一の画像と一致する領域を、精度良く透過領域に指定して出力することができる。
In order to solve the above problems, the present invention provides a reception unit that receives a first image, a display unit that displays the first image received by the reception unit, and a first image that the display unit displays. An image receiving unit that receives a second image that is an image of an area that includes the image, and correction for color matching and alignment between the first image and the first image included in the second image Based on the correction parameter, the correction parameter storage unit that stores the correction parameter used in the correction, the first image or the image in the region where the first image in the second image is located is corrected. A comparison unit for comparing the first image with an image in a region where the first image in the second image is located, and using a comparison result of the comparison unit, Set the area that matches the first image of the And transmitting image constructing unit for generating a transmission image, an image processing apparatus characterized by comprising an output section for outputting the transmission image the transparent image forming section is generated.
With this configuration, the color and position are corrected, and it is possible to accurately determine whether the first image in the second image matches the original first image to be photographed. In addition, it is possible to accurately designate and output a region that coincides with the first image displayed in the photographing region of the photographed second image as the transmissive region.

また、本発明は、上記に記載の発明において、前記比較部は、前記補正パラメータに基づいて、前記第一の画像、及び第二の画像内の第一の画像が位置する領域内の画像を補正することを特徴とする。
かかる構成により、第一の画像と第二の画像内の第一の画像が位置する領域内の画像の両方の色と位置とを補正して、第二の画像内の第一の画像と、撮影対象となったオリジナルの第一の画像とが一致するか否かを更に精度良く判断することができ、撮影した第二の画像の、撮影領域内で表示されていた第一の画像と一致する領域を、精度良く透過領域に指定して出力することができる。
According to the present invention, in the above-described invention, the comparison unit is configured to display, based on the correction parameter, an image in a region where the first image and the first image in the second image are located. It is characterized by correcting.
With such a configuration, the first image in the second image is corrected by correcting both the color and position of the image in the region where the first image in the first image and the second image are located, It is possible to judge with higher accuracy whether the original first image that was the subject of photography matches, and it matches the first image displayed in the photographing area of the second image taken. The area to be processed can be designated and output as a transparent area with high accuracy.

また、本発明は、上記に記載の発明において、前記透過画像構成部は、前記第二の画像内の前記透過領域により分離された領域の画像を切り出した複数の透過画像を構成することを特徴とする。
かかる構成により、表示が不必要である領域の画像を削除して、第二の画像のデータ量を削減できる。
Further, the present invention is the invention described in the above, wherein the transparent image constructing unit configures a plurality of transparent images obtained by cutting out images of regions separated by the transparent regions in the second image. And
With such a configuration, it is possible to delete an image in an area where display is unnecessary and reduce the data amount of the second image.

また、本発明は、上記に記載の発明において、前記透過画像構成部は、透過領域を指定するアルファチャンネルを有する透過画像を生成することを特徴とする。
かかる構成により、第二の画像の情報を削減することなく、撮影した第二の画像の、撮影領域内で表示されていた第一の画像と一致する領域を、透過領域として表示させることが可能となる。
Further, the present invention is characterized in that, in the above-described invention, the transparent image constructing unit generates a transparent image having an alpha channel for designating a transparent region.
With this configuration, it is possible to display, as a transmissive area, an area that matches the first image displayed in the shooting area of the second image that has been shot without reducing the information of the second image. It becomes.

また、本発明は、上記に記載の発明において、目印となる画像である目印画像が異なる位置に配置された複数のパターン画像であって当該複数のパターン画像間にて、目印画像の出現パターンが互いに異なる複数のパターン画像が格納される画像格納部と、前記パターン撮影画像内から前記目印画像を検出する目印画像検出部と、前記目印画像検出部が検出した各目印画像を用いて、前記各目印画像についての出現パターンを取得し、前記各パターン撮影画像内において検出された目印画像の位置と、当該目印画像の出現パターンと一致する出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得する対応情報取得部と、前記対応情報取得部が取得した対応情報を用いて前記補正パラメータを構成し、前記補正パラメータ格納部に蓄積する補正パラメータ構成部とを更に具備し、前記表示部は、前記画像格納部に格納されている複数のパターン画像を切り替えて表示し、前記画像受付部は、前記表示部が表示している複数のパターン画像を含む画像を撮影した画像であるパターン撮影画像を受け付け、前記目印画像検出部は、前記画像受付部が受け付けたパターン撮影画像内から前記目印画像を検出することを特徴とする。   Further, according to the present invention, in the above-described invention, the mark image which is an image serving as a mark is a plurality of pattern images arranged at different positions, and the appearance pattern of the mark image is between the pattern images. An image storage unit that stores a plurality of different pattern images, a landmark image detection unit that detects the landmark image from the pattern captured image, and each landmark image detected by the landmark image detection unit, An appearance pattern for the landmark image is acquired, and the position of the landmark image detected in each pattern image and the placement of the landmark image in the plurality of pattern images having the appearance pattern matching the appearance pattern of the landmark image are arranged. A correspondence information acquisition unit that acquires correspondence information indicating a correspondence with a position, and the correction using the correspondence information acquired by the correspondence information acquisition unit And a correction parameter configuration unit that accumulates in the correction parameter storage unit, wherein the display unit switches and displays a plurality of pattern images stored in the image storage unit, and receives the image The unit accepts a pattern photographed image obtained by photographing an image including a plurality of pattern images displayed on the display unit, and the landmark image detection unit is configured to receive the pattern photographed image received from the pattern acceptance image received from the image accepting unit. A mark image is detected.

かかる構成により、表示部に表示された画像と、撮影部により撮影された画像内において表示部に表示された画像との間の、位置の対応を正確に取ることができ、この対応関係を用いて、精度の良い補正パラメータを得ることができる。特に、目印画像の出現パターンによって、撮影画像内から目印画像を識別して検出するようにしているため、撮影部の撮影状況によって、表示部の一部しか撮影できず、表示部の表示領域内のどの部分を撮影したか分からない場合や、表示部の撮影された向き等が判別できない場合においても、撮影画像内から、正確に目印画像が配置されている位置を識別することができ、位置の対応を正確にとることができ、精度の良い補正パラメータを得ることができる。   With this configuration, it is possible to accurately take the correspondence between the position of the image displayed on the display unit and the image displayed on the display unit in the image captured by the photographing unit. Thus, a highly accurate correction parameter can be obtained. In particular, since the mark image is identified and detected from within the photographed image based on the appearance pattern of the mark image, only a part of the display part can be photographed depending on the photographing condition of the photographing part, and within the display area of the display part. Even if you do not know which part of the image was taken, or when the direction of the image taken on the display unit cannot be determined, the position where the landmark image is placed can be accurately identified from the captured image. Can be accurately taken, and a highly accurate correction parameter can be obtained.

また、本発明は、上記に記載の発明において、前記画像格納部は、複数の色のうちのいずれか一つの色を有する、目印となる画像である前記目印画像が、異なる位置に複数配置された前記複数のパターン画像であって当該複数のパターン画像間にて、前記複数の目印画像の配置されている位置が同じであり、異なる位置に配置された目印画像の色の出現パターンが互いに異なる前記複数のパターン画像を格納し、前記対応情報取得部は、前記目印画像検出部が検出した各目印画像を用いて、前記各パターン撮影画像内の同じ位置において検出された前記目印画像についての色の出現パターンを取得し、当該色の出現パターンが取得された撮影画像内の位置と、当該色の出現パターンと一致する色の出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得することを特徴とする。   According to the present invention, in the above-described invention, the image storage unit includes a plurality of the mark images, which are images serving as marks, having any one of a plurality of colors at different positions. The positions of the plurality of mark images are the same among the plurality of pattern images, and the appearance patterns of the colors of the mark images arranged at different positions are different from each other. The plurality of pattern images are stored, and the correspondence information acquisition unit uses each mark image detected by the mark image detection unit, and uses the color of the mark image detected at the same position in each pattern photographed image. The plurality of pattern images having a position in the captured image from which the appearance pattern of the color is acquired and an appearance pattern of a color that matches the appearance pattern of the color And acquiring the correspondence information indicating a correspondence between a position disposed landmarks image in.

かかる構成により、表示部に表示された画像と、撮影部により撮影された画像内において表示部に表示された画像との間の、位置の対応を正確に取ることができ、この対応関係を用いて、精度の良い補正パラメータを得ることができる。特に、目印画像の出現パターンによって、撮影画像内から目印画像を識別して検出するようにしているため、撮影部の撮影状況によって、表示部の一部しか撮影できず、表示部の表示領域内のどの部分を撮影したか分からない場合や、表示部の撮影された向き等が判別できない場合においても、撮影画像内から、正確に,目印画像が配置されている位置を識別することができ、位置の対応を正確にとることができ、精度の良い補正パラメータを得ることができる。   With this configuration, it is possible to accurately take the correspondence between the position of the image displayed on the display unit and the image displayed on the display unit in the image captured by the photographing unit. Thus, a highly accurate correction parameter can be obtained. In particular, since the mark image is identified and detected from within the photographed image based on the appearance pattern of the mark image, only a part of the display part can be photographed depending on the photographing condition of the photographing part, and within the display area of the display part. Even if you do not know which part of the image was taken or if the direction of the image taken on the display unit cannot be determined, the position where the landmark image is placed can be accurately identified from the captured image. The correspondence of the position can be taken accurately, and a highly accurate correction parameter can be obtained.

また、本発明は、上記に記載の発明において、前記複数のパターン画像における複数の目印画像の配置された位置と、当該配置された位置における色の出現パターンとの対応を示す情報である対応管理情報が格納される対応管理情報格納部を更に具備し、前記対応情報取得部は、前記対応管理情報を用いて、前記撮影画像内の目印画像について取得した色の出現パターンから前記対応情報を取得することを特徴とする。
かかる構成により、表示部に表示された画像と、撮影部により撮影された画像内において表示部に表示された画像との間の位置の対応を正確に取ることができる。
In the invention described above, the present invention relates to correspondence management, which is information indicating a correspondence between a position where a plurality of landmark images are arranged in the plurality of pattern images and a color appearance pattern at the arranged position. A correspondence management information storage unit for storing information; and the correspondence information acquisition unit acquires the correspondence information from the appearance pattern of the color acquired for the landmark image in the photographed image using the correspondence management information. It is characterized by doing.
With such a configuration, it is possible to accurately take the correspondence between the position of the image displayed on the display unit and the image displayed on the display unit in the image captured by the imaging unit.

また、本発明は、上記に記載の発明において、前記画像格納部は、前記各パターン画像内の目印画像数をA(Aは2以上の整数)、前記パターン画像数をB(Bは2以上の整数)とした場合に、2≧Aの関係を満たす複数のパターン画像を格納することを特徴とする。
かかる構成により、目印画像数を最適化できる。
In the present invention described above, the image storage unit may be configured such that the number of landmark images in each pattern image is A (A is an integer of 2 or more), and the number of pattern images is B (B is 2 or more). A plurality of pattern images satisfying the relationship of 2 B ≧ A are stored.
With this configuration, the number of landmark images can be optimized.

また、本発明は、上記に記載の発明において、前記複数のパターン画像の目印画像は、前記パターン画像ごとに互いに異なっており、前記目印画像検出部は、各パターン画像から検出した目印画像を取得し、前記対応情報取得部は、前記目印画像検出部が取得したパターン画像の配列される順番に応じた前記目印画像を取得して、前記対応情報を取得することを特徴とする。
かかる構成により、この撮影画像が複数のパターン画像を撮影する際等に、複数のパターン画像を識別できるようにする必要がなく、パターン画像を撮影する順番等を考慮する必要がなくなり、処理を簡略化できる。
In the present invention described above, the mark images of the plurality of pattern images are different from one another for each pattern image, and the mark image detection unit obtains a mark image detected from each pattern image. The correspondence information acquisition unit acquires the landmark image according to the order in which the pattern images acquired by the landmark image detection unit are arranged, and acquires the correspondence information.
With this configuration, when this captured image captures a plurality of pattern images, it is not necessary to be able to identify the plurality of pattern images, and it is not necessary to consider the order of capturing the pattern images, and the processing is simplified. Can be

また、本発明は、上記に記載の発明において、前記補正パラメータ構成部は、前記画像受付部が受け付けたパターン撮影画像内の目標画像の色に関する情報である色情報と、前記出力部により出力された対応情報が示す前記目標画像に対応した前記パターン画像内の目標画像の色情報とを取得する色情報取得手段と、前記色情報取得手段が取得した色情報を用いて、前記画像受付部が受け付けた画像の色あわせのための補正に用いられる補正パラメータである色補正情報を取得し、前記補正パラメータ格納部に蓄積する色補正情報取得手段とを更に具備することを特徴とする。
かかる構成により、画像間の対応する位置の色を用いて色補正情報を取得することができるため、この色補正情報を用いて色補正を行うことで、正確に色の補正を行うことができる。
Further, according to the present invention, in the invention described above, the correction parameter configuration unit outputs color information that is information about a color of a target image in a pattern captured image received by the image receiving unit, and is output by the output unit. The color information acquisition unit that acquires color information of the target image in the pattern image corresponding to the target image indicated by the correspondence information, and the image reception unit uses the color information acquired by the color information acquisition unit. It further comprises color correction information acquisition means for acquiring color correction information, which is a correction parameter used for correction for color matching of the received image, and accumulating it in the correction parameter storage unit.
With this configuration, color correction information can be acquired using colors at corresponding positions between images, and color correction can be performed accurately by performing color correction using this color correction information. .

また、本発明は、上記に記載の発明において、前記補正パラメータ構成部は、前記対応情報取得部が取得した位置情報を用いて、前記画像受付部が受け付けた画像の位置あわせのための補正に用いられる補正パラメータである位置補正情報を取得し、前記補正パラメータ格納部に蓄積する位置補正情報取得手段をさらに具備することを特徴とする。
かかる構成により、この補正情報を用いて位置の補正を行うことで、正確に位置の補正を行うことができる。
According to the present invention, in the invention described above, the correction parameter configuration unit performs correction for image alignment received by the image receiving unit using the position information acquired by the correspondence information acquiring unit. It further comprises position correction information acquisition means for acquiring position correction information which is a correction parameter to be used and storing it in the correction parameter storage unit.
With this configuration, the position can be accurately corrected by correcting the position using this correction information.

また、本発明は、第一の画像を受け付ける受付部と、画像を表示する表示部と、第二の画像を受け付ける画像受付部と、前記第一の画像と、前記第二の画像内に含まれる第一の画像との色あわせ、および位置あわせのための補正に用いられる補正パラメータが格納される補正パラメータ格納部と、画像の比較を行う比較部と、透過画像を生成する透過画像構成部と、出力部とを備えた画像処理装置における画像処理方法であって、前記受付部が、前記第一の画像を受け付けるステップと、前記表示部が、受け付けた第一の画像を表示するステップと、前記画像受付部が、表示した第一の画像を含む領域を撮影した画像である第二の画像を受け付けるステップと、前記比較部が、前記補正パラメータ格納部に格納される補正パラメータに基づいて、前記第一の画像、または、第二の画像内の第一の画像が位置する領域内の画像を補正するステップと、前記比較部が、前記第一の画像と、前記第二の画像内の第一の画像が位置する領域内の画像とを比較するステップと、前記透過画像構成部が、比較結果を用いて、前記第二の画像内の、前記第一の画像と一致する領域を透過領域に設定した透過画像を生成するステップと、前記出力部が、生成した透過画像を出力するステップとを含むことを特徴とする画像処理方法である。   The present invention includes a reception unit that receives a first image, a display unit that displays an image, an image reception unit that receives a second image, the first image, and the second image. Correction parameter storage unit for storing correction parameters used for correction for color matching and alignment with the first image, a comparison unit for comparing images, and a transmission image configuration unit for generating a transmission image And an image processing method in an image processing apparatus comprising an output unit, wherein the reception unit receives the first image, and the display unit displays the received first image. The image receiving unit receives a second image that is an image of a region including the displayed first image, and the comparison unit is based on a correction parameter stored in the correction parameter storage unit. Correcting the first image or the image in the region where the first image is located in the second image; and the comparison unit includes the first image and the second image Comparing the image in the region in which the first image is located, and the transmission image constructing unit uses the comparison result to determine a region in the second image that matches the first image. An image processing method comprising: generating a transparent image set in a transparent region; and outputting the generated transparent image by the output unit.

また、本発明は、上記に記載の画像処理方法の発明において、前記画像処理装置は、さらに、目印となる画像である目印画像が異なる位置に配置された複数のパターン画像であって当該複数のパターン画像間にて、目印画像の出現パターンが互いに異なる複数のパターン画像が格納される画像格納部と、前記パターン撮影画像内から前記目印画像を検出する目印画像検出部と、対応情報取得部と、前記補正パラメータ格納部に蓄積する補正パラメータを生成する補正パラメータ構成部とを具備し、前記表示部が、前記画像格納部に格納されている複数のパターン画像を切り替えて表示するステップと、前記画像受付部が、前記表示部が表示している複数のパターン画像を含む画像を撮影した画像であるパターン撮影画像を受け付けるステップと、前記目印画像検出部が、前記画像受付部が受け付けたパターン撮影画像内から前記目印画像を検出するステップと、前記対応情報取得部が、前記目印画像検出部が検出した各目印画像を用いて、前記各目印画像についての出現パターンを取得し、前記各パターン撮影画像内において検出された目印画像の位置と、当該目印画像の出現パターンと一致する出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するステップと、前記補正パラメータ構成部が、前記対応情報取得部が取得した対応情報を用いて前記補正パラメータを構成し、前記補正パラメータ格納部に蓄積するステップと、を更に含むことを特徴とする。   In the image processing method invention described above, the image processing apparatus may further include a plurality of pattern images in which landmark images, which are images serving as landmarks, are arranged at different positions. An image storage unit that stores a plurality of pattern images with different appearance patterns of the mark image between the pattern images, a mark image detection unit that detects the mark image from the pattern photographed image, a correspondence information acquisition unit, A correction parameter configuration unit that generates correction parameters to be accumulated in the correction parameter storage unit, and wherein the display unit switches and displays a plurality of pattern images stored in the image storage unit, A step in which an image receiving unit receives a pattern-captured image, which is an image obtained by capturing an image including a plurality of pattern images displayed by the display unit; The mark image detecting unit detects the mark image from the pattern photographed image received by the image receiving unit, and the correspondence information acquiring unit uses each mark image detected by the mark image detecting unit. The appearance image for each of the landmark images is acquired, and the landmark image in the plurality of pattern images having the appearance pattern that coincides with the position of the landmark image detected in each of the pattern photographed images and the appearance pattern of the landmark image. A step of acquiring correspondence information indicating a correspondence with a position where the correction information is arranged, and the correction parameter configuration unit configures the correction parameter using the correspondence information acquired by the correspondence information acquisition unit, and stores the correction parameter. And a step of accumulating in the unit.

また、本発明は、上記に記載の画像処理方法の発明において、前記画像格納部には、複数の色のうちのいずれか一つの色を有する、目印となる画像である前記目印画像が、異なる位置に複数配置された前記複数のパターン画像であって当該複数のパターン画像間にて、前記複数の目印画像の配置されている位置が同じであり、異なる位置に配置された目印画像の色の出現パターンが互いに異なる前記複数のパターン画像が格納されており、前記対応情報取得部が、前記目印画像検出部が検出した各目印画像を用いて、前記各パターン撮影画像内の同じ位置において検出された前記目印画像についての色の出現パターンを取得し、当該色の出現パターンが取得された撮影画像内の位置と、当該色の出現パターンと一致する色の出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するステップと、を更に含むことを特徴とする。   Further, the present invention is the image processing method invention described above, wherein the landmark image that is a landmark image having any one of a plurality of colors is different in the image storage unit. A plurality of pattern images arranged at positions, and the positions of the plurality of mark images are the same between the pattern images, and the color of the mark images arranged at different positions is the same. The plurality of pattern images having different appearance patterns are stored, and the correspondence information acquisition unit is detected at the same position in each pattern photographed image using each landmark image detected by the landmark image detection unit. In addition, a color appearance pattern for the mark image is acquired, and a position in the captured image from which the color appearance pattern is acquired and a color appearance pattern that matches the color appearance pattern are included. Acquiring the correspondence information indicating a correspondence between a position disposed landmark image in the plurality of pattern images that, and further comprising a.

また、本発明は、第一の画像と、第二の画像内に含まれる第一の画像との色あわせ、および位置あわせのための補正に用いられる補正パラメータを格納する補正パラメータ格納部を具備したコンピュータに、前記第一の画像を受け付けるステップと、受け付けた第一の画像を表示するステップと、表示した第一の画像を含む領域を撮影した画像である第二の画像を受け付けるステップと、前記補正パラメータ格納部に格納されている前記補正パラメータに基づいて、前記第一の画像、または、第二の画像内の第一の画像が位置する領域内の画像を補正するステップと、前記第一の画像と、前記第二の画像内の第一の画像が位置する領域内の画像とを比較するステップと、比較結果を用いて、前記第二の画像内の、前記第一の画像と一致する領域を透過領域に設定した透過画像を生成するステップと、生成した透過画像を出力するステップとを実行させるためのプログラムである。   In addition, the present invention includes a correction parameter storage unit that stores correction parameters used for color matching between the first image and the first image included in the second image and correction for positioning. Receiving the first image on the computer, displaying the received first image, receiving a second image that is an image of an area including the displayed first image, Correcting the image in the region where the first image or the first image in the second image is located based on the correction parameter stored in the correction parameter storage; and Comparing one image with an image in a region where the first image in the second image is located, and using the comparison result, the first image in the second image Matching territory Generating a transmission image set in the transmissive region, and a program for and a step of outputting the generated transmission image.

また、本発明は、上記に記載のプログラムの発明において、前記画像処理装置は、さらに、目印となる画像である目印画像が異なる位置に配置された複数のパターン画像であって当該複数のパターン画像間にて、目印画像の出現パターンが互いに異なる複数のパターン画像が格納される画像格納部を具備し、前記画像格納部に格納されている複数のパターン画像を切り替えて表示するステップと、表示している複数のパターン画像を含む画像を撮影した画像であるパターン撮影画像を受け付けるステップと、受け付けたパターン撮影画像内から前記目印画像を検出するステップと、検出した各目印画像を用いて、前記各目印画像についての出現パターンを取得し、前記各パターン撮影画像内において検出された目印画像の位置と、当該目印画像の出現パターンと一致する出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するステップと、取得した対応情報を用いて前記補正パラメータを構成し、前記補正パラメータ格納部に蓄積するステップと、を更にコンピュータに実行させることを特徴とする。   Further, the present invention is the above-described program invention, wherein the image processing device further includes a plurality of pattern images arranged at different positions of the mark images that are the images serving as the marks. An image storage unit for storing a plurality of pattern images having different appearance patterns of the landmark image, and a step of switching and displaying the plurality of pattern images stored in the image storage unit; A step of receiving a pattern photographed image that is an image obtained by photographing an image including a plurality of pattern images, a step of detecting the landmark image from within the received pattern photographed image, and using the detected landmark images, The appearance pattern for the landmark image is acquired, the position of the landmark image detected in each pattern photographed image, and the landmark image Obtaining correspondence information indicating correspondence with positions where mark images are arranged in the plurality of pattern images having an appearance pattern that coincides with the appearance pattern, and configuring the correction parameter using the obtained correspondence information. And storing the correction parameter in the correction parameter storage unit.

また、本発明は、上記に記載のプログラムの発明において、前記画像格納部には、複数の色のうちのいずれか一つの色を有する、目印となる画像である前記目印画像が、異なる位置に複数配置された前記複数のパターン画像であって当該複数のパターン画像間にて、前記複数の目印画像の配置されている位置が同じであり、異なる位置に配置された目印画像の色の出現パターンが互いに異なる前記複数のパターン画像が格納されており、検出した各目印画像を用いて、前記各パターン撮影画像内の同じ位置において検出された前記目印画像についての色の出現パターンを取得し、当該色の出現パターンが取得された撮影画像内の位置と、当該色の出現パターンと一致する色の出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するステップを更にコンピュータに実行させることを特徴とする。   Further, according to the present invention, in the invention of the program described above, the mark storage image, which is a mark image having any one of a plurality of colors, is placed in a different position in the image storage unit. A plurality of the plurality of pattern images arranged, and the positions where the plurality of mark images are arranged are the same between the plurality of pattern images, and the appearance patterns of the colors of the mark images arranged at different positions The plurality of pattern images different from each other are stored, and using each detected mark image, a color appearance pattern for the mark image detected at the same position in each pattern image is obtained, The position of the mark image in the plurality of pattern images having the position in the captured image from which the color appearance pattern was acquired and the color appearance pattern that matches the color appearance pattern. The step of acquiring the correspondence information indicating a correspondence between a position that is location further characterized by causing a computer to execute.

また、本発明は、上記に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体である。   Further, the present invention is a computer-readable recording medium on which the program described above is recorded.

本発明によれば、撮影した第二の画像の、撮影領域内で表示されていた第一の画像と一致する領域を、透過領域に設定して出力することができる。   According to the present invention, it is possible to set and output a region that matches the first image displayed in the photographing region of the photographed second image as the transmissive region.

以下、画像処理装置等の実施の形態について図面を参照して説明する。なお、図面において同じ符号を付した構成要素は同様の動作を行うものとする。
(実施の形態1)
図1は、本実施の形態における色補正・位置補正機能付きの画像処理装置の具体例を示すブロック図である。
画像処理装置100は、受付部101、表示部102、撮影部103、画像受付部104、遅延バッファ105、補正パラメータ格納部106、比較部107、透過画像構成部108、出力部109を具備する。
Hereinafter, embodiments of an image processing apparatus and the like will be described with reference to the drawings. In addition, the component which attached | subjected the same code | symbol in drawing shall perform the same operation | movement.
(Embodiment 1)
FIG. 1 is a block diagram illustrating a specific example of an image processing apparatus with a color correction / position correction function according to the present embodiment.
The image processing apparatus 100 includes a reception unit 101, a display unit 102, an imaging unit 103, an image reception unit 104, a delay buffer 105, a correction parameter storage unit 106, a comparison unit 107, a transmission image configuration unit 108, and an output unit 109.

受付部101は、第一の画像の入力を受け付ける。なお、説明を簡略化するために、画像を示す情報である画像情報も、適宜、画像と呼ぶこととする。ここでの受け付けは、例えば、有線もしくは無線の通信回線(例えば、インターネットやイントラネット、LAN(Local Area Network)などであってもよく、あるいは、IEEE1394のケーブルや、映像情報を伝送する専用のケーブル等であってもよい)を介して送信された第一の情報の受信でもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)からの第一の画像の情報の読み出しであってもよい。   The accepting unit 101 accepts input of the first image. In order to simplify the description, image information that is information indicating an image is also referred to as an image as appropriate. The reception here may be, for example, a wired or wireless communication line (for example, the Internet, an intranet, a LAN (Local Area Network), or the like, or an IEEE 1394 cable, a dedicated cable for transmitting video information, or the like. The first information transmitted via a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.), Also good.

第一の画像は、通常、動画像であるが、静止画像であってもよい。第一の画像はカラー画像であることが好ましいが、グレースケール画像であってもよい。この第一の画像は、例えば、会議の場面を撮影した画像である。具体例としては、この画像処理装置100を端末として用いたテレビ会議システムにおける、他の会議室で撮影され、リアルタイムに送信された画像である。また、第一の画像は、会議の場面を撮影した画像を、蓄積した画像であってもよい。また、第一の画像は、会議の場面を撮影した画像に限らず、どのような画像であってもよい。例えば、会議に利用される資料の画像やプレゼンテーション用の画像等であってもよい。   The first image is usually a moving image, but may be a still image. The first image is preferably a color image, but may be a grayscale image. This first image is, for example, an image of a meeting scene. A specific example is an image taken in another conference room and transmitted in real time in a video conference system using the image processing apparatus 100 as a terminal. Further, the first image may be an image obtained by accumulating images obtained by capturing a meeting scene. Further, the first image is not limited to an image obtained by photographing a meeting scene, and may be any image. For example, it may be an image of a material used for a meeting or an image for presentation.

また、第一の画像は、アナログの画像であってもデジタルの画像であってもよい。アナログ画像である場合、第一の画像は、例えば、コンポジット信号やコンポーネント信号であってもよい。また、デジタルの画像である場合、第一の画像は、例えば、MPEG(Moving Picture Experts Group)や、ITU−T H.264等、画像の圧縮符号化のアルゴリズム等は問わない。また、非圧縮の画像を出力してもよい。また、画像は、HD画像等、画質や解像度等も問わない。また、第一の画像には、他の画像等との同期を取るための同期情報が含まれていても、付加されていてもよい。   The first image may be an analog image or a digital image. In the case of an analog image, the first image may be a composite signal or a component signal, for example. In the case of a digital image, the first image is, for example, MPEG (Moving Picture Experts Group) or ITU-T H.264. Any algorithm such as H.264 or the like may be used. An uncompressed image may be output. In addition, the image may be of any quality, resolution, etc., such as an HD image. Further, the first image may include or be added with synchronization information for synchronizing with other images and the like.

また、受付部101は受け付けた第一の画像を、後述する遅延バッファ105や、図示しないメモリ等に一時記憶するようにしてもよい。受付部101は、第一画像に加えて、第一画像に対応した音声情報を受け付けてもよい。受付部101は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、受付部101は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The receiving unit 101 may temporarily store the received first image in a delay buffer 105 described later, a memory (not shown), or the like. The receiving unit 101 may receive audio information corresponding to the first image in addition to the first image. The receiving unit 101 may or may not include a device for receiving (for example, a modem or a network card). The accepting unit 101 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

なお、受付部101が受け付けた第一の画像がアナログ信号である場合、画像処理装置100内に、第一の画像を、適宜デジタル信号に変換して出力する図示しないAD(アナログデジタル)変換部等を設けることが好適である。このようなAD変換部等を設けることで、適宜、第一の画像に対して行う処理をデジタル化することができる。例えば、受付部101が受け付けたアナログの第一の画像を、このようなAD変換部でデジタル信号に変換して遅延バッファ105に蓄積してもよい。   When the first image received by the receiving unit 101 is an analog signal, an AD (analog-digital) conversion unit (not shown) that converts the first image into a digital signal as appropriate and outputs it in the image processing apparatus 100. Etc. are preferably provided. By providing such an AD conversion unit and the like, it is possible to appropriately digitize the processing performed on the first image. For example, the analog first image received by the reception unit 101 may be converted into a digital signal by such an AD conversion unit and stored in the delay buffer 105.

表示部102は、受付部101が受け付けた第一の画像を表示する。具体的には、表示部102は、受付部101から出力される第一の画像を用いて表示用の情報を構成して、液晶ディスプレイやプラズマディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の表示デバイスに第一の画像を表示する。なお、表示部102は、第一の画像に対応して付与されている音声を、第一の画像とともに音声出力してもよい。表示部102が第一の画像を表示する解像度等は問わない。また、表示部102は、第一の画像に、マスク情報等の透過情報が含まれる場合、これらの情報を用いて第一の画像の一部の領域を透過させて表示したり、第一画像の一部の領域を、他の画像、例えば背景画像や特定の色の画像で置換して表示するようにしてもよい。表示部102は、表示を行う表示デバイスやスピーカを含んでもよく、あるいは含まなくてもよい。表示部102は、ハードウェアによって実現されてもよく、あるいは表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The display unit 102 displays the first image received by the receiving unit 101. Specifically, the display unit 102 configures display information using the first image output from the receiving unit 101, and displays a display device such as a liquid crystal display, a plasma display, or a CRT (Cathode Ray Tube) display. Display the first image. Note that the display unit 102 may output the sound provided corresponding to the first image together with the first image. The resolution at which the display unit 102 displays the first image does not matter. In addition, when the first image includes transmission information such as mask information, the display unit 102 transmits the partial image of the first image using the information, or displays the first image. A part of the area may be replaced with another image, for example, a background image or an image of a specific color and displayed. The display unit 102 may or may not include a display device and a speaker that perform display. The display unit 102 may be realized by hardware, or may be realized by software such as a driver that drives a display device.

撮影部103は、表示部102が表示デバイス等を用いて表示する第一の画像を含む領域の画像である第二の画像を撮影する。具体的には、撮影部103は、表示部102が第一の画像を表示する領域上の少なくとも一部を含む領域を撮影の対象となる領域である撮影領域として撮影して、第二の画像を取得する。より具体的には、撮影部103は、第一の画像を表示するディスプレイ等の表示デバイスの表示面を含む領域の画像を第二の画像として撮影する。第二の画像は、例えば、表示部102の表示デバイス等の前に、会議の参加者等が位置している状態のテレビ会議の画像等である。撮影部103が撮影する画像は、通常は動画像であるが、一以上の静止画像であってもよい。なお、一定または不定の所定の時間間隔で撮影された複数の静止画像は、ここでは動画像とする。   The imaging unit 103 captures a second image that is an image of an area including the first image that the display unit 102 displays using a display device or the like. Specifically, the imaging unit 103 captures an area including at least a part of the area on which the display unit 102 displays the first image as an imaging area that is an imaging target area, and the second image To get. More specifically, the imaging unit 103 captures an image of an area including a display surface of a display device such as a display that displays the first image as the second image. The second image is, for example, an image of a video conference in a state in which a participant of the conference is located before the display device of the display unit 102 or the like. The image photographed by the photographing unit 103 is usually a moving image, but may be one or more still images. Note that a plurality of still images taken at predetermined time intervals that are constant or indefinite are moving images.

第二の画像はアナログ信号であっても、デジタル信号であってもよい。また、第二の画像は、通常はカラー画像であるが、グレースケール画像であってもよい。撮影部103の撮影方向と表示部102が表示する第一の画像の表示面とのなす角等は問わない。撮影部103は、例えば、映像を撮影するカメラであり、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて映像を撮影する。また、撮影部103が音声情報も取得する場合には、撮影部103は、例えば、マイクを含んでいてもよい。撮影部103が画像を出力するためのデータ構造やタイミング等は問わない。例えば、撮影部103は、取得した動画像の情報を、一つの動画像ファイルとして出力してもよい。また、撮影部103は動画像を構成する各フレームの画像情報、もしくは各フレームに相当する画像情報を、取得する毎に順次出力してもよいし、所定数のフレームの画像が取得された時点で、所定数のフレーム単位で画像情報を出力してもよい。   The second image may be an analog signal or a digital signal. The second image is usually a color image, but may be a grayscale image. The angle formed by the photographing direction of the photographing unit 103 and the display surface of the first image displayed on the display unit 102 is not limited. The imaging unit 103 is a camera that captures an image, for example, and images the image using an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). Further, when the photographing unit 103 also acquires audio information, the photographing unit 103 may include a microphone, for example. There is no limitation on the data structure, timing, or the like for the imaging unit 103 to output an image. For example, the photographing unit 103 may output the acquired moving image information as one moving image file. The photographing unit 103 may sequentially output image information of each frame constituting the moving image or image information corresponding to each frame every time it is acquired, or when a predetermined number of frames are acquired. Thus, the image information may be output in units of a predetermined number of frames.

また、撮影部103は、撮影した動画像に対して、動画像内の任意の時間的位置を指定することができるような情報である時間位置情報を付加した動画像を作成してもよい。例えば、時間位置情報として、撮影時点の時刻を示す情報等の時間位置を示す情報を付加した動画像を作成してもよい。例えば、撮影部103は、動画像を構成する各フレームの画像情報に対し、その画像情報を取得した時刻の情報を、時間位置情報、具体例としてはタイムコードや、タイムスタンプとして付加した画像情報を作成してもよい。また、画像情報の各フレームに、フレームを識別するためのフレーム識別情報を付与するようにしてもよい。撮影部103が作成し出力する画像情報は、アナログの画像情報であってもデジタルの画像情報であってもよい。例えば、デジタルの画像情報である場合、MPEGや、ITU−T H.264等、画像情報の圧縮符号化のアルゴリズム等は問わない。また、非圧縮の画像情報を出力してもよい。また、画像情報は、HD画像等、画質や解像度等も問わない。また、撮影部103は、マイク等を含むようにし、音声情報も取得するようにしてもよい。   In addition, the photographing unit 103 may create a moving image in which time position information that is information that can specify an arbitrary temporal position in the moving image is added to the captured moving image. For example, a moving image to which information indicating a time position such as information indicating the time at the time of shooting is added may be created as the time position information. For example, the image capturing unit 103 adds, to the image information of each frame constituting the moving image, information on the time at which the image information was acquired as time position information, specifically, a time code or image information added as a time stamp. May be created. Further, frame identification information for identifying a frame may be added to each frame of the image information. The image information created and output by the photographing unit 103 may be analog image information or digital image information. For example, in the case of digital image information, MPEG or ITU-T H.264 is used. H.264 and other algorithms for compressing and encoding image information may be used. Further, uncompressed image information may be output. The image information may be any image quality, resolution, etc. such as an HD image. Further, the photographing unit 103 may include a microphone and acquire voice information.

また、撮影部103は、撮影部103を識別する装置識別情報を出力するようにしてもよい。装置識別情報は、撮影部103が、カメラ等の撮影デバイスである場合、その撮影デバイスの製造番号等であってもよいし、予め撮影部103に設定しておいた識別番号であってもよい。また、撮影部103のIPアドレス等のネットワーク上の物理アドレス情報であってもよい。また、装置識別情報は、結果として撮影部103を識別できる情報であればよく、撮影部103が接続されているポート番号等の入力端子を識別する情報であっても良い。装置識別情報は、例えば撮影部103内部の図示しないメモリ等に予め蓄積しておく。また、撮影部103が、識別情報をどのように送信するかは問わない。具体的には、上述した位置識別情報と同様の方法により識別情報を出力することが可能である。   The imaging unit 103 may output device identification information for identifying the imaging unit 103. When the photographing unit 103 is a photographing device such as a camera, the device identification information may be a manufacturing number of the photographing device or an identification number set in the photographing unit 103 in advance. . Further, it may be physical address information on the network such as the IP address of the photographing unit 103. The device identification information may be information that can identify the imaging unit 103 as a result, and may be information that identifies an input terminal such as a port number to which the imaging unit 103 is connected. The device identification information is stored in advance in a memory (not shown) in the photographing unit 103, for example. Moreover, it does not ask how the imaging | photography part 103 transmits identification information. Specifically, the identification information can be output by the same method as the position identification information described above.

画像受付部104は、表示部102が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける。ここでは、具体的には、撮影部103が出力する、当該撮影部103が撮影した第二の画像を受け付ける。この受け付けは、例えば、有線もしくは無線の通信回線(例えば、インターネットやイントラネット、LANなどであってもよく、あるいは、IEEE1394のケーブルや、映像情報を伝送する専用のケーブル等であってもよい)を介して送信された情報の受信でもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出された情報の受け付けでもよい。本実施の形態では、画像受付部104は、撮影部103が撮影した第二の画像を示す情報を、専用のケーブル等を介して受け付ける例について説明する。なお、画像受付部104は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、画像受付部104は、は、ハードウェアによって実現されてもよく、あるいは所定のデバイス、を駆動するドライバ等のソフトウェアによって実現されてもよい。   The image receiving unit 104 receives a second image that is an image of an area including the first image displayed on the display unit 102. Here, specifically, the second image output by the imaging unit 103 and captured by the imaging unit 103 is received. This reception may be, for example, a wired or wireless communication line (for example, the Internet, an intranet, a LAN, or the like, or an IEEE 1394 cable or a dedicated cable for transmitting video information). Information received via a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received. In the present embodiment, an example will be described in which the image receiving unit 104 receives information indicating a second image captured by the capturing unit 103 via a dedicated cable or the like. The image receiving unit 104 may or may not include a device (for example, a modem or a network card) for receiving. The image receiving unit 104 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

遅延バッファ105は、表示部102が表示する第一の画像を、所定の時間遅延させて、比較部107に入力させるためのものである。遅延バッファ105には、一時的に蓄積され、予め設定された時間遅延後、比較部107により読み出される。例えば、受付部101が受け付けた第一の画像が、表示部102に入力されると同時に遅延バッファ105に蓄積される。遅延バッファ105の所定の遅延時間は、具体的には、表示部102により読み出された第一の画像を撮影した第二の画像が、比較部107に入力されるまでの時間とほぼ同じ時間、好ましくは同じ時間、となるように設定されている。遅延バッファ105としては、例えばリングバッファ等が利用可能である。遅延バッファ105への第一の画像の蓄積は、図示しない制御部等により行われる。   The delay buffer 105 is for delaying the first image displayed on the display unit 102 by a predetermined time and inputting the first image to the comparison unit 107. The delay buffer 105 is temporarily stored, and is read by the comparison unit 107 after a preset time delay. For example, the first image received by the receiving unit 101 is input to the display unit 102 and simultaneously stored in the delay buffer 105. Specifically, the predetermined delay time of the delay buffer 105 is substantially the same as the time until the second image obtained by capturing the first image read by the display unit 102 is input to the comparison unit 107. , Preferably set to be the same time. For example, a ring buffer or the like can be used as the delay buffer 105. The accumulation of the first image in the delay buffer 105 is performed by a control unit (not shown) or the like.

補正パラメータ格納部106は、第一の画像と、第二の画像内に含まれる第一の画像と、の色あわせ、および位置あわせのための補正に用いられる補正パラメータを格納する。色あわせのための補正に用いられる補正パラメータとは、例えば、第一の画像と第二の画像の色をあわせるための、第一の画像と第二の画像との少なくともいずれか一方の画像の色の補正に用いられる情報である色補正情報である。色補正情報とは、具体的には、色の補正に用いられる関数の係数等の値である。色を補正するための関数はどのような関数であってもよい。関数の具体例については後述する。ここで述べる色の補正とは、例えば、撮影部103が撮影して得た第二の画像の色を、撮影部103の撮影対象である第一の画像のオリジナルの色に対してあわせるための補正である。なお、この場合の色の補正は、第二の画像と、第二の画像の撮影対象である第一の画像のオリジナルとの相対的な色の補正であればよく、例えば、第二の画像を、オリジナルの第一の画像に色あわせする補正であってもよい。ここで述べる色あわせとは、完全な一致を目指すものでなくてよく、後述するような、画像同士の一致する領域を判断しやすくするためのものであればよい。   The correction parameter storage unit 106 stores correction parameters used for correction for color matching and alignment between the first image and the first image included in the second image. The correction parameters used for correction for color matching are, for example, at least one of the first image and the second image for matching the colors of the first image and the second image. This is color correction information which is information used for color correction. Specifically, the color correction information is a value such as a coefficient of a function used for color correction. The function for correcting the color may be any function. Specific examples of functions will be described later. The color correction described here is, for example, for matching the color of the second image obtained by photographing by the photographing unit 103 with the original color of the first image to be photographed by the photographing unit 103. It is a correction. Note that the color correction in this case may be correction of relative color between the second image and the original of the first image that is the photographing target of the second image, for example, the second image. May be corrected to match the color of the original first image. The color matching described here does not have to aim at perfect matching, but may be any as long as it is easy to determine a matching area between images as described later.

位置あわせのための補正に用いられる補正パラメータとは、例えば、第一の画像と第二の画像の対応する位置同士をあわせるための、第一の画像と第二の画像との少なくともいずれか一方の画像の位置補正に用いられる位置補正情報である。位置補正とは、位置や、形状や、サイズ等の補正、変更を含む。位置補正情報とは、具体的には、第一の画像を、第二の画像に変換するための関数の係数等の値である。あるいは、このような関数の係数等を算出可能な情報であってもよい。例えば、第一の画像内の座標と、この座標に対応する第二の画像内の座標とを対応付けた情報を、位置補正情報としてもよいし、この座標の情報を、第一の画像内の座標を、第二の画像内の座標に座標変換する関数に代入することで得られる座標変換の関数の係数等を位置補正情報としてもよい。   The correction parameter used for correction for alignment is, for example, at least one of the first image and the second image for aligning corresponding positions of the first image and the second image This is position correction information used for position correction of the image. The position correction includes correction and change of position, shape, size, and the like. Specifically, the position correction information is a value such as a coefficient of a function for converting the first image into the second image. Or the information which can calculate the coefficient etc. of such a function may be sufficient. For example, information in which the coordinates in the first image and the coordinates in the second image corresponding to the coordinates are associated with each other may be used as the position correction information. The position correction information may be a coefficient of a coordinate conversion function obtained by substituting these coordinates into a function that performs coordinate conversion into coordinates in the second image.

このように画像を変換する関数としては、どのような関数を用いてもよく、例えば、アフィン変換の関数等が利用可能である。この場合、位置補正情報としては例えばアフィン係数を用いることができる。また、このような座標変換等を行う関数は、いわゆるモーフィング等の技術として公知である。関数の具体例については後述する。ここで述べる位置あわせとは、完全な一致を目指すものでなくてよく、後述するような、画像同士の一致する領域を判断しやすくするためのものであればよい。補正パラメータ格納部106は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。不揮発性の記録媒体でも、揮発性の記録媒体でもよい。   As such a function for converting an image, any function may be used. For example, an affine transformation function or the like can be used. In this case, for example, an affine coefficient can be used as the position correction information. A function for performing such coordinate transformation is known as a technique such as so-called morphing. Specific examples of functions will be described later. The alignment described here does not have to aim for perfect matching, but may be any method that makes it easy to determine a matching area between images as described later. The correction parameter storage unit 106 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium. It may be a non-volatile recording medium or a volatile recording medium.

比較部107は、補正パラメータ格納部106に格納されている補正パラメータを用いて、第一の画像と、第二の画像内の第一の画像が位置する領域内の画像との少なくとも一方を補正し、第一の画像と、第二の画像内の第一の画像が位置する領域内の画像とを比較する。なお、第一の画像および第二の画像が、アナログ信号である場合、第一の画像および第二の画像を、例えば図示しないAD変換部等を用いて適宜デジタル信号に変換して用いるようにしてもよい。また、第一の画像および第二の画像のデジタル信号への変換を比較部107が適宜行うようにしてもよい。   The comparison unit 107 corrects at least one of the first image and the image in the region where the first image in the second image is located, using the correction parameter stored in the correction parameter storage unit 106. Then, the first image is compared with the image in the region where the first image in the second image is located. When the first image and the second image are analog signals, the first image and the second image are appropriately converted into digital signals using, for example, an AD converter (not shown). May be. Further, the comparison unit 107 may appropriately convert the first image and the second image into digital signals.

比較部107は、例えば、上記のように特定された第二の画像内における表示部102が第一の画像を表示している領域の画像(以下、第二領域画像と称す)と、遅延バッファ105から読み出した第一の画像とをそれぞれ構成する画素のうちの、対応する画素同士を比較する。同様の比較を、第二領域画像内の画素、通常は全ての画素について順次行う。ここで述べる第一の画像と第二領域画像との対応する画素同士の比較とは、必ずしも対応する画素同士の1対1の比較でなくてもよい。例えば、一つの画素と、複数の画素、例えば隣接する画素ブロック、との比較でもよいし、複数の画素と複数の画素との比較でもよい。第二領域画像と受付部101が受け付けた第一の画像との画素数等が異なる場合、画素同士が1対1で対応しないからである。例えば、一方の画像の1画素と、この画素に対応する他方の画像の複数の画素、例えば画素ブロックとを比較する場合、一方の画像の1画素の画素値と、複数の画素の画素値の平均値や中間値等の代表値とを比較してもよい。また、例えば、一方の画像の複数の画素と、この複数の画素に対応する他方の画像の複数の画素とを比較する場合、一方の画像の複数の画素の画素値の平均値等の代表値と、複数の画素の画素値の平均値等の代表値とを比較してもよい。   The comparison unit 107 includes, for example, an image of an area in which the display unit 102 displays the first image in the second image specified as described above (hereinafter referred to as a second area image), a delay buffer, and the like. Corresponding pixels are compared among the pixels constituting the first image read out from 105. A similar comparison is sequentially performed on the pixels in the second region image, usually all the pixels. The comparison between the corresponding pixels of the first image and the second region image described here may not necessarily be a one-to-one comparison between the corresponding pixels. For example, one pixel may be compared with a plurality of pixels, for example, adjacent pixel blocks, or a plurality of pixels may be compared with a plurality of pixels. This is because when the number of pixels of the second region image and the first image received by the receiving unit 101 are different, the pixels do not correspond one-on-one. For example, when comparing one pixel of one image with a plurality of pixels of the other image corresponding to this pixel, for example, a pixel block, the pixel value of one pixel of one image and the pixel value of the plurality of pixels You may compare with representative values, such as an average value and an intermediate value. For example, when comparing a plurality of pixels of one image with a plurality of pixels of the other image corresponding to the plurality of pixels, a representative value such as an average value of pixel values of the plurality of pixels of one image And a representative value such as an average value of pixel values of a plurality of pixels may be compared.

比較部107による画素同士の比較は、通常、画素の情報、例えば、RGBの各チャンネルの色強度等の情報や輝度情報等の色情報の値の比較により行われる。具体的には、第二領域画像と、第一の画像とが相似の関係にあり、両者の総画素数が同じである場合、第一の画像および第二領域画像の相対的な座標が一致する画素同士の、所定の画素値、例えば色情報の比較を行うようにしてもよい。そして、このような比較を全ての対応する画素間について行うようにすればよい。また、比較部107は、色情報同士等を比較する代わりに、二つの画像の対応する領域同士について、隣接する画素の色配列パターン等のパターンマッチングを順次行うようにしてもよい。また、これらの方法を組み合わせてもよい。   The comparison between the pixels by the comparison unit 107 is usually performed by comparing pixel information, for example, information such as color intensity of RGB channels and color information values such as luminance information. Specifically, when the second area image and the first image are in a similar relationship and the total number of pixels of both is the same, the relative coordinates of the first image and the second area image are the same. A predetermined pixel value, for example, color information may be compared between the pixels to be processed. Then, such a comparison may be performed between all corresponding pixels. Further, the comparison unit 107 may sequentially perform pattern matching such as a color arrangement pattern of adjacent pixels for corresponding regions of two images instead of comparing color information. Moreover, you may combine these methods.

ここで、本実施の形態においては、比較部107は、補正パラメータと補正パラメータに対応した関数とを用いて、第一の画像と、第二の画像内の第一の画像が位置する領域内の画像との少なくとも一方の色を補正して、第一の画像と、第一の画像内の第一の画像が位置する領域内の画像との比較を行う。例えば、第一の画像の色を補正し、補正した第一の画像と、第二の画像内に撮影されている、言い換えれば配置されている第一の画像、すなわち第二領域画像とを比較してもよい。また、第二の画像内の、少なくとも第一の画像が位置する領域内の画像の色を補正し、第一の画像と、補正した第二の画像とを比較してもよい。また、第一の画像と第二の画像とをともに補正して、補正した第一の画像と補正した第二の画像とを比較してもよい。   Here, in the present embodiment, the comparison unit 107 uses a correction parameter and a function corresponding to the correction parameter to within the region where the first image and the first image in the second image are located. At least one color of the first image is corrected, and the first image is compared with the image in the region where the first image is located in the first image. For example, the color of the first image is corrected, and the corrected first image is compared with the first image taken in the second image, in other words, the second region image. May be. Further, the color of the image in the region where the first image is located in the second image may be corrected, and the first image may be compared with the corrected second image. Further, both the first image and the second image may be corrected, and the corrected first image and the corrected second image may be compared.

ここで行われる補正は、補正パラメータを用いた、第一の画像と第二の画像との少なくとも一方に対する色あわせのための補正であり、具体的には、補正パラメータのうちの色補正情報を用いた第一の画像と第二領域画像との色あわせの補正である。この色補正情報は、予め、第一の画像の色の情報と、当該第一の画像を撮影した第二の画像内の第二領域画像の色の情報とを用いて求めておき、補正パラメータ格納部106に蓄積しておく。なお、場合によっては、色あわせの補正と位置あわせの補正とのいずれか一方のみの補正を行うようにしてもよい。なお、色あわせの補正は、第二の画像全体に対して行うようにしてもよいし、第二領域画像のみに対して行うようにしてもよい。補正に用いられる関数等は、補正パラメータ格納部106に格納されている補正パラメータに対応する関数である。   The correction performed here is a correction for color matching for at least one of the first image and the second image using the correction parameter. Specifically, the color correction information in the correction parameter is changed. This is correction of color matching between the used first image and second region image. The color correction information is obtained in advance using the color information of the first image and the color information of the second region image in the second image obtained by capturing the first image, and the correction parameter is obtained. Accumulated in the storage unit 106. In some cases, only one of color correction and position correction may be performed. The color matching correction may be performed on the entire second image, or may be performed only on the second region image. A function or the like used for correction is a function corresponding to the correction parameter stored in the correction parameter storage unit 106.

さらに、本実施の形態においては、比較部107は、補正パラメータと補正パラメータに対応した関数とを用いて、第一の画像と、第二の画像内の第一の画像が位置する領域内の画像との少なくとも一方の位置を補正して、第一の画像と、第一の画像内の第一の画像が位置する領域内の画像との比較を行う。比較部107による第一の画像と第二領域画像との比較は、例えば、以下のように行われる。すなわち、まず、第二の画像に撮影された第一の画像内の座標と、第一の画像内の座標との相関関数を求めておく。この相関関数を示す情報、例えば相関関数の係数等の情報を位置補正情報として補正パラメータ格納部106に予め格納しておく。この相関関数は、言い換えれば位置補正に用いられる位置補正関数である。そして、この相関関数、もしくはその逆関数を用いて、第二領域画像の各画素または各画素ブロック等の複数の画素に対応する第一の画像内の座標を算出し、第一画像情報が示す第一の画像内の算出された座標が示す位置の、一または複数の画素の色情報等の情報と、対応する第二領域画像の画素の色情報等の情報とを比較する。   Furthermore, in the present embodiment, the comparison unit 107 uses a correction parameter and a function corresponding to the correction parameter to compare the first image and the first image in the region where the first image is located. At least one position of the image is corrected, and the first image is compared with the image in the region where the first image in the first image is located. For example, the comparison between the first image and the second region image by the comparison unit 107 is performed as follows. That is, first, a correlation function between coordinates in the first image photographed in the second image and coordinates in the first image is obtained. Information indicating the correlation function, for example, information such as a coefficient of the correlation function is stored in advance in the correction parameter storage unit 106 as position correction information. In other words, this correlation function is a position correction function used for position correction. Then, using this correlation function or its inverse function, the coordinates in the first image corresponding to a plurality of pixels such as each pixel or each pixel block of the second region image are calculated, and the first image information indicates The information such as the color information of one or a plurality of pixels at the position indicated by the calculated coordinates in the first image is compared with the information such as the color information of the pixels of the corresponding second region image.

なお、第一の画像の各画素に、または各画素ブロック等の複数の画素に対応する第二の画像内の座標を算出し、第二画像情報が示す第二の画像の算出された座標が示す位置の、一または複数の画素の色情報等の情報と、対応する第一の画素の色情報等の情報とを比較するようにしてもよい。このように、相関関数を用いて、第一の画像内の座標を、第二の画像内の座標、具体的には、第二領域画像内の座標に座標変換する補正や、第二の画像内の第二領域画像内の座標を、第一の画像内の座標に座標変換する補正を、ここでは、第一の画像と、第二の画像、具体的には、第二領域画像との位置あわせのための補正とする。すなわち、ここでは、第一の画像または第二領域画像を、位置補正しながら、比較していると考えてもよい。なお、第一の画像と第二の画像とをともに補正して、補正した第一の画像と補正した第二の画像とを比較してもよい。   Note that the coordinates in the second image corresponding to each pixel of the first image or a plurality of pixels such as each pixel block are calculated, and the calculated coordinates of the second image indicated by the second image information are Information such as color information of one or a plurality of pixels at the indicated position may be compared with information such as color information of the corresponding first pixel. As described above, using the correlation function, the coordinates in the first image are corrected to the coordinates in the second image, specifically, the coordinates in the second region image, or the second image. Correction for converting the coordinates in the second area image into the coordinates in the first image, here, the first image and the second image, specifically, the second area image Correction for alignment. That is, here, it may be considered that the first image or the second region image is compared while correcting the position. The first image and the second image may be corrected together, and the corrected first image and the corrected second image may be compared.

上記のような、第二領域画像と第一の画像とを比較する処理は、第二の画像の全てのフレームの画像に対して行うようにしてもよいが、一定または不定期の所定のタイミング、例えば、数フレーム毎や、数秒毎に行うようにしてもよい。特に、第一の画像が、テレビ会議等の画像である場合、上述したように、急激な動き等がないと考えられるため、一旦決定した第一画像情報が示す第一の画像に一致する画素を含む領域を、連続する複数のフレームの第二の画像から第一の画像に一致する画像を透過領域に指定する処理に適用しても、大きな画質の劣化等がないと考えられるからである。なお、上記のように、相関関数の係数等の情報を位置補正情報として蓄積しておく代わりに、相関関数の係数等の情報を算出可能な情報を位置補正情報として蓄積しておき、この位置補正情報から相関関数を求めるようにしてもよい。   The processing for comparing the second region image and the first image as described above may be performed for all the frames of the second image, but at a predetermined or irregular predetermined timing. For example, it may be performed every several frames or every several seconds. In particular, when the first image is an image such as a video conference, it is considered that there is no abrupt movement or the like as described above. Therefore, pixels that match the first image indicated by the first image information once determined This is because it is considered that there is no significant deterioration in image quality even if the region including the image is applied to the process of designating the image that matches the first image from the second image of a plurality of consecutive frames as the transmission region. . As described above, instead of storing information such as correlation function coefficients as position correction information, information capable of calculating information such as correlation function coefficients is stored as position correction information. A correlation function may be obtained from the correction information.

また、ここでは、相関関数により対応づけられた座標同士の一以上の画素同士を比較するようにしたが、予め第一の画像から、相関関数を用いた補正により、形状や画素数等を第二領域画像と同じにあわせた画像を構成しておき、この相関関数により構成した第一の画像と、第二領域画像とを画素単位で比較するようにしてもよい。あるいは、予め第二領域画像から、相関関数を用いた補正により、形状や画素数等を第一の画像と同じにあわせた画像を構成しておき、この相関関数により構成した第二領域画像と、第一の画像とを画素単位で比較するようにしてもよい。   In addition, here, one or more pixels of the coordinates associated by the correlation function are compared, but the shape, the number of pixels, etc. are preliminarily determined from the first image by correction using the correlation function. An image that is the same as the two-region image may be configured, and the first image configured by the correlation function may be compared with the second region image in units of pixels. Alternatively, an image in which the shape, the number of pixels, and the like are matched with the first image by correction using a correlation function in advance from the second region image, and the second region image configured by this correlation function The first image may be compared on a pixel basis.

第二の画像内の第一の画像が位置する領域、すなわち第一の画像内の第二領域画像の位置は、例えば、予め第二の画像内における表示部102が第一の画像を表示する領域が、第二の画像内のどの領域に表示されるかを調べておいて、この領域を指定する情報を設定しておくことが好ましい。この領域を指定する情報を、上述した位置指定情報の一つとして、例えば、予め補正パラメータ格納部106に予め蓄積しておくようにしてもよい。特に、第一の画像と、第二領域画像とが相似の関係にある場合等には、この位置指定情報を用いることで、相似の関係を定義する関数を算出することができ、この関数を用いて、第一の画像と第二領域画像との少なくとも一方の画像内の画素の位置等を補正して、第一の画像と、第二領域画像との比較が可能となる。   The area where the first image in the second image is located, that is, the position of the second area image in the first image, for example, the display unit 102 in the second image displays the first image in advance. It is preferable to check in which area in the second image the area is displayed, and to set information for designating this area. Information specifying this area may be stored in advance in the correction parameter storage unit 106 in advance, for example, as one of the position specifying information described above. In particular, when the first image and the second region image have a similar relationship, a function that defines the similar relationship can be calculated by using this position designation information. Using the correction, the position of the pixel in at least one of the first image and the second region image is corrected, and the first image can be compared with the second region image.

なお、この第一の画像が位置する領域を画像処理等により検出してもよい。なお、第二の画像内の第一の画像が位置する領域は、第二画像内の、第一の画像が実際に含まれている領域だけではなく、表示部102と重なっている会議の参加者等の物体等を無視した場合の、表示部102が第一の画像を表示している領域である。例えば、表示部102が第一の画像を表示する際に用いるディスプレイの表示領域が四角形である場合、そのディスプレイの一部を覆う物体、例えばユーザ等が、第二の画像に撮影されていたとしても、表示部102が第一の画像を表示する領域は四角形と考える。ただし、撮影部103に対する表示デバイスの表示領域の向きにより形状は完全に一致しない場合がある。
比較部107は、通常、MPUやメモリ等から実現され得る。比較部107の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。
Note that the region where the first image is located may be detected by image processing or the like. Note that the area where the first image is located in the second image is not only the area where the first image is actually included in the second image, but also the participation in the meeting overlapping the display unit 102. This is an area where the display unit 102 displays the first image when an object such as a person is ignored. For example, when the display area of the display used when the display unit 102 displays the first image is a quadrangle, it is assumed that an object that covers a part of the display, such as a user, is captured in the second image. In addition, the area where the display unit 102 displays the first image is considered to be a rectangle. However, the shape may not completely match depending on the orientation of the display area of the display device with respect to the photographing unit 103.
The comparison unit 107 can usually be realized by an MPU, a memory, or the like. The processing procedure of the comparison unit 107 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

透過画像構成部108は、比較部107の比較結果を用いて、第二の画像内の、第一の画像と一致する領域を、透過領域に設定した透過画像を構成する。具体的には、透過画像構成部108は、比較部107による第一の画像と、第二の画像内の第一の画像が位置する領域内の画像との比較の結果から、透過画像構成部108が一致していると判断した第二の画像内の領域を、透過領域に設定した透過画像を構成する。透過画像構成部108は、具体的には、比較部107の第一の画像と第二領域画像との画素同士の比較結果に応じて、比較した画素同士が一致しているか否かを判断する。ここでの画素同士の比較結果とは、上述したように、1対1の画素同士の比較結果でなくてもよく、例えば、1つの画素と、画素ブロックとの比較結果であってもよい。透過画像構成部108による画素同士の比較は、対応する画素同士について、所定の画素の情報、例えば色情報の比較を行い、その差が予め設定した閾値以内であれば、一致する画素であると判断し、閾値より大きければ、一致しない画素であると判断することにより行われる。   Using the comparison result of the comparison unit 107, the transmission image configuration unit 108 configures a transmission image in which a region that matches the first image in the second image is set as a transmission region. Specifically, the transparent image construction unit 108 determines whether the comparison unit 107 compares the first image with the image in the region where the first image is located in the second image. A transparent image is configured in which the region in the second image determined to match 108 is set as a transparent region. Specifically, the transmission image constructing unit 108 determines whether or not the compared pixels match each other according to a comparison result between the first image and the second region image of the comparison unit 107. . The comparison result between the pixels here may not be a comparison result between the one-to-one pixels as described above, and may be a comparison result between one pixel and a pixel block, for example. The comparison between the pixels by the transparent image forming unit 108 compares information of predetermined pixels, for example, color information, for the corresponding pixels, and if the difference is within a preset threshold value, the pixels are matched. If it is determined that the pixel is larger than the threshold, it is determined that the pixel is not matched.

なお、この一致するか否かの判断は、比較部107による比較がパターンマッチングの比較である場合、マッチングの度合い、スコア等に応じて行われてもよい。そして、比較された全ての画素や画素ブロックについての判断を行って、第二の画像の第二領域画像内の、第一の画像に一致すると判断された画素を含む領域を決定する。なお、第二領域画像のうちの、第一の画像に一致する画素に領域に囲まれた微小な画素の領域等については、ノイズと考えて、第一の画像に一致する画素と判断するようにしてもよい。画像同士の比較結果から一致する領域を決定する処理については、上記の方法も含めて様々な処理があるが、公知技術であるので詳細な説明は省略する。   In addition, when the comparison by the comparison unit 107 is a pattern matching comparison, the determination as to whether or not they match may be performed according to the degree of matching, the score, and the like. Then, all the compared pixels and pixel blocks are determined, and an area including the pixels determined to match the first image in the second area image of the second image is determined. Of the second region image, a minute pixel region or the like surrounded by a pixel that matches the first image is considered as noise and is determined to be a pixel that matches the first image. It may be. There are various processes for determining a matching region from the comparison result between images, including the above method, but since it is a known technique, a detailed description thereof will be omitted.

そして、透過画像構成部108は、一致すると判断された領域を透過領域に設定した透過画像を構成する。透過領域とは、第二の画像が表示される際に、透明な領域として表示される、もしくは取り扱われる第二の画像内の領域であり、本来の第二の画像が表示されない領域である。あるいは、画像を表示しない領域や、本来の画像とは異なる背景画像や所定のパターンの画像を表示する領域を透過領域と考えてもよい。具体的には、透過画像構成部108は、透過領域を不可視領域に指定するための、いわゆるアルファチャンネルと呼ばれるチャンネル画像を第二の画像に付加した透過画像を構成してもよい。このアルファチャンネルの画像は、第二の画像と同じ画像ファイルを構成してもよいし、第二の画像と対応付けられた異なる画像ファイルを構成してもよい。   Then, the transparent image constructing unit 108 constructs a transparent image in which the region determined to match is set as the transparent region. The transmissive area is an area in the second image that is displayed or handled as a transparent area when the second image is displayed, and is an area in which the original second image is not displayed. Alternatively, a region where no image is displayed, or a region where a background image different from the original image or an image having a predetermined pattern is displayed may be considered as a transmissive region. Specifically, the transmissive image construction unit 108 may construct a transmissive image in which a channel image called a so-called alpha channel for designating the transmissive region as an invisible region is added to the second image. The alpha channel image may constitute the same image file as the second image, or may constitute a different image file associated with the second image.

例えば、JPEG(Joint Photographic Experts Group)ファイルである第二の画像に対応したアルファチャンネル画像や画像ファイルを、第二の画像ファイルに添付してもよい。また、アルファチャンネルの代わりに、透過領域に設定する領域の外縁を指定するベクトル情報であるパス、いわゆるクリッピングパス等の情報を第二の画像に付加して透過画像を構成してもよい。なお、画像にアルファチャンネル等を付加して、画像をマスクする技術については公知技術であるので説明は省略する。また、一致すると判断された領域の色情報を削除した透過画像を構成してもよい。また、当該透過画像を表示する表示装置等で、透過領域として認識して透明に表示できるように、一致する領域を特定のキーカラーで塗りつぶした透過画像を構成してもよい。ただし、アルファチャンネルを付加するほうが、オリジナルの第二の画像が損なわれない点で、オリジナル画像を残す必要がある場合等には最適である。   For example, an alpha channel image or an image file corresponding to a second image which is a JPEG (Joint Photographic Experts Group) file may be attached to the second image file. Further, instead of the alpha channel, a transparent image may be configured by adding information such as a so-called clipping path, which is vector information for designating the outer edge of the region set as the transparent region, to the second image. Note that a technique for masking an image by adding an alpha channel or the like to the image is a known technique, and a description thereof will be omitted. Further, a transparent image from which the color information of the area determined to match may be deleted. In addition, a transparent image in which a matching area is filled with a specific key color may be configured so that the transparent area can be recognized and displayed transparently by a display device or the like that displays the transparent image. However, the addition of the alpha channel is optimal when the original image needs to remain because the original second image is not damaged.

また、透過画像構成部108は、第二の画像内の、透過領域により分離された領域の画像を切り出した複数の透過画像を構成するようにしてもよい。具体的には、第二の画像内の、透過領域により分離された領域の囲む矩形の領域を一以上選択して、当該一以上の矩形の領域をそれぞれ切り抜いて、すなわちクリッピングして、一以上の透過画像を構成する。このように透過領域により分離された領域をクリッピングすることで、表示には不要である透過領域を削減し画像のデータ量を削減することができる。なお、この透過画像のそれぞれについては、元の第二の画像が再現できるように、元の第二の画像内において配置されていた位置を指定する情報、例えば座標を対応付けておく必要がある。透過画像構成部108は、通常、MPUやメモリ等から実現され得る。透過画像構成部108の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   Further, the transparent image constructing unit 108 may construct a plurality of transparent images obtained by cutting out images of the area separated by the transparent area in the second image. Specifically, in the second image, one or more rectangular areas surrounded by the areas separated by the transparent areas are selected, and the one or more rectangular areas are respectively cut out, that is, clipped, and one or more rectangular areas are selected. Of the transparent image. By clipping the area separated by the transmissive area in this way, it is possible to reduce the transmissive area unnecessary for display and reduce the amount of image data. For each of the transparent images, it is necessary to associate information, for example, coordinates, for specifying the position arranged in the original second image so that the original second image can be reproduced. . The transparent image constructing unit 108 can be usually realized by an MPU, a memory, or the like. The processing procedure of the transparent image forming unit 108 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力部109は、透過画像構成部108が構成した透過画像を出力する。ここでの出力とは、他の装置への送信や、記録媒体等への蓄積を含む概念である。出力部109は、画像処理装置100がリアルタイムで会議を行うテレビ会議システム等に利用される場合、透過画像をストリーミング出力することが好ましい。出力部109が、透過画像を出力するタイミングや方式等は問わない。例えば、透過画像を取得する毎に、透過画像を出力するようにしてもよいし、所定量の透過画像を取得した場合に透過画像を出力するようにしてもよい。   The output unit 109 outputs the transmission image formed by the transmission image configuration unit 108. The output here is a concept including transmission to another apparatus and accumulation in a recording medium or the like. When the image processing apparatus 100 is used in a video conference system or the like that performs a conference in real time, the output unit 109 preferably outputs a transparent image by streaming. There is no limitation on the timing and method for the output unit 109 to output the transmission image. For example, the transmission image may be output every time the transmission image is acquired, or the transmission image may be output when a predetermined amount of transmission image is acquired.

出力部109は、透過画像構成部108が出力する透過画像を、MPEGや、ITU−T H.264等の、圧縮符号化のアルゴリズム等を用いて、圧縮符号化してもよい。また、透過画像を、図示しないDA(デジタルアナログ)変換部等を用いてアナログ信号に変換して出力するようにしてもよい。また出力部109は、同期情報を透過画像に付加して出力してもよい。また、出力部109は、撮影画像と、当該撮影画像の透過領域を指定する情報とを対応付けて出力してもよい。また、透過画像が上述したように透過画像がクリッピングされたものである場合、出力部109は、クリッピングされた透過画像を表示する位置を指定する情報を、透過画像と対応付けて出力してもよい。   The output unit 109 converts the transmission image output from the transmission image configuration unit 108 into MPEG, ITU-T H.264, or the like. The compression encoding may be performed using a compression encoding algorithm such as H.264. Further, the transmission image may be converted into an analog signal using a DA (digital analog) conversion unit (not shown) or the like and output. Further, the output unit 109 may add the synchronization information to the transparent image and output it. Further, the output unit 109 may output the captured image and information specifying the transmission area of the captured image in association with each other. Further, when the transparent image is a clipped image of the transparent image as described above, the output unit 109 may output information specifying the position for displaying the clipped transparent image in association with the transparent image. Good.

また、出力部109は、撮影部103等の装置識別情報等を付加して透過画像を出力してもよい。出力部109は、通信装置等の出力デバイスを含むと考えても含まないと考えても良い。出力部109は、出力デバイスのドライバーソフト、または出力デバイスのドライバーソフトと出力デバイス等で実現され得る。なお、出力部109が、圧縮符号化の処理等を行う場合、これらの処理を実行するためのMPU(Micro Processing Unit)やメモリ等を具備していても良い。またこれらの処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM(Read Only Memory)等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   Further, the output unit 109 may output a transmission image by adding device identification information or the like of the imaging unit 103 or the like. The output unit 109 may or may not include an output device such as a communication device. The output unit 109 can be realized by output device driver software, or output device driver software and an output device. Note that when the output unit 109 performs compression encoding processing or the like, the output unit 109 may include an MPU (Micro Processing Unit), a memory, or the like for executing these processing. In addition, these processing procedures are usually realized by software, and the software is recorded in a recording medium such as a ROM (Read Only Memory). However, it may be realized by hardware (dedicated circuit).

次に、画像処理装置の動作について図2のフローチャートを用いて説明する。ここでは、第二の画像には、少なくとも第一の画像の一部が撮影されているものとする。なお、ここでは例として、予め第二の画像に含まれる第一の画像を、撮影対象となったオリジナルの第一の画像の対応する領域に配置した場合における、オリジナルの第一の画像の四つの頂点の座標を、第二の画像の座標系を用いて表した座標の情報が、位置補正情報として予め補正パラメータ格納部106に格納されている場合について説明する。また、第一の画像の色を、第二の画像の色、特に第二領域画像の色に色あわせするための関数の係数である色補正情報が、補正パラメータ格納部106に格納されている場合について説明する。   Next, the operation of the image processing apparatus will be described using the flowchart of FIG. Here, it is assumed that at least a part of the first image is captured in the second image. Here, as an example, when the first image included in the second image in advance is arranged in a corresponding region of the original first image that is the subject of shooting, the four images of the original first image are displayed. A case will be described in which coordinate information representing the coordinates of one vertex using the coordinate system of the second image is stored in advance in the correction parameter storage unit 106 as position correction information. Further, color correction information which is a coefficient of a function for matching the color of the first image with the color of the second image, particularly the color of the second region image, is stored in the correction parameter storage unit 106. The case will be described.

(ステップS201)受付部101は、第一の画像の入力を受け付けたか否かを判断する。受け付けた場合、ステップS202に進み、受け付けていない場合、ステップS201に戻る。
(ステップS202)表示部102は、受付部101が受け付けた第一の画像を取得する。
(ステップS203)画像処理装置100は、ステップS202で表示部102が取得した第一の画像を、遅延バッファ105に蓄積する。
(ステップS204)表示部102は、ステップS202で取得した画像情報を、図示しないディスプレイ等に表示する。
(Step S201) The receiving unit 101 determines whether or not an input of the first image has been received. If accepted, the process proceeds to step S202. If not accepted, the process returns to step S201.
(Step S202) The display unit 102 acquires the first image received by the receiving unit 101.
(Step S <b> 203) The image processing apparatus 100 stores the first image acquired by the display unit 102 in Step S <b> 202 in the delay buffer 105.
(Step S204) The display unit 102 displays the image information acquired in step S202 on a display (not shown) or the like.

(ステップS205)撮影部103は、表示部102によりディスプレイ等に表示されている第一の画像を含む第二の画像を撮影する。画像受付け104は、撮影された第二の画像を示す情報を受け付け、図示しないメモリ等に一時記憶する。
(ステップS206)比較部107は、画像受付部104が受け付けた第二の画像を取得する。また、遅延バッファ105により遅延された第一の画像を取得する。ここで取得される第一の画像は、遅延バッファ105により遅延された、上記で取得した第二の画像に含まれる第一の画像と同じ第一の画像、すなわちオリジナルの第一の画像である。
(Step S205) The imaging unit 103 captures a second image including the first image displayed on the display or the like by the display unit 102. The image receiving unit 104 receives information indicating the captured second image and temporarily stores it in a memory or the like (not shown).
(Step S206) The comparison unit 107 acquires the second image received by the image reception unit 104. Also, the first image delayed by the delay buffer 105 is acquired. The first image acquired here is the same first image as the first image included in the second image acquired above, ie, the original first image, delayed by the delay buffer 105. .

(ステップS207)比較部107は、ステップS206において取得した第一の画像と第二の画像内の第二領域画像との比較を行う。例えば動画像の場合、1フレーム同士の比較を行う。そして、透過画像構成部108が、この比較結果に応じて一致する領域を判断する。この処理の詳細については後述する。
(ステップS208)透過画像構成部108は、ステップS207において一致すると判断された領域を透過領域に設定したアルファチャンネル付きの透過画像を構成する。なお、透過画像を構成する際に、透過領域と、透過させない領域との境界、または境界付近の画素については、透過させない領域の外周が滑らかに表示されるよう、透過度を0%または100%以外、好ましくは30〜70%程度に設定することが好ましい。
(Step S207) The comparison unit 107 compares the first image acquired in step S206 with the second region image in the second image. For example, in the case of a moving image, one frame is compared. Then, the transparent image construction unit 108 determines a matching area according to the comparison result. Details of this processing will be described later.
(Step S208) The transmission image constructing unit 108 constructs a transmission image with an alpha channel in which the region determined to match in step S207 is set as the transmission region. When constructing a transmissive image, the transparency of the boundary between the transmissive area and the non-transparent area or the pixels near the boundary is set to 0% or 100% so that the outer periphery of the non-transparent area is smoothly displayed. Other than that, it is preferable to set it to about 30 to 70%.

(ステップS209)透過画像構成部108は、ステップS208において構成したアルファチャンネル付きの透過画像を、透過領域で分離されている画像ごとにクリッピングする。このとき、各クリッピングされた画像に含まれる透過領域ができる限り小さくなるようにする。クリッピングした画像には、それぞれ元の撮影画像内の配置を示す位置情報、例えば座標を対応付けるようにする。透過領域で分離されている画像ごとにクリッピングする技術は公知技術であるので説明は省略する。   (Step S209) The transmission image construction unit 108 clips the transmission image with the alpha channel formed in step S208 for each image separated in the transmission region. At this time, the transparent region included in each clipped image is made as small as possible. Each clipped image is associated with position information indicating the arrangement in the original captured image, for example, coordinates. Since the technique of clipping for each image separated in the transmissive area is a known technique, description thereof is omitted.

(ステップS210)出力部109は、ステップS209においてクリッピングされた透過画像を、出力、ここでは例として送信する。そして、ステップS201に戻る。
なお、図2のフローチャートにおいて、ステップS209の切り抜く処理を行った後、ステップS209により、切り技いた各第二の画像に対して透過領域を設定するようにしてもよい。
なお、図2のフローチャートは、電源オフや処理終了の割り込みにより処理を終了する。
(Step S210) The output unit 109 outputs the transmission image clipped in step S209, and transmits it as an example here. Then, the process returns to step S201.
In the flowchart of FIG. 2, after performing the cutting process in step S <b> 209, a transmission region may be set for each second image that has been cut in step S <b> 209.
In the flowchart of FIG. 2, the process is terminated by powering off or a process termination interrupt.

次に、図2のステップS207の処理について、図3のフローチャートを用いて説明する。なお、ここでは、例として、第一の画像と第二領域画像とが、R、G、Bのそれぞれのチャンネルを有するカラー画像であるとし、第一の画像と第二領域画像との色情報の値、言い換えれば各チャンネルの色強度の値を用いて、第一の画像の画素と第二領域画像内の画素とを比較する場合を例に挙げて説明する。また、ここでは第一の画像および第二の画像が、それぞれx軸方向がp画素(pは1以上の整数)で、y軸方向がq画素(qは1以上の整数)の矩形の画像である場合について説明する。   Next, the process of step S207 of FIG. 2 will be described using the flowchart of FIG. Here, as an example, it is assumed that the first image and the second region image are color images having R, G, and B channels, and color information of the first image and the second region image is used. A case will be described as an example in which the first image pixel and the pixel in the second region image are compared using the color value, in other words, the color intensity value of each channel. Further, here, the first image and the second image are rectangular images each having p pixels in the x-axis direction (p is an integer of 1 or more) and q pixels in the y-axis direction (q is an integer of 1 or more). The case where it is is demonstrated.

(ステップS301)比較部107は、カウンタmに1を代入する。
(ステップS302)比較部107は、カウンタnに1を代入する。
(ステップS303)比較部107は、第二の画像の座標(n、m)に位置する画素が、第二領域画像の画素であるか否かを判断する。例えば、上述した補正パラメータ格納部106に格納されている第二の画像に含まれる第一の画像を、撮影対象となったオリジナルの第一の画像の対応する領域に配置した場合における、オリジナルの第一の画像の四つの頂点の座標を、第二の画像の座標系を用いて表した座標の情報を用いて、この頂点を結んだ領域内に座標(n、m)が位置するか否かを判断する。そして、この頂点を結んだ領域内に座標(n、m)が位置している場合、第一の画像が撮影されている領域の画素、すなわち第二領域画像内の画素であると判断する。第二領域画像の画素である場合、ステップS304に進み、第二領域画像の画素でない場合、ステップS310に進む。なお、座標(n、m)は、画像内の画素を単位とした座標であり、ここでは、例として、左上の座標が(0,0)、右下の座標が(p、q)であるとする。
(Step S301) The comparison unit 107 substitutes 1 for a counter m.
(Step S302) The comparison unit 107 substitutes 1 for a counter n.
(Step S303) The comparison unit 107 determines whether or not the pixel located at the coordinates (n, m) of the second image is a pixel of the second region image. For example, the original image in the case where the first image included in the second image stored in the correction parameter storage unit 106 described above is arranged in a corresponding region of the original first image to be imaged. Whether or not the coordinates (n, m) are located in the area connecting the vertices using the coordinate information representing the coordinates of the four vertices of the first image using the coordinate system of the second image Determine whether. When the coordinates (n, m) are located within the area connecting the vertices, it is determined that the pixel is in the area where the first image is captured, that is, the pixel in the second area image. If it is a pixel of the second area image, the process proceeds to step S304, and if it is not a pixel of the second area image, the process proceeds to step S310. The coordinates (n, m) are coordinates in units of pixels in the image. Here, as an example, the upper left coordinates are (0, 0) and the lower right coordinates are (p, q). And

(ステップS304)比較部107は、第二領域画像の座標(n、m)に位置する画素の色情報を取得する。
(ステップS305)比較部107は、ステップS304で取得した画素の色情報を、補正パラメータ格納部106に格納されている色補正情報を用いて設定される色補正関数を用いて補正する。
(Step S304) The comparison unit 107 acquires color information of the pixel located at the coordinates (n, m) of the second region image.
(Step S305) The comparison unit 107 corrects the color information of the pixel acquired in step S304 using a color correction function set using the color correction information stored in the correction parameter storage unit 106.

(ステップS306)比較部107は、補正パラメータ格納部106に格納されている位置補正情報を用いて設定される位置補正関数を用いて座標(n、m)を補正した座標(N、M)(ただし、Nはp以下、Mはq以下)を取得する。例えば、上述したように、第二の画像に含まれる第一の画像を、撮影対象となったオリジナルの第一の画像の対応する領域に配置した場合における、オリジナルの第一の画像の四つの頂点の座標を、第二の画像の座標系を用いて表す。そして表した座標の情報が、位置補正情報として予め補正パラメータ格納部106に格納されている場合、予め利用することが指定されている係数等が決定されていない位置補正関数に、この四つの頂点を座標を代入することで、位置補正関数の係数等を求めて、位置補正に使用する位置補正関数を得る。次に、この位置補正関数に座標(n、m)を代入して補正した座標(N、M)を取得する。なお、比較部107が位置補正関数の係数等を算出するタイミング等は問わない。また、一度、位置補正関数の係数等を算出した後は、再度の算出処理は省略してよい。   (Step S306) The comparing unit 107 corrects the coordinates (N, M) (N, M) using the position correction function set using the position correction information stored in the correction parameter storage unit 106 (step S306). However, N is p or less and M is q or less). For example, as described above, when the first image included in the second image is arranged in a corresponding region of the original first image that is the subject of photographing, the four images of the original first image are arranged. The vertex coordinates are expressed using the coordinate system of the second image. When the expressed coordinate information is stored in advance in the correction parameter storage unit 106 as position correction information, these four vertices are added to the position correction function for which a coefficient designated to be used in advance is not determined. By substituting the coordinates, a coefficient of the position correction function is obtained, and a position correction function used for position correction is obtained. Next, coordinates (N, M) corrected by substituting coordinates (n, m) into the position correction function are acquired. The timing at which the comparison unit 107 calculates the coefficient of the position correction function or the like does not matter. In addition, once the coefficient of the position correction function is calculated, the calculation process again may be omitted.

(ステップS307)比較部107は、第一の画像の座標(N、M)の画素の色情報と、ステップS305において色を補正した第二領域画像の座標(n、m)の画素の色情報とを比較する。この比較は、例えば、対応する画素同士の、同じチャンネルの色強度の値の差、もしくは差の絶対値を算出することで行われる。なお、この比較においては、第一の画像の座標(N、M)の画素の色情報の代わりに、座標(N、M)を中心とした複数の画素により構成される画素ブロックの色情報の代表値を用いてもよい。   (Step S307) The comparison unit 107 calculates the color information of the pixel at the coordinates (N, M) of the first image and the color information of the pixel at the coordinates (n, m) of the second region image whose color is corrected in Step S305. And compare. This comparison is performed, for example, by calculating a difference in color intensity values of the same channel between corresponding pixels or an absolute value of the difference. In this comparison, instead of the color information of the pixel at the coordinates (N, M) of the first image, the color information of the pixel block constituted by a plurality of pixels centered on the coordinates (N, M) is used. A representative value may be used.

(ステップS308)透過画像構成部108は、比較部107による比較結果を用いて、第二領域画像の座標(n、m)の画素が、第一の画像内の対応する画素と一致するか否かを判断する。例えば、ステップS307において算出した各チャンネルごとの色強度の差が、全て予め設定された値よりも小さいか否かを判断し、全てのチャンネルの色強度の差が、それぞれ予め設定された値よりも小さい場合、画素同士が一致すると判断し、小さくない場合、一致しないと判断する。なお、画素同士の比較および一致の判断を、R、G、Bの各チャンネルの色強度の差を求めて行う場合について説明したが、これはあくまでも一例であり、画素同士、あるいは画素と画素ブロックや、画素ブロック同士の比較等は、どのような方法により行うようにしてもよい。比較結果に基づいて一致すると判断された場合、ステップS309に進み、一致しないと判断された場合、ステップS310に進む。   (Step S308) The transmission image construction unit 108 uses the comparison result by the comparison unit 107 to determine whether or not the pixel at the coordinates (n, m) of the second region image matches the corresponding pixel in the first image. Determine whether. For example, it is determined whether or not the difference in color intensity for each channel calculated in step S307 is smaller than a preset value, and the difference in color intensity for all channels is determined based on a preset value. Is smaller, it is determined that the pixels match each other. If not, the pixels are determined not to match. In addition, although the case where comparison of pixels and determination of coincidence are performed by obtaining the difference in color intensity of each channel of R, G, and B has been described, this is merely an example, and pixels or pixels and pixel blocks are In addition, comparison between pixel blocks and the like may be performed by any method. If it is determined that they match based on the comparison result, the process proceeds to step S309. If it is determined that they do not match, the process proceeds to step S310.

(ステップS309)透過画像構成部108は、ステップS308において判断した第二領域画像の(n、m)の画素が第一の画像に一致する画素であるとする判断結果をメモリ等に一時記憶し、ステップS310に進む。
(ステップS310)比較部107は、カウンタnの値を1インクリメントする。
(ステップS311)比較部107は、カウンタnの値がpより大きいか否かを判断する。pより大きい場合、ステップS312に進み、大きくない場合、ステップS303に戻る。
(ステップS312)比較部107は、カウンタmの値を1インクリメントする。
(ステップS313)比較部107は、カウンタmの値がqより大きいか否かを判断する。qより大きい場合、ステップS314に進み、大きくない場合、ステップS302に戻る。
(Step S309) The transmission image constructing unit 108 temporarily stores, in a memory or the like, a determination result that the (n, m) pixel of the second region image determined in Step S308 is a pixel that matches the first image. The process proceeds to step S310.
(Step S310) The comparison unit 107 increments the value of the counter n by 1.
(Step S311) The comparison unit 107 determines whether or not the value of the counter n is larger than p. If larger than p, the process proceeds to step S312, and if not larger, the process returns to step S303.
(Step S312) The comparison unit 107 increments the value of the counter m by 1.
(Step S313) The comparison unit 107 determines whether the value of the counter m is greater than q. If larger than q, the process proceeds to step S314, and if not larger, the process returns to step S302.

(ステップS314)比較部107は、ステップS309により記憶された判断結果を用いて第二領域画像内の第一の画像と一致する領域を決定する。例えば、ステップS308において一致していると判断された画素のうちの、連続して隣接している領域を判断し、その領域の縁となる複数の画素の座標等を、第二領域画像内の、第一の画像と一致する領域を定義する情報としてメモリ等に蓄積してもよい。また、ステップS308において一致していると判断された全ての画素の座標を、第二領域画像内の第一の画像と一致する領域を定義する情報としてメモリ等に蓄積してもよい。そして、上位関数にリターンする。   (Step S314) The comparison unit 107 determines a region that matches the first image in the second region image using the determination result stored in step S309. For example, among the pixels determined to match in step S308, a region that is continuously adjacent is determined, and the coordinates of a plurality of pixels that are the edges of the region are determined in the second region image. Alternatively, it may be stored in a memory or the like as information defining an area that matches the first image. Further, the coordinates of all the pixels determined to match in step S308 may be stored in a memory or the like as information defining an area that matches the first image in the second area image. Then, the process returns to the upper function.

なお、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
また、上記図2および図3のフローチャートにおいては、画素間のR、G、Bチャンネルの色情報を比較して、第二領域画像の画素と、第一画像情報が示す第一の画像の画素とが一致するか否かを判断する場合を例に挙げて説明したが、画素間の他の色の情報、例えば輝度値等を用いて、画素同士が一致するか否かを判断してもよい。このような画素間の比較としては公知の技術が利用可能である。
In the flowchart of FIG. 3, the process ends when the power is turned off or the process is terminated.
2 and 3, the R, G, and B channel color information between the pixels is compared, and the pixel of the second region image and the pixel of the first image indicated by the first image information are compared. However, even if it is determined whether or not the pixels match each other using information on other colors between the pixels, such as luminance values, for example. Good. A known technique can be used for such comparison between pixels.

次に、上記実施の形態による画像処理装置を用いたテレビ会議システムの実施の形態を説明する。
図4は、本実施の形態によるテレビ会議システムのブロック図である。テレビ会議システムは、第一テレビ会議端末10と第二テレビ会議端末20とを具備している。第一テレビ会議端末10と第二テレビ会議端末20とは、例えばネットワークや通信回線等を介して通信可能に接続されている。第一テレビ会議端末10と第二テレビ会議端末20とは、例えば、2つの離れた会議室間で双方向の対話ができるように、それぞれの会議室に設置される。ここでは、第一テレビ会議端末10が配置されている会議室を第一会議室、第二テレビ会議端末20が配置されている会議室を第二会議室とする。
Next, an embodiment of the video conference system using the image processing apparatus according to the above embodiment will be described.
FIG. 4 is a block diagram of the video conference system according to the present embodiment. The video conference system includes a first video conference terminal 10 and a second video conference terminal 20. The first video conference terminal 10 and the second video conference terminal 20 are communicably connected via, for example, a network or a communication line. The first video conference terminal 10 and the second video conference terminal 20 are installed in each conference room so that, for example, a two-way dialogue can be performed between two separate conference rooms. Here, a conference room in which the first video conference terminal 10 is arranged is a first conference room, and a conference room in which the second video conference terminal 20 is arranged is a second conference room.

第一テレビ会議端末10は、ここでは例として、前記実施の形態1による画像処理装置100を備えているものとする。
また、第二テレビ会議端末20は、撮影部201と、撮影した画像を第一テレビ会議端末10に送信する送信部202と、第一テレビ会議端末10から送信される画像を受信する受信部203と、受信した画像を表示する表示部204とを備えている。なお、撮影部201、送信部202、表示部204の構成は、基本的には第一テレビ会議端末10の撮影部103、出力部109、表示部102と同様の構成を有しているため、ここでは説明を省略する。
受信部203は、第一テレビ会議端末10から送信される透過画像が付与された第二の画像、すなわち透過画像を受信する。受信部203は、通信手段のデバイスドライバや、記録媒体等から情報を読み出す装置の制御ソフトウェア等で実現され得る。
Here, as an example, the first video conference terminal 10 is assumed to include the image processing apparatus 100 according to the first embodiment.
The second video conference terminal 20 includes a photographing unit 201, a transmission unit 202 that transmits the captured image to the first video conference terminal 10, and a reception unit 203 that receives an image transmitted from the first video conference terminal 10. And a display unit 204 for displaying the received image. In addition, since the structure of the imaging | photography part 201, the transmission part 202, and the display part 204 has the structure similar to the imaging | photography part 103, the output part 109, and the display part 102 of the 1st video conference terminal 10 fundamentally, The description is omitted here.
The receiving unit 203 receives the second image to which the transparent image transmitted from the first video conference terminal 10 is added, that is, the transparent image. The receiving unit 203 can be realized by a device driver for communication means, control software for an apparatus for reading information from a recording medium, or the like.

図5は、テレビ会議システムの概念図である。第一テレビ会議端末10は表示デバイスとしてディスプレイ102aを有するとともに、ディスプレイ102aと撮影部103以外は、ここでは、情報処理装置1000により構成されているものとする。また、第二テレビ会議端末20は表示デバイスとしてディスプレイ204aを有するとともに、ディスプレイ204aと撮影部201以外は、ここでは、情報処理装置2000により構成されているものとする。なお、図5に示すように、第一テレビ会議端末10においては、撮影部103の撮影領域内に、表示部102の表示デバイスであるディスプレイ102aが、表示面が撮影部103に対向するように配置されているものとする。   FIG. 5 is a conceptual diagram of the video conference system. The first video conference terminal 10 has a display 102a as a display device, and the information processing apparatus 1000 is assumed here except for the display 102a and the photographing unit 103. In addition, the second video conference terminal 20 includes a display 204a as a display device, and the information processing apparatus 2000 is assumed here except for the display 204a and the photographing unit 201. As shown in FIG. 5, in the first video conference terminal 10, the display 102 a that is the display device of the display unit 102 is arranged in the imaging area of the imaging unit 103 so that the display surface faces the imaging unit 103. It is assumed that it is arranged.

ここで、予め撮影部103が撮影した第二の画像内に含まれる第一の画像と、受付部101が受け付けるオリジナルの第一の画像との位置関係を調べておき、第二の画像に含まれる第一の画像を、撮影対象となったオリジナルの第一の画像の対応する領域に配置した場合における、オリジナルの第一の画像の四つの頂点の座標を、第二の画像の座標系を用いて表した座標の情報を位置指定情報として、補正パラメータ格納部106に蓄積しておく。   Here, the positional relationship between the first image included in the second image captured by the image capturing unit 103 in advance and the original first image received by the receiving unit 101 is checked and included in the second image. When the first image is placed in the corresponding area of the original first image that is the subject of shooting, the coordinates of the four vertices of the original first image are The coordinate information used is stored in the correction parameter storage unit 106 as position designation information.

図6は、第二の画像62と、第二の画像62の座標系を用いて表した第一の画像61の四つの頂点の座標の情報との位置関係を示す模式図である。例えば、ここでは第二の画像62の座標系を用いて表した第一の画像61の四つの頂点の座標は、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)であったとする。ここでは、第二の画像62は、ディスプレイ102aに表示された第一の画像61内の一部の画像のみを撮影した画像である場合を示しているため、上記の四つの座標は、全て第二の画像62の外側に位置している。   FIG. 6 is a schematic diagram showing the positional relationship between the second image 62 and information on the coordinates of the four vertices of the first image 61 expressed using the coordinate system of the second image 62. For example, here, the coordinates of the four vertices of the first image 61 expressed using the coordinate system of the second image 62 are (x1, y1), (x2, y2), (x3, y3), (x4). , Y4). Here, since the second image 62 shows a case where only a part of the first image 61 displayed on the display 102a is captured, the above four coordinates are all the first coordinates. It is located outside the second image 62.

ただし、第二の画像62は、ディスプレイ102aに表示された第一の画像全体を含む領域を撮影した画像であってもよい。この場合、上記の四つの頂点の座標は、第二の画像内の座標となる。また、第二の画像62は、ディスプレイ102aに表示された第一の画像61の一部と、第一の画像61以外の領域を撮影した画像であってもよい。この場合、上記の四つの頂点の座標の一部が第二の画像62内の座標となり、その他の座標は、第二の画像62外に位置する。なお、座標の単位はピクセルとする。   However, the second image 62 may be an image obtained by capturing an area including the entire first image displayed on the display 102a. In this case, the coordinates of the four vertices are the coordinates in the second image. Further, the second image 62 may be an image obtained by capturing a part of the first image 61 displayed on the display 102 a and an area other than the first image 61. In this case, some of the coordinates of the above four vertices become the coordinates in the second image 62, and the other coordinates are located outside the second image 62. The unit of coordinates is a pixel.

また、第一の画像61の色と、第二の画像62内の第二領域画像の色との違いを補正するための補正関数の係数である色補正情報を、予め算出し設定しておく。例えば、第一の画像として、所定の色の第一の画像を表示させ、この第一の画像の複数の位置の色と、この第一の画像を撮影した第二の画像内の第二領域画像の、第一の画像の複数の位置に対応すると考えられる位置の色を、色補正に利用する色補正関数に代入することで、色補正関数の係数等の色補正情報を取得することができる。   Further, color correction information that is a coefficient of a correction function for correcting the difference between the color of the first image 61 and the color of the second region image in the second image 62 is calculated and set in advance. . For example, the first image of a predetermined color is displayed as the first image, the colors at a plurality of positions of the first image, and the second region in the second image obtained by photographing the first image. It is possible to obtain color correction information such as a coefficient of a color correction function by substituting the color of the position considered to correspond to a plurality of positions of the first image into a color correction function used for color correction. it can.

次に、テレビ会議システムの動作について説明する。
まず、第一会議室においては、テレビ会議の参加者Aが、撮影部103とディスプレイ102aとの間に立っており、第二会議室においては、テレビ会議の出席者Bが、撮影部201の正面に着席していたとする。この状態でテレビ会議を開始したとする。
まず、図7に示すような、第二会議室において、第二テレビ会議端末20の撮影部201で撮影された出席者Bの上半身の画像を含む第一の画像70が、送信部202から、ネットワークを介して第一テレビ会議端末10に送信される。
Next, the operation of the video conference system will be described.
First, in the first conference room, the video conference participant A stands between the photographing unit 103 and the display 102a. In the second conference room, the video conference participant B Suppose you were seated in front. Assume that a video conference is started in this state.
First, in the second conference room as shown in FIG. 7, a first image 70 including an image of the upper body of the attendee B photographed by the photographing unit 201 of the second video conference terminal 20 is sent from the transmitting unit 202. It is transmitted to the first video conference terminal 10 via the network.

第一会議室の第一テレビ会議端末10では、受付部101が第一の画像を受け付ける。ここでは、第二テレビ会議端末20から受信する。表示部102は、受付部101が受け付けた図7に示したような第一の画像を取得して、ディスプレイ102aに表示する。次に、撮影部103は、第一会議室の出席者Aの画像を含む第二の画像を撮影する。撮影した第二の画像を画像受付部104が受け付ける。受け付けた第二の画像は、図示しないメモリ等に一時記憶するようにしてもよい。   In the first video conference terminal 10 of the first conference room, the reception unit 101 receives the first image. Here, it receives from the second video conference terminal 20. The display unit 102 acquires the first image as shown in FIG. 7 received by the receiving unit 101 and displays the first image on the display 102a. Next, the imaging unit 103 captures a second image including the image of the attendee A in the first conference room. The image receiving unit 104 receives the captured second image. The received second image may be temporarily stored in a memory (not shown) or the like.

図8は、第二の画像80の例を示す図である。第一会議室においては、撮影部103の撮影領域が、ディスプレイ102aの表示領域内に位置しているため、第二の画像80においては、出席者Aの背景として、第二会議室の出席者Bの画像を含む第一の画像を表示しているディスプレイ102aが背景として撮影されていることとなる。   FIG. 8 is a diagram illustrating an example of the second image 80. In the first meeting room, the shooting area of the shooting unit 103 is located within the display area of the display 102a. The display 102a displaying the first image including the B image is taken as a background.

ここで、この撮影部103が撮影した第二の画像を、そのまま出力部109から第二テレビ会議端末20に送信して表示部204のディスプレイ204aに表示させた場合、第二会議室の参加者Bは、自分自身が撮影されている第一の画像が背景に表示されている第二の画像を、ディスプレイで見ることとなる。すなわち、第二会議室で撮影された第一の画像が、第二会議室のディスプレイ204aにフィードバックされて表示されることとなる。このため、テレビ会議としては適切な画像が表示されているとはいえない状況となり、会議のスムーズな進行に支障をきたす恐れがある。例えば、第二会議室においては、参加者Bは、ディスプレイ204aにフィードバックされて表示される自分自身の画像が気になり、注意が散漫となり、会議が効率良く行われなくなってしまうことが考えられる。   Here, when the second image captured by the imaging unit 103 is transmitted as it is from the output unit 109 to the second video conference terminal 20 and displayed on the display 204a of the display unit 204, the participant in the second conference room B will see on the display a second image in which the first image of the subject being photographed is displayed in the background. That is, the first image taken in the second conference room is fed back and displayed on the display 204a in the second conference room. For this reason, it cannot be said that an appropriate image is displayed for a video conference, and there is a risk of hindering smooth progress of the conference. For example, in the second meeting room, the participant B may be concerned about his / her own image fed back and displayed on the display 204a, distracting attention, and the meeting may not be performed efficiently. .

このため、本実施の形態においては、このようなフィードバックされる画像を不可視とした画像を、他の会議室に送信する処理を行う。
まず、受付部101が第一の画像を受け付け、表示部102に出力すると同時に、同じ第一の画像が遅延バッファ105に蓄積される。比較部107は、画像受付部104が受け付けた第二の画像を取得するとともに、遅延バッファ105により所定の時間遅延された、当該第二の画像内に撮影されている第一の画像と同じ第一の画像を、遅延バッファ105から取得する。
For this reason, in this Embodiment, the process which transmits the image which made such an image fed back invisible to another meeting room is performed.
First, the receiving unit 101 receives a first image and outputs it to the display unit 102, and at the same time, the same first image is accumulated in the delay buffer 105. The comparison unit 107 acquires the second image received by the image reception unit 104 and is the same as the first image captured in the second image that is delayed for a predetermined time by the delay buffer 105. One image is acquired from the delay buffer 105.

次に、第二の画像の各画素について、第二の画像内の第一の画像が位置する領域内の画像であるか否か、すなわち、第二領域画像の画素であるか否かを判断する。すなわち、図8に示すような、上述した四つの頂点の座標(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)により定義される領域の画素であるか否かを判断する。ここでは、第二の画像の全ての画素が第二領域画像の画素と判断される。   Next, for each pixel of the second image, it is determined whether or not it is an image in an area where the first image in the second image is located, that is, whether or not it is a pixel of the second area image. To do. That is, whether or not the pixel is in a region defined by the coordinates (x1, y1), (x2, y2), (x3, y3), (x4, y4) of the four vertices as shown in FIG. Determine whether. Here, all the pixels of the second image are determined to be pixels of the second region image.

そして、この領域の画素であると判断された画素について、当該画素の色情報、ここでは、R、G、Bの色強度の値を取得する。次に、この色強度の値を、補正パラメータ格納部106に格納されている色補正情報を用いて色補正関数により補正する。   And about the pixel judged to be a pixel of this area | region, the color information of the said pixel, the value of the color intensity of R, G, and B here is acquired. Next, the color intensity value is corrected by a color correction function using the color correction information stored in the correction parameter storage unit 106.

ここで利用する色補正関数として、例えば、   As a color correction function used here, for example,

R=ar+ag+ab、
G=br+ag+ab、
B=cr+ag+a
R = a 1 r + a 2 g + a 3 b,
G = b 1 r + a 2 g + a 3 b,
B = c 1 r + a 2 g + a 3 b

という色補正関数を用いるものとする。 The color correction function is used.

ここで、第二の画像の画素値、すなわち各色強度の値を(r,g,b)、補正後の画素値、すなわち各色強度の値を(R,G,B)とする。このa〜a、b〜b、c〜c、は、色補正関数の係数、すなわち補正パラメータ格納部106に格納されている色補正情報である。従って、この色補正関数のr、g、bに、第二領域画像の画素であると判断された画素の色情報を代入することで、補正した色情報(R、G、B)を得ることができる。 Here, the pixel value of the second image, that is, each color intensity value is (r, g, b), and the corrected pixel value, that is, each color intensity value is (R, G, B). The a 1 to a 3 , b 1 to b 3 , and c 1 to c 3 are color correction function coefficients, that is, color correction information stored in the correction parameter storage unit 106. Therefore, the corrected color information (R, G, B) is obtained by substituting the color information of the pixel determined to be the pixel of the second region image into r, g, b of this color correction function. Can do.

次に、比較部107は、補正パラメータ格納部106に格納されている位置補正情報である第二の画像内の第二領域画像の四つの頂点の座標を、予め指定されている位置補正に利用する係数が特定されていない位置補正関数に代入する。そして、第二領域画像に対応する第一の画像の座標を算出するための位置補正関数の係数を算出して、位置補正関数を得る。   Next, the comparison unit 107 uses the coordinates of the four vertices of the second area image in the second image, which is the position correction information stored in the correction parameter storage unit 106, for the position correction specified in advance. The coefficient to be substituted is substituted into a position correction function for which the coefficient is not specified. Then, the position correction function is obtained by calculating the coefficient of the position correction function for calculating the coordinates of the first image corresponding to the second region image.

ここで利用する位置補正関数が、例えば、 The position correction function used here is, for example,

X=ax+by、
Y=cx+dy
X = ax + by,
Y = cx + dy

で表される関数であったとする。ここで、第二の画像内の第二領域画像を構成する画素の位置を(x、y)、オリジナルの第一の画像内の画素の位置を(X,Y)とし、a、b、c、dは、それぞれ位置補正関数の係数であるとする。   Is a function represented by Here, the position of the pixel constituting the second region image in the second image is (x, y), the position of the pixel in the original first image is (X, Y), and a, b, c , D are coefficients of the position correction function.

この場合、上述した四つの頂点の座標(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)を、上記関数のxおよびyに代入することで、a、b、c、dを算出することができる。これにより、フィードバックされる画像を不可視とする際に利用する位置補正関数を求めることができる。なお、このa、b、c、dの値を、最初から位置補正情報として与えておくようにしてもよい。また、このa、b、c、dの値を与えた補正関数自身を位置補正情報としてもよい。   In this case, by substituting the coordinates (x1, y1), (x2, y2), (x3, y3), (x4, y4) of the above four vertices into x and y of the above function, a, b , C, d can be calculated. Thereby, the position correction function used when making the image fed back invisible can be calculated | required. Note that the values of a, b, c, and d may be given as position correction information from the beginning. Further, the correction function itself that gives the values of a, b, c, and d may be used as the position correction information.

そして、この位置補正関数を用いて、第二領域情報の画素と判断された画素に対応する第一の画像内の画素、もしくは画素ブロックを指定する座標を取得する。具体的には、取得した位置補正関数のx、yに、第二領域情報の画素と判断された画素の座標を代入することで、第一の画像内の対応する座標(X,Y)を得ることができる。   Then, using this position correction function, the coordinates specifying the pixel or pixel block in the first image corresponding to the pixel determined to be the pixel of the second area information are acquired. Specifically, by substituting the coordinates of the pixel determined to be the pixel of the second area information into x and y of the acquired position correction function, the corresponding coordinate (X, Y) in the first image is obtained. Obtainable.

次に、第一の画像内のこの座標に位置する画素、もしくは画素ブロックの色情報を取得して、対応する第二領域画像の画素の色情報を色補正した色情報との比較を行う。具体的には、画素の色情報同士、具体的にはR、G、Bのそれぞれのチャンネルの色強度の値を比較し、全ての差が所定の値より小さければ一致すると判断する。   Next, the color information of the pixel or pixel block located at this coordinate in the first image is acquired and compared with the color information obtained by color-correcting the color information of the pixel of the corresponding second region image. Specifically, the color information of the pixels, specifically, the color intensity values of the R, G, and B channels are compared, and if all the differences are smaller than a predetermined value, it is determined that they match.

例えば、第二領域画像内の画素と判断された画素の(R、G、B)の各チャンネルの値が、(230、13、56)であり、当該第二領域画像内の画素の座標を位置補正関数により補正して得られた第一の画像内の座標に位置する画素の(R、G、B)の各チャンネルの値が、(231、10、57)であったとし、各チャンネルの値が一致すると判断される値の差の上限値、すなわち各チャンネルの閾値がすべて「5」であったとすると、この場合には、全てのチャンネルの値の差の絶対値が6より小さいため、画素同士が一致すると判断される。このため、第二領域画像内の画素と判断された画素は、第一の画像内の画素であると判断される。そして、この第二領域画像内の画素と判断された画素を、第一の画像内の画素に一致する画素として図示しないメモリ等に一時的に蓄積していく。なお、閾値は、予め設定されていてもよいし、適宜設定できるようにしてもよい。   For example, the value of each channel (R, G, B) of the pixel determined to be a pixel in the second area image is (230, 13, 56), and the coordinates of the pixel in the second area image are It is assumed that the value of each channel (R, G, B) of the pixel located at the coordinates in the first image obtained by correction by the position correction function is (231, 10, 57), If the threshold values of all the channels are all “5”, the absolute value of the difference between all the channel values is smaller than 6 in this case. It is determined that the pixels match each other. For this reason, the pixel determined to be a pixel in the second region image is determined to be a pixel in the first image. Then, the pixels determined to be the pixels in the second region image are temporarily stored in a memory or the like (not shown) as the pixels matching the pixels in the first image. The threshold value may be set in advance or may be set as appropriate.

逆に、例えば、第二領域画像内の画素と判断された画素の(R、G、B)の各チャンネルの値が、(230、13、56)であり、当該第二領域画像内の画素の座標を位置補正関数により補正して得られた第一の画像内の座標に位置する画素の(R、G、B)の各チャンネルの値が、(238、10、50)であったとすると、この場合には、RとBのチャンネルの値の差の絶対値が「6」以上であるため、画素同士が一致しないと判断され、第二領域画像内の画素と判断された画素は、第一の画像内の画素ではない、と判断される。すなわち、この画素は、ディスプレイ102aの前に位置する参加者Aを撮影した画素等と考えられる。このような処理を、第二の画像の全ての画素について行う。   Conversely, for example, the value of each channel of (R, G, B) of the pixel determined to be a pixel in the second region image is (230, 13, 56), and the pixel in the second region image If the value of each channel of (R, G, B) of the pixel located at the coordinates in the first image obtained by correcting the coordinates of by the position correction function is (238, 10, 50). In this case, since the absolute value of the difference between the values of the R and B channels is “6” or more, it is determined that the pixels do not match, and the pixels determined to be pixels in the second region image are It is determined that it is not a pixel in the first image. That is, this pixel is considered to be a pixel or the like that captured the participant A located in front of the display 102a. Such a process is performed for all the pixels of the second image.

その後、透過画像構成部108は、メモリ等に蓄積された第一の画像内の画素に一致する画素を読み出し、この画素が含まれる領域を、第二の画像内の第一の画像と一致する領域に決定する。例えば、画素が連続している領域を順次検出していく。そして、この領域の縁となる複数の画素の座標等を、第二の画像内の、第一の画像と一致する領域を定義する情報として取得し、図示しないメモリ等に一時的に蓄積する。   Thereafter, the transparent image constructing unit 108 reads out a pixel that matches the pixel in the first image stored in the memory or the like, and matches the area including this pixel with the first image in the second image. Decide on an area. For example, a region where pixels are continuous is sequentially detected. Then, the coordinates and the like of a plurality of pixels serving as the edges of this region are acquired as information defining a region in the second image that matches the first image, and are temporarily stored in a memory or the like (not shown).

図9は、第二の画像80内の第一の画像と一致する領域90を示す図である。次に、透過画像構成部108が、この第二の画像内の第一の画像と一致する領域を定義する情報を読み出し、この領域を透過領域に設定したアルファチャンネルを構成し、第二の画像に付加する。図10は、第二の画像80にアルファチャンネル95を付加した状態を模式的に示す図である。このアルファチャンネルが付加された画像が透過画像である。なお、アルファチャンネル95は第二の画像80と同じファイル等を構成しているものとする。ただし、第二の画像80と対応付けがなされていれば、アルファチャンネルの画像は同じファイルを構成していなくてもよい。   FIG. 9 is a diagram showing a region 90 that matches the first image in the second image 80. Next, the transmission image construction unit 108 reads information defining an area that matches the first image in the second image, configures an alpha channel in which this area is set as the transmission area, and configures the second image. Append to FIG. 10 is a diagram schematically showing a state in which the alpha channel 95 is added to the second image 80. An image to which the alpha channel is added is a transmission image. It is assumed that the alpha channel 95 constitutes the same file as the second image 80. However, as long as it is associated with the second image 80, the alpha channel images do not have to form the same file.

次に、透過画像構成部108が、この透過領域により分離されている領域を、クリッピング、すなわち切り抜く。このクリッピングした第二の画像においても、アルファチャンネルは保持されているようにする。さらに、このクリッピングした第二の画像のそれぞれが、クリッピング前の第二の画像のどの位置に配置されていたかを示す情報を取得し、クリッピングした第二の画像に対応付けて図示しないメモリ等に、保持しておく。ここでは、アルファチャンネルを構成した後、クリッピングするようにしたが、クリッピング後にアルファチャンネルを構成してもよい。このような透過領域等の情報に基づいてクリッピングを行う処理は公知であるので説明は省略する。   Next, the transparent image constructing unit 108 clips, that is, cuts out an area separated by the transparent area. The alpha channel is also retained in this clipped second image. Further, information indicating where each of the clipped second images is arranged in the second image before clipping is obtained, and is associated with the clipped second image in a memory or the like (not shown). Keep it. Here, clipping is performed after the alpha channel is configured, but the alpha channel may be configured after clipping. Since the process of performing clipping based on information such as the transparent area is known, the description thereof is omitted.

図11は、クリッピングにより得られた第二の画像91、92を示す図である。また、図12は、クリッピングにより得られた第二の画像91、92と、それぞれの画像が配置される位置を示す情報、ここでは座標とを管理するためのクリッピング画像管理表である。クリッピング画像管理表において、「座標」は、オリジナルの第二の画像内のクリッピング画像の左上の座標を示す。「画像」は、クリッピングにより得られた画像を示す。   FIG. 11 is a diagram showing second images 91 and 92 obtained by clipping. FIG. 12 is a clipping image management table for managing the second images 91 and 92 obtained by clipping and information indicating positions where the respective images are arranged, in this case, coordinates. In the clipping image management table, “coordinate” indicates the upper left coordinate of the clipping image in the original second image. “Image” indicates an image obtained by clipping.

出力部109は、クリッピングにより得られた第二の画像91、92に、これらの画像の配置される位置を示す座標の情報を対応付けて、第二テレビ会議端末20に送信する。
このようにクリッピングした画像を送信することで、第二の画像内の透過領域、すなわち表示する必要のない領域の画像を削除して、送信する第二の画像の情報量を削減することができる。この結果、限られた通信帯域の中で、効率良く画像の送受信を行うことが可能となり、画像の遅れや乱れ、コマ落ち等の発生を低減させることができる。
The output unit 109 associates the second images 91 and 92 obtained by clipping with coordinate information indicating the positions where these images are arranged, and transmits the information to the second video conference terminal 20.
By transmitting the clipped image in this way, it is possible to delete the transparent region in the second image, that is, the image in the region that does not need to be displayed, and reduce the amount of information of the second image to be transmitted. . As a result, it is possible to efficiently transmit and receive images within a limited communication band, and it is possible to reduce the occurrence of image delays, disturbances, frame dropping, and the like.

第二テレビ会議端末20では、クリッピングにより得られた第二の画像91、92とこれらに対応付けられた座標の情報を受信し、図示しないメモリ等に一時記憶する。そして、表示部204が、この第二の画像91、92を、それぞれに対応付けられた座標の情報が示す位置に配置し、アルファチャンネルが示す透過領域に、例えば予め設定された背景画像等を配置した、表示用の画像を構成して、ディスプレイ204aに表示する。図13は、第二テレビ会議端末20のディスプレイ204aによる表示例を示す図である。これにより、双方向でテレビ会議を実現することができる。
なお、この具体例ではクリッピングした第二の画像を、出力部109が出力するようにしたが、通信の帯域が広い場合等には、出力部109は、クリッピングしない第二の画像を出力するようにしてもよい。
The second video conference terminal 20 receives the second images 91 and 92 obtained by clipping and coordinate information associated therewith, and temporarily stores them in a memory or the like (not shown). Then, the display unit 204 arranges the second images 91 and 92 at the positions indicated by the coordinate information associated with the second images 91 and 92, and displays, for example, a preset background image or the like in the transparent area indicated by the alpha channel. The arranged display image is constructed and displayed on the display 204a. FIG. 13 is a diagram illustrating a display example on the display 204 a of the second video conference terminal 20. Thereby, a video conference can be realized in both directions.
In this specific example, the output unit 109 outputs the clipped second image. However, when the communication band is wide, the output unit 109 outputs the second image without clipping. It may be.

以上、本実施の形態によれば、撮影部103が撮影した第二の画像から、表示部102が表示している第一の画像と一致する画像を透過領域とするようにしたことにより、表示部102が表示している画像が、撮影部103が撮影した第二の画像に含まれて出力されることを防ぐことができる。これにより、例えば、撮影部103がテレビ会議等の参加者を撮影した画像から、参加者の背景において、表示部102に表示されている他の会議室における会議の参加者の画像を除去した画像を、他の会議室のテレビ会議端末に送信することができる。この結果、それぞれの会議室で撮影された画像が、フィードバックされて、同じ会議室内のディスプレイ等に表示されることを防ぐことができ、フィードバックされた画像による混乱等を抑えて、会議を効率的に行うことが可能となる。   As described above, according to the present embodiment, an image that matches the first image displayed on the display unit 102 from the second image captured by the imaging unit 103 is set as the transmission region. It is possible to prevent the image displayed by the unit 102 from being included in the second image captured by the imaging unit 103 and being output. Thereby, for example, an image obtained by removing an image of a participant in a conference in another conference room displayed on the display unit 102 in the background of the participant from an image obtained by the imaging unit 103 capturing a participant such as a video conference. Can be sent to video conference terminals in other conference rooms. As a result, images taken in each conference room can be prevented from being fed back and displayed on the display in the same conference room, etc., and confusion caused by the fed back images can be suppressed, making the conference more efficient. Can be performed.

さらに、位置補正情報および色補正情報等の補正パラメータを用いて、第一の画像と、第二の画像内に含まれる第一の画像と、の色あわせおよび位置あわせのための補正を行って、第一の画像と第二の画像内に含まれる第一の画像とを比較するようにしたことにより、精度良く画像同士の比較を行うことができる。例えば、通常、第一の画像と、第一の画像を一旦ディスプレイ102a等に表示したものを、撮影部103で撮影した画像とでは、使用する機器の特性や、照明等の影響等により色が大きく変わることがあるが、本実施の形態においては、このような色の違いを補正して画像同士を比較することが可能である。   Further, correction for color matching and positioning between the first image and the first image included in the second image is performed using correction parameters such as position correction information and color correction information. By comparing the first image and the first image included in the second image, it is possible to compare the images with high accuracy. For example, in general, the first image and the image that is once displayed on the display 102a or the like and the image captured by the image capturing unit 103 have colors depending on the characteristics of the device used, the influence of illumination, and the like. In this embodiment, images can be compared by correcting such a color difference.

また、撮影部103やディスプレイ102aの配置や、撮影部103のレンズ特性等により、第二の画像内の第一の画像は、オリジナルの第一の画像に比べて、大きさや形等が大きく変形しており、両者の画素同士を対応させて比較することが困難であるが、本実施の形態においては位置補正を行うことで、第一の画像内の位置と、第二の画像に含まれる第一の画像内の位置とを正確に位置あわせし、対応付けて比較することができるため、正確な比較が可能となる。   In addition, due to the arrangement of the photographing unit 103 and the display 102a, the lens characteristics of the photographing unit 103, and the like, the first image in the second image is greatly deformed in size and shape compared to the original first image. However, it is difficult to compare the two pixels in correspondence with each other. However, in the present embodiment, by performing position correction, the position in the first image is included in the second image. Since the position in the first image can be accurately aligned and matched and compared, accurate comparison is possible.

なお、上記具体例において、第二テレビ会議端末20として、第一テレビ会議端末10と同様の構成を用いるようにしてもよい。
また、上記具体例においては、第一テレビ会議端末10の表示部102と撮影部103とがそれぞれ一つであり、第二テレビ会議端末20においても、撮影部201と表示部204とがそれぞれ一つである場合について説明したが、これらは複数であってもよい。例えば、図14に示すように、第一テレビ会議端末10に、表示部102と同様の、図示しない6つの表示部を設けるようにし、それぞれの表示デバイスである6つのディスプレイ102aを、八角形の領域の6つの辺に並べて配置し、各ディスプレイ102aの上部に6つの撮影部103をそれぞれ配置するようし、その八角形の領域の中央部に、会議用のテーブル等を配置するようにしてもよい。
In the above specific example, the second video conference terminal 20 may have the same configuration as that of the first video conference terminal 10.
In the specific example, the display unit 102 and the shooting unit 103 of the first video conference terminal 10 are each one, and the shooting unit 201 and the display unit 204 of the second video conference terminal 20 are also one. However, there may be a plurality of these. For example, as shown in FIG. 14, the first video conference terminal 10 is provided with six display units (not shown) similar to the display unit 102, and the six displays 102 a that are the respective display devices are arranged in an octagonal shape. It is arranged side by side on the six sides of the area, and each of the six photographing units 103 is arranged at the top of each display 102a, and a conference table or the like is arranged at the center of the octagonal area. Good.

この場合、第二テレビ会議端末も、同様の構成として、第一テレビ会議端末10の各撮影部103が撮影した第二の画像が、図示しない第二テレビ会議端末の6つの表示部の表示デバイスである6つのディスプレイにそれぞれ表示されるようにし、図示しない第二テレビ会議端末の6つの撮影部が撮影した第一の画像が、第一テレビ会議端末10の6つのディスプレイ102aにそれぞれ表示されるようにすることが好ましい。このように参加者の画像を表示する複数のディスプレイを設けることで、多人数で、臨場感あふれる会議を実現することができる。   In this case, the second video conference terminal has the same configuration, and the second image captured by each imaging unit 103 of the first video conference terminal 10 is a display device of six display units of the second video conference terminal (not shown). The first images captured by the six imaging units of the second video conference terminal (not shown) are displayed on the six displays 102a of the first video conference terminal 10, respectively. It is preferable to do so. By providing a plurality of displays for displaying the images of the participants in this way, it is possible to realize a conference with a large number of people and a sense of reality.

なお、上記具体例においては、第二領域画像の画素と、当該画素の座標を位置補正関数で座標変換して得られた座標に対応する第一の画像内の画素等を、適宜比較するようにした場合について説明したが、予め第二領域画像全体を、位置補正関数を用いて位置補正することで、第一の画像と同じ形状の画像を構成して、第一の画像の各画素や画素ブロック等と比較するようにしてもよい。また、予め第一の画像全体を、位置補正関数を用いて位置補正して、第二領域画像と同じ形状の画像を構成して、構成した第一の画像を、第二領域画像の各画素や画素ブロック等と比較するようにしてもよい。   In the above specific example, the pixels in the second region image and the pixels in the first image corresponding to the coordinates obtained by coordinate conversion of the coordinates of the pixels with the position correction function are appropriately compared. However, by correcting the position of the entire second region image using the position correction function in advance, an image having the same shape as the first image is formed, and each pixel of the first image You may make it compare with a pixel block etc. In addition, the position of the entire first image is corrected in advance using a position correction function to form an image having the same shape as the second area image, and the configured first image is converted into each pixel of the second area image. Or a pixel block or the like.

(実施の形態2)
本実施の形態にかかる画像処理装置は、上記実施の形態1にかかる画像処理装置において、上述した補正パラメータを取得するための構成を備えたものである。
図15は、本実施の形態における画像処理装置の具体例を示すブロック図である。
画像処理装置300は、画像格納部301、受付部101、表示部302、撮影部303、画像受付部104,遅延バッファ105、補正パラメータ格納部106、比較部107、透過画像構成部108、出力部109、撮影画像格納部304、目印画像検出部305、対応情報取得部306、対応管理情報格納部307、および、補正パラメータ構成部308を具備する。
(Embodiment 2)
The image processing apparatus according to the present embodiment includes the above-described configuration for acquiring the correction parameter in the image processing apparatus according to the first embodiment.
FIG. 15 is a block diagram illustrating a specific example of the image processing apparatus according to the present embodiment.
The image processing apparatus 300 includes an image storage unit 301, a reception unit 101, a display unit 302, a photographing unit 303, an image reception unit 104, a delay buffer 105, a correction parameter storage unit 106, a comparison unit 107, a transmission image configuration unit 108, and an output unit. 109, a captured image storage unit 304, a landmark image detection unit 305, a correspondence information acquisition unit 306, a correspondence management information storage unit 307, and a correction parameter configuration unit 308.

補正パラメータ構成部308は、色情報取得手段3081、色補正情報取得手段3082、位置補正情報取得手段3083を有する。受付部101、画像受付部104、遅延バッファ105、補正パラメータ格納部106、比較部107、透過画像構成部108、出力部109については、上記実施の形態1と同様の構成を有するため、説明を省略する。   The correction parameter configuration unit 308 includes color information acquisition means 3081, color correction information acquisition means 3082, and position correction information acquisition means 3083. Since the reception unit 101, the image reception unit 104, the delay buffer 105, the correction parameter storage unit 106, the comparison unit 107, the transmission image configuration unit 108, and the output unit 109 have the same configurations as those in the first embodiment, description will be made. Omitted.

画像格納部301には、一以上、好ましく複数の目印画像が異なる位置に配置された画像であるパターン画像が数格納される。これらの複数のパターン画像間においては、複数の目印画像の配置されている位置が同じとなっている。さらに、複数のパターン画像においては、異なる位置に配置された目印画像の色の出現パターンが互いに異なるものとしている。目印画像とは、目印となる画像である。ここで述べる目印とは、画像内の位置を識別するための目印である。目印画像は後述するパターン画像の一部を構成する画像である。目印画像は、具体的には、後述する表示部302が表示する画像内の位置と、撮影部303が撮影した画像内において表示部302が表示している画像内の位置との対応を求める際に用いられる画像のことである。目印画像は、背景等から分離して検出可能な、色や形状を有する画像である。目印画像の形状は、目印画像が表示される位置を、目印画像の中心の位置とする場合、目印画像が変形しても、その中心位置が変わりにくいことから、円形が好ましい。ただし、多角形等の他の形状でもよい。なお、目印画像の大きさは問わない。   The image storage unit 301 stores a number of pattern images, which are images in which one or more, preferably a plurality of landmark images are arranged at different positions. Between the plurality of pattern images, the positions at which the plurality of mark images are arranged are the same. Further, in the plurality of pattern images, the appearance patterns of the colors of the mark images arranged at different positions are different from each other. A landmark image is an image that serves as a landmark. The mark described here is a mark for identifying a position in the image. The mark image is an image constituting a part of a pattern image to be described later. Specifically, the mark image is used when obtaining a correspondence between a position in an image displayed by the display unit 302 (to be described later) and a position in an image displayed by the display unit 302 in an image shot by the shooting unit 303. It is an image used for. The landmark image is an image having a color and a shape that can be detected separately from the background or the like. When the position where the mark image is displayed is the center position of the mark image, the shape of the mark image is preferably circular because the center position does not easily change even if the mark image is deformed. However, other shapes such as a polygon may be used. The size of the mark image is not limited.

各目印画像は、通常、複数の色のうちのいずれか一つの色を有する。目印画像の色は、撮影部303が表示部302により表示されたパターン画像の少なくとも一部を含む画像を撮影した画像(以下、撮影画像と称す)内において、目印画像の背景となる画像である背景画像に対して識別可能な色とする。各目印画像は、均一な色であることが好ましいが、識別が可能な範囲であれば、多少のばらつきを有していてもよい。目印画像およびパターン画像は、ベクトル画像でもラスタ画像であってもよい。パターン画像の目印画像が配置されていない領域は、通常、背景画像となっている。   Each mark image usually has any one of a plurality of colors. The color of the landmark image is an image that becomes the background of the landmark image in an image obtained by photographing the image including at least a part of the pattern image displayed on the display unit 302 by the photographing unit 303 (hereinafter referred to as a photographed image). A color that can be identified for the background image. Each mark image is preferably a uniform color, but may have some variation as long as it can be identified. The mark image and the pattern image may be a vector image or a raster image. The area where the mark image of the pattern image is not arranged is usually a background image.

パターン画像は、例えば、表示部302が通常表示する画像の画素数に相当する画素数を有する背景画像の所定の位置に、複数の目印画像を配置して構成した画像である。パターン画像における目印画像間の配置間隔や位置関係等は問わない。各パターン画像において、各目印画像の配置される位置は、通常、予め指定されている。目印画像の配置されている位置は、表示部302が通常表示する画像内の位置を示す情報、例えば座標等で指定される。目印画像の配置されている位置は、表示部302の表示領域内の位置を示す情報、例えば座標等で指定されてもよい。目印画像は、表示される位置、あるいは配置される位置を指定する情報と対応付けられて、画像格納部301内に格納されていてもよい。   The pattern image is, for example, an image configured by arranging a plurality of landmark images at predetermined positions of a background image having the number of pixels corresponding to the number of pixels of the image that the display unit 302 normally displays. There is no limitation on the arrangement interval or positional relationship between the mark images in the pattern image. In each pattern image, the position where each mark image is arranged is normally designated in advance. The position where the mark image is arranged is specified by information indicating the position in the image that the display unit 302 normally displays, for example, coordinates. The position where the mark image is arranged may be specified by information indicating the position in the display area of the display unit 302, such as coordinates. The mark image may be stored in the image storage unit 301 in association with information specifying a position to be displayed or a position to be arranged.

なお、パターン画像は、表示部302により表示される画像における、表示位置を示す情報等と対応付けられた複数の目印画像と考えてもよい。この場合、表示部302が表示を行う際に、これらの複数の目印画像を、それぞれの表示位置に配置した表示用のパターン画像を構成して、パターン画像を表示するようにしてもよい。ここでは、上述したように、各パターン画像間においては、複数の目印画像が配置される位置が一致しているとともに、同じ位置に表示される目印画像の色が出現するパターン、すなわち、出現パターンが、位置毎に全て異なるように、各パターン画像内に目印画像を配置している。   The pattern image may be considered as a plurality of landmark images associated with information indicating the display position in the image displayed by the display unit 302. In this case, when the display unit 302 performs display, a pattern image for display in which the plurality of mark images are arranged at respective display positions may be configured to display the pattern image. Here, as described above, between the pattern images, the positions at which the plurality of mark images are arranged coincide with each other, and the color of the mark image displayed at the same position appears, that is, the appearance pattern. However, the mark image is arranged in each pattern image so as to be different for each position.

色の出現パターンとは、言い換えれば目印画像の色の変化のパターンである。具体的には、出現パターンは、複数のパターン画像の、各目印画像が配置される位置における複数の目印画像の色の順列または組み合わせである。例えば、出現パターンは、複数のパターン画像を予め設定されている所定の順番で並べた場合における、各目印画像の配置位置における目印画像の色の出現する順列である。また、例えば、出現パターンは、パターン画像の各目印画像の配置されている位置において、複数のパターン画像から複数の目印画像を取り出した場合における、取り出された目印画像の色の組み合わせであってもよい。例えば、本実施の形態においては、複数のパターン画像を、予め設定された順番に表示させる場合に、異なる位置に表示される目印画像の色の出現パターンが互いに異なるような複数の目印画像を、各パターン画像が有しているようにする。   In other words, the color appearance pattern is a pattern of color change of the mark image. Specifically, the appearance pattern is a permutation or combination of colors of a plurality of mark images at positions where the mark images are arranged among a plurality of pattern images. For example, the appearance pattern is a permutation in which the color of the mark image appears at the arrangement position of each mark image when a plurality of pattern images are arranged in a predetermined order. In addition, for example, the appearance pattern may be a combination of colors of the extracted landmark images when a plurality of landmark images are extracted from the plurality of pattern images at the position where each landmark image of the pattern image is arranged. Good. For example, in the present embodiment, when displaying a plurality of pattern images in a preset order, a plurality of landmark images whose appearance patterns of colors of the landmark images displayed at different positions are different from each other, Each pattern image is made to have.

このようにすることにより、詳細については後述するが、撮影部303が撮影した画像内における目印画像が配置されている位置毎の目印画像の色の出現パターンを用いて、目印画像が配置されている位置を識別することができる。なお、色の情報を数値で置き換えるようにし、その数値の出現パターンを取得することも、ここでは、色の出現パターンを取得することと考える。また、ここでは例として、各パターン画像における各目印画像の色は、それぞれ2色のうちのいずれか一方であるとする。また、各パターン画像間における各目印画像の2色の組み合わせは、全て同じとしてもよいが、異なるようにしてもよい。特に、全て異なるようにすることで、その色の組み合わせを判断することにより、どのパターン画像であるか、もしくはどのパターン画像を撮影した画像であるかを判断することができる。   In this way, although the details will be described later, the landmark image is arranged using the appearance pattern of the color of the landmark image for each position where the landmark image is arranged in the image photographed by the photographing unit 303. Can be identified. Note that replacing the color information with a numerical value and acquiring the appearance pattern of the numerical value is considered to acquire the color appearance pattern here. Here, as an example, it is assumed that the color of each mark image in each pattern image is one of two colors. Further, the combination of the two colors of the mark images between the pattern images may be the same, or may be different. In particular, by making them all different, it is possible to determine which pattern image is an image obtained by photographing which pattern image by determining the combination of the colors.

後述するが、各パターン画像内の目印画像が、2色の色のうちのいずれか一方の色を有する場合において、各目印画像が配置された位置を識別できるようにするためには、各パターン画像内に配置される目印画像数をA(Aは2以上の整数)、パターン画像数をB(Bは2以上の整数)とした場合に、   As will be described later, in the case where the mark image in each pattern image has one of two colors, in order to be able to identify the position where each mark image is arranged, When the number of landmark images arranged in the image is A (A is an integer of 2 or more) and the number of pattern images is B (B is an integer of 2 or more),

≧A 2 B ≧ A

の関係を満たすような複数のパターン画像が、画像格納部301に格納されているようにする。画像格納部301は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   A plurality of pattern images satisfying the above relationship are stored in the image storage unit 301. The image storage unit 301 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

表示部302は、上記実施の形態において説明した第一の画像を表示する表示部102において、さらに、画像格納部301に格納されている複数のパターン画像を読み出して、切り替えて表示するようにしたものである。なお、複数のパターン画像は、予め定められた順番で表示することが好ましいが、表示部302に表示したパターン画像、もしくは撮影部303が撮影した画像内に含まれるパターン画像から、各パターン画像を識別可能な場合には、表示部302が各パターン画像を表示する順番は問わない。ここでは、表示部302の表示デバイスの表示面の向き等は、パターン画像の表示時と、第一の画像の表示時とで、変更しないものとする。   The display unit 302 reads the plurality of pattern images stored in the image storage unit 301 in the display unit 102 that displays the first image described in the above embodiment, and switches and displays them. Is. The plurality of pattern images are preferably displayed in a predetermined order. However, each pattern image is selected from the pattern image displayed on the display unit 302 or the pattern image included in the image captured by the image capturing unit 303. In the case where identification is possible, the order in which the display unit 302 displays each pattern image does not matter. Here, the orientation of the display surface of the display device of the display unit 302 is not changed between the display of the pattern image and the display of the first image.

撮影部303は、上記実施の形態1において説明した、第二の画像を撮影する撮影部103において、さらに、表示部302がディスプレイ等に表示しているパターン画像を含む画像を撮影するようにしたものである。撮影部303は、表示部302が画像を表示する領域とともに、それ以外の領域を含む領域の画像を撮影してもよい。また、表示部302が、複数のパターン画像を切り替えて表示する場合、切り替えて表示部302に表示される複数のパターン画像を含む各画像を、それぞれ撮影する。また、撮影部303は、表示部302が表示しているパターン画像のうちの、複数の目印画像を含む一部の領域のみを撮影してもよい。撮影部303は、複数のフレーム画像を備えた動画像を撮影してもよいし、静止画像を撮影してもよい。   The image capturing unit 303 captures an image including the pattern image displayed on the display or the like by the display unit 302 in the image capturing unit 103 that captures the second image described in the first embodiment. Is. The imaging unit 303 may capture an image of an area including other areas as well as an area where the display unit 302 displays an image. Further, when the display unit 302 switches and displays a plurality of pattern images, each image including the plurality of pattern images that are switched and displayed on the display unit 302 is captured. Further, the photographing unit 303 may photograph only a part of the pattern image displayed on the display unit 302 including a plurality of landmark images. The photographing unit 303 may photograph a moving image including a plurality of frame images, or may photograph a still image.

上述したように複数のパターン画像が切り替えられて表示される場合、撮影部303は、パターン画像が切り替える毎に静止画像を撮影してもよいし、切り替えられた全てのパターン画像を含む動画像を撮影してもよい。例えば、撮影部303は、表示部302から、表示しているパターン画像の切り替えを行うことを示す情報を受け付けるようにし、切り替えを行う情報を受け付けた場合に、静止画像を撮影してもよい。また、撮影部303は、切り替えが行われたことを示す情報を、撮影している動画像のフレームやヘッダ等に付与してもよい。この情報を参照することで、パターン画像の切り替えが行われたタイミングを判断することができる。撮影部303は、撮影した画像を、撮影画像格納部304に蓄積する。撮影部303は、撮影したパターン画像の表示順番を示す情報を構成して、撮影した画像である撮影画像に対応付けて、撮影画像格納部304等に蓄積してもよい。ここでは、撮影部303は、パターン画像の撮影時と、第二の画像の撮影時とで、撮影領域等を固定して利用される。   As described above, when a plurality of pattern images are switched and displayed, the imaging unit 303 may capture a still image every time the pattern image is switched, or a moving image including all the switched pattern images. You may shoot. For example, the imaging unit 303 may receive information indicating that the displayed pattern image is switched from the display unit 302, and may capture a still image when the switching information is received. Further, the photographing unit 303 may add information indicating that the switching has been performed to a frame, a header, or the like of the moving image being photographed. By referring to this information, it is possible to determine the timing when the pattern image is switched. The photographing unit 303 stores the photographed image in the photographed image storage unit 304. The imaging unit 303 may configure information indicating the display order of the captured pattern images and store the information in the captured image storage unit 304 or the like in association with the captured image that is the captured image. Here, the photographing unit 303 is used by fixing the photographing region or the like when the pattern image is photographed and when the second image is photographed.

撮影画像格納部304には、撮影部303が撮影した、表示部302がディスプレイ等に表示しているパターン画像を含む画像が格納される。ここでは、具体的には、撮影画像格納部304には、画像受付部104が受け付けたパターン画像を含む画像が蓄積される。撮影画像格納部304は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   The captured image storage unit 304 stores an image including a pattern image captured by the capturing unit 303 and displayed on the display or the like by the display unit 302. Specifically, the captured image storage unit 304 stores an image including a pattern image received by the image receiving unit 104. The captured image storage unit 304 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

目印画像検出部305は、撮影部303が撮影した画像内における目印画像を検出する。撮影部303が、表示部302に切り替えて表示されたパターン画像を撮影した場合、目印画像検出部305は、撮影部303が撮影した、表示部302が表示した各パターン画像を含む静止画像毎に、画像内における各目印画像を検出する。あるいは、目印画像検出部305は、表示部302が表示した各パターン画像を撮影部303が撮影した動画像のうちの、各パターン画像が撮影されている部分から、それぞれ1フレームを取り出して、それぞれ画像内における各目印画像を検出する。1フレームを取り出す代わりに複数フレームを取り出して、複数フレームを平均した1フレーム分の合成画像を予め構成してもよい。   The landmark image detection unit 305 detects a landmark image in the image photographed by the photographing unit 303. When the image capturing unit 303 captures a pattern image displayed by switching to the display unit 302, the landmark image detection unit 305 captures each still image including each pattern image displayed by the display unit 302 captured by the image capturing unit 303. Each mark image in the image is detected. Alternatively, the mark image detection unit 305 extracts one frame from the portion where each pattern image is photographed from the moving images obtained by photographing the pattern images displayed on the display unit 302 by the photographing unit 303, respectively. Each landmark image in the image is detected. Instead of extracting one frame, a plurality of frames may be extracted, and a composite image for one frame obtained by averaging the plurality of frames may be configured in advance.

目印画像検出部305は、結果的に、全てのパターン画像から目印画像を検出できればよく、例えば、全てのパターン画像について目印画像を検出する代わりに、一つのパターン画像について目印画像を検出し、他のパターン画像については、その検出した位置と同じ位置に、目印画像が検出されたものとしてもよく、このような場合においても、各パターン画像について目印画像を検出したことと考える。   As a result, the mark image detection unit 305 only needs to be able to detect the mark image from all the pattern images. For example, instead of detecting the mark image for all the pattern images, the mark image detecting unit 305 detects the mark image for one pattern image, and the like. As for the pattern image, the mark image may be detected at the same position as the detected position. Even in such a case, it is considered that the mark image is detected for each pattern image.

目印画像検出部305は、例えば、予めメモリ等に蓄積しておいた目印画像に用いられる複数の色の情報を読み出し、各パターン画像を含む静止画像、もしくは1フレームの画像内において、画素毎に、目印画像に用いられているいずれかの色と同じか、もしくは目印画像の色に近いか否かを判断し、目印画像の色と同じ画素、もしくは近い画素が連続して隣接している領域が検出された場合に、この領域内の画像を、撮影部303が撮影した画像内における目印画像として検出する。   The landmark image detection unit 305 reads, for example, information on a plurality of colors used in the landmark image accumulated in advance in a memory or the like, and for each pixel in a still image including each pattern image or one frame image. An area in which pixels that are the same as or close to the color of the mark image are judged to be the same as any of the colors used in the mark image, and pixels that are the same as or close to the color of the mark image Is detected, the image in this area is detected as a landmark image in the image captured by the image capturing unit 303.

目印画像検出部305は、検出した目印画像を指定する情報を、例えば、図示しないメモリ等の記憶媒体等に蓄積する。検出した目印画像を指定する情報は、目印画像が指定できる情報であればよく、例えば、目印画像を構成する各画素の座標情報、目印画像を代表する画素、例えば中心の画素等の座標情報や、目印画像の輪郭を指定する座標情報等である。目印画像検出部305は、各目印画像に対して、管理のための識別情報等を対応付けてメモリ等に蓄積してもよい。   The mark image detection unit 305 accumulates information for specifying the detected mark image in, for example, a storage medium such as a memory (not shown). The information for designating the detected landmark image may be information that can designate the landmark image. For example, the coordinate information of each pixel constituting the landmark image, the coordinate information of the pixel representing the landmark image, for example, the center pixel, etc. Coordinate information for designating the outline of the mark image. The landmark image detection unit 305 may store identification information for management in association with each landmark image in a memory or the like.

なお、複数のパターン画像の目印画像として利用される2色の組み合わせが、前記パターン画像毎に互いに異なっている場合、目印画像検出部305は、各パターン画像から検出した目印画像に用いられている色の組み合わせを取得し、当該色の組み合わせを用いて撮影画像内のパターン画像を識別したり、撮影画像内のパターン画像が配列される順番を取得するようにしてもよい。例えば、予め各パターン画像と、各パターン画像に用いられる2色の色の組み合わせを示す情報とを対応付けた判断用の情報を用意しておき、この情報の色の組み合わせの中から、撮影画像内の目印画像に用いられている色の組み合わせと一致する色の組み合わせを検索し、一致する組み合わせに対応づけられたパターン画像が、撮影画像内のパターン画像であると判断する、または識別するようにすればよい。   When the combination of the two colors used as the mark images of the plurality of pattern images is different for each pattern image, the mark image detection unit 305 is used for the mark image detected from each pattern image. It is also possible to acquire a combination of colors, identify a pattern image in the captured image using the combination of colors, or acquire an order in which the pattern images in the captured image are arranged. For example, determination information in which each pattern image is associated with information indicating a combination of two colors used for each pattern image is prepared in advance, and a captured image is selected from the color combinations of the information. Search for a color combination that matches the color combination used in the landmark image, and determine or identify that the pattern image associated with the matching combination is a pattern image in the captured image You can do it.

目印画像検出部305は、通常、MPUやメモリ等から実現され得る。目印画像検出部305の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   The mark image detection unit 305 can usually be realized by an MPU, a memory, or the like. The processing procedure of the mark image detection unit 305 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

対応管理情報格納部307には、画像格納部301に格納されている複数のパターン画像における複数の目印画像の配置されている位置と、当該配置されている位置における色の出現パターンとの対応を示す情報である対応管理情報が格納される。目印画像の配置された位置は、例えば、各パターン画像内における目印画像が配置されている位置の座標で表すようにしてもよい。また、表示部302の表示領域内における、目印画像が表示される座標で表すようにしてもよい。目印画像の配置された位置を示す情報は、目印画像の位置を特定できる情報であればよく、例えば、目印画像の中心の座標情報等である。また、目印画像の輪郭等を指定する情報等であってもよい。   In the correspondence management information storage unit 307, the correspondence between the position where the plurality of landmark images are arranged in the plurality of pattern images stored in the image storage unit 301 and the appearance pattern of the color at the arranged position is displayed. Correspondence management information which is information to be stored is stored. For example, the position where the mark image is arranged may be expressed by the coordinates of the position where the mark image is arranged in each pattern image. Alternatively, the mark image may be represented by coordinates in the display area of the display unit 302. The information indicating the position where the mark image is arranged may be information that can specify the position of the mark image, such as coordinate information of the center of the mark image. Moreover, the information etc. which designate the outline etc. of a mark image may be sufficient.

目印画像の配置されている位置における色の出現パターンとは、目印画像の色の出現するパターン、言い換えれば変化のパターンである。例えば、出現パターンは、各目印画像が配置されている位置における色の順列または組み合わせである。例えば、出現パターンは、複数のパターン画像を予め設定されている所定の順番で並べた場合における、各目印画像の表示位置において表示される目印画像の色の出現する順列である。また、例えば、出現パターンは、複数のパターン画像の、各目印画像の配置されている位置から、目印画像を取得した場合の、当該取得した目印画像の色の組み合わせであってもよい。   The appearance pattern of the color at the position where the mark image is arranged is a pattern in which the color of the mark image appears, in other words, a change pattern. For example, the appearance pattern is a permutation or combination of colors at positions where the mark images are arranged. For example, the appearance pattern is a permutation in which the color of the mark image displayed at the display position of each mark image appears when a plurality of pattern images are arranged in a predetermined order. Further, for example, the appearance pattern may be a combination of colors of the acquired landmark images when the landmark images are acquired from the positions where the respective landmark images are arranged in a plurality of pattern images.

なお、色の出現パターンは、色の値や名称等の変化する順番や組み合わせを並べて表した情報であってもよい。例えば、出現パターンは、赤、黄、録、赤、青等で表される。また、色の情報等を数値に置き換えたりした値の変化する順番を表した情報であってもよいし、1つのパターン内において目印画像として利用される2色の色を、2値の値で表した場合の2値の出現するパターンであってもよい。   Note that the color appearance pattern may be information in which color values, names, and the like are changed and arranged in order. For example, the appearance pattern is represented by red, yellow, recording, red, blue, or the like. Alternatively, the information may be information representing the order of change of values by replacing color information or the like with numerical values, and two colors used as a mark image in one pattern may be expressed by binary values. It may be a pattern in which binary values appear.

例えば、第一のパターン画像においては、赤色の目印情報を「0」、青色の目印情報を「1」とし、第二のパターン画像においては、緑色の目印情報を「0」、青色の目印情報を「1」とし、第三のパターン画像においては、黄色の目印情報を「0」、青色の目印情報を「1」とした場合においては、出現パターンは、「011」、「101」や、「0」が3つと「1」が5つの組み合わせ等で表される。対応する表示位置と出現パターンとは、例えばデータベースの一つのレコードの、二つの属性値として管理される。対応管理情報格納部307は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   For example, in the first pattern image, the red mark information is “0” and the blue mark information is “1”. In the second pattern image, the green mark information is “0” and the blue mark information is In the third pattern image, when the yellow mark information is “0” and the blue mark information is “1”, the appearance patterns are “011”, “101”, “0” is represented by a combination of three and “1” by five. The corresponding display position and appearance pattern are managed as two attribute values of one record in the database, for example. The correspondence management information storage unit 307 is preferably a nonvolatile recording medium, but can also be realized by a volatile recording medium.

対応情報取得部306は、撮影部303が撮影した画像内における目印画像の位置と、目印画像の予め指定されている表示位置との対応を示す情報である対応情報を取得する。例えば、対応情報取得部306は、目印画像検出部305が検出した各目印画像から、同じ位置において検出された目印画像についての色の出現パターンを取得し、当該色の出現パターンが取得された、撮影部303が撮影した画像内の位置と、当該色の出現パターンと一致する色の出現パターンを有する複数のパターン画像における目印画像の表示位置と、の対応を示す対応情報を取得する。ここでの一致は、完全一致であっても部分一致であってもよい。   The correspondence information acquisition unit 306 acquires correspondence information that is information indicating the correspondence between the position of the landmark image in the image photographed by the photographing unit 303 and the display position designated in advance of the landmark image. For example, the correspondence information acquisition unit 306 acquires a color appearance pattern for a landmark image detected at the same position from each landmark image detected by the landmark image detection unit 305, and the appearance pattern of the color is acquired. Correspondence information indicating the correspondence between the position in the image photographed by the photographing unit 303 and the display position of the mark image in a plurality of pattern images having a color appearance pattern that matches the color appearance pattern is acquired. The match here may be a complete match or a partial match.

対応情報取得部306は、例えば、目印画像検出部305が各パターン画像について撮影した画像において検出した各目印画像の、色情報を取得する。そして、表示部302に表示された各パターン画像を撮影した画像を、予め指定された所定の順番に並べた場合における、目印画像検出部305が検出した目印画像のうちの、ほぼ同じ位置に検出された目印画像についての色の出現パターンを取得する。色の出現パターンは、上述したように、色の値や名称等の変化する順番を並べて表した情報であってもよいし、色の情報等を数値に置き換えたりした値の変化する順番を表した情報であってもよいし、1つの画像において目印画像として利用される2色の色を、2値の値で表した場合の2値の出現するパターンであってもよい。   The correspondence information acquisition unit 306 acquires, for example, color information of each mark image detected in the image captured by the mark image detection unit 305 for each pattern image. Then, when the images obtained by capturing the pattern images displayed on the display unit 302 are arranged in a predetermined order specified in advance, detection is performed at substantially the same position among the mark images detected by the mark image detection unit 305. The appearance pattern of the color for the marked landmark image is acquired. As described above, the color appearance pattern may be information in which the order of change of the color value, name, etc. is arranged, or the order of change of the value by replacing the color information, etc. with a numerical value. It may be a pattern in which two colors appear when two colors used as a mark image in one image are represented by binary values.

そして、対応情報取得部306は、この色の出現パターンと一致する色の出現パターンを有する一以上のパターン画像における目印画像が表示される位置の情報を取得する。具体的には、対応管理情報格納部307に格納されている対応管理情報から、対応情報取得部306が取得した撮影部303が撮影した画像における目印画像の色の出現パターンと一致する、パターン画像内の目印画像の色の出現パターンに対応付けられた目印画像の位置情報を取得する。そして、この取得した目印画像が表示される位置情報と、色の出現パターンが同じである目印画像検出部305が検出した目印画像の位置情報との対応を示す対応情報を取得する。   Then, the correspondence information acquisition unit 306 acquires information on the position where the landmark image is displayed in one or more pattern images having a color appearance pattern that matches the color appearance pattern. Specifically, a pattern image that matches the appearance pattern of the color of the landmark image in the image captured by the imaging unit 303 acquired by the correspondence information acquisition unit 306 from the correspondence management information stored in the correspondence management information storage unit 307. The position information of the landmark image associated with the appearance pattern of the color of the landmark image is acquired. Then, correspondence information indicating correspondence between the position information where the acquired landmark image is displayed and the positional information of the landmark image detected by the landmark image detection unit 305 having the same color appearance pattern is acquired.

対応情報は、具体的には、対応する目印画像が表示される位置情報と、目印画像検出部305が検出した撮影された画像における目印画像の位置情報とを対に持つ情報である。ここでの位置情報は、例えば座標情報である。なお、必ずしも、目印画像検出部305が検出した全ての目印画像の位置について、対応情報を取得する必要はない。また、対応情報取得部306は、通常、MPUやメモリ等から実現され得る。対応情報取得部306の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   Specifically, the correspondence information is information having a pair of position information where the corresponding mark image is displayed and position information of the mark image in the captured image detected by the mark image detection unit 305. The position information here is, for example, coordinate information. Note that it is not always necessary to acquire correspondence information for the positions of all landmark images detected by the landmark image detection unit 305. Also, the correspondence information acquisition unit 306 can be usually realized by an MPU, a memory, or the like. The processing procedure of the correspondence information acquisition unit 306 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

補正パラメータ構成部308は、対応情報取得部306が取得した対応情報を用いて、補正パラメータを構成し、補正パラメータ格納部106に蓄積する。ここで述べる補正パラメータとは、上記実施の形態1において説明した補正パラメータと同様の補正パラメータであり、例えば、位置補正情報や、色補正情報である。この位置補正情報および色補正情報は、位置補正関数の係数や色補正関数の係数等であってもよいし、位置補正関数や色補正関数自身であってもよい。補正パラメータ構成部308は、通常、MPUやメモリ等から実現され得る。補正パラメータ構成部308の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   The correction parameter configuration unit 308 configures correction parameters using the correspondence information acquired by the correspondence information acquisition unit 306 and accumulates the correction parameters in the correction parameter storage unit 106. The correction parameters described here are correction parameters similar to the correction parameters described in the first embodiment, and are, for example, position correction information and color correction information. The position correction information and the color correction information may be a position correction function coefficient, a color correction function coefficient, or the like, or may be a position correction function or a color correction function itself. The correction parameter configuration unit 308 can usually be realized by an MPU, a memory, or the like. The processing procedure of the correction parameter configuration unit 308 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

色情報取得手段3081は、撮影部303が撮影した画像内の複数の目印画像の色に関する情報である色情報と、対応情報取得部306が取得した対応情報が示す撮影部303が撮影した画像内の複数の目印画像に対応したパターン画像内の目印画像の色情報とを取得する。色情報取得手段3081は一つの目印画像が表示される位置についての色情報を取得してもよいし、複数の目印画像が表示される位置についての色情報を取得してもよい。ただし、色情報取得手段3081は、一のパターン画像と、当該パターン画像を表示部302が表示したものを撮影部303が撮影した画像とからそれぞれ色情報を取得する。   The color information acquisition unit 3081 includes color information that is information related to colors of a plurality of landmark images in an image captured by the imaging unit 303 and an image captured by the imaging unit 303 indicated by the correspondence information acquired by the correspondence information acquisition unit 306. And the color information of the landmark image in the pattern image corresponding to the plurality of landmark images. The color information acquisition unit 3081 may acquire color information regarding a position where one landmark image is displayed, or may acquire color information regarding a position where a plurality of landmark images are displayed. However, the color information acquisition unit 3081 acquires color information from one pattern image and an image obtained by the imaging unit 303 capturing the pattern image displayed on the display unit 302.

また、色情報は、各目印画像内の一部、例えば一画素等の色情報であってもよいし、目印画像内の画素全体の色情報から最小二乗法等を用いて算出した色情報であってもよい。色情報取得手段3081は、通常、MPUやメモリ等から実現され得る。色情報取得手段3081の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   The color information may be a part of each mark image, for example, color information of one pixel or the like, or color information calculated by using a least square method or the like from the color information of all the pixels in the mark image. There may be. The color information acquisition unit 3081 can be usually realized by an MPU, a memory, or the like. The processing procedure of the color information acquisition unit 3081 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

色補正情報取得手段3082は、色情報取得手段3081が取得した色情報を用いて、画像受付部104が受け付けた画像の色の補正に用いられる色補正情報を取得する。色補正情報とは、具体的には、色の補正に用いられる関数の係数等の値である。また、関数自身であってもよい。例えば、色情報取得手段3081が取得した色情報の値を、色を変換する関数に代入することで、色補正情報を算出することができる。これらの関数としては、上記実施の形態1と同様の色補正関数が用いられる。   The color correction information acquisition unit 3082 acquires color correction information used for correcting the color of the image received by the image reception unit 104 using the color information acquired by the color information acquisition unit 3081. Specifically, the color correction information is a value such as a coefficient of a function used for color correction. It may also be a function itself. For example, the color correction information can be calculated by substituting the value of the color information acquired by the color information acquisition unit 3081 into a function for converting the color. As these functions, the same color correction function as in the first embodiment is used.

ここで述べる色の補正とは、最終的には、第一の画像と、第二の画像内の第二領域画像の色とを色あわせする補正である。ただし、ここでは、この補正に用いられる色補正情報として、撮影部303が撮影した画像の色を、撮影部303が撮影したパターン画像のオリジナルに対して色をあわせるための補正に用いられる色補正情報を用いるものとする。この場合の色の補正は、撮影画像とオリジナルのパターン画像との相対的な色の補正であればよく、撮影画像を、オリジナルのパターン画像に色あわせする補正であっても、オリジナルのパターン画像を、撮影画像に色あわせする補正であってもよい。   The color correction described here is finally correction for matching the colors of the first image and the color of the second region image in the second image. However, here, as the color correction information used for this correction, the color correction used for correcting the color of the image photographed by the photographing unit 303 with the original of the pattern image photographed by the photographing unit 303 is used. Information shall be used. The color correction in this case may be correction of relative color between the photographed image and the original pattern image. Even if the photographed image is color-matched with the original pattern image, the original pattern image is corrected. May be a correction for color matching the captured image.

色補正情報取得手段3082は、取得した色補正情報を、補正パラメータ格納部106に蓄積する。色補正情報取得手段3082は、通常、MPUやメモリ等から実現され得る。色補正情報取得手段3082の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   The color correction information acquisition unit 3082 accumulates the acquired color correction information in the correction parameter storage unit 106. The color correction information acquisition unit 3082 can be usually realized by an MPU, a memory, or the like. The processing procedure of the color correction information acquisition unit 3082 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

位置補正情報取得手段3083は、対応情報取得部306が取得した位置情報を用いて、画像受付部104が受け付けた画像の位置の補正に用いられる位置補正情報を取得する。
ここで述べる位置の補正とは、最終的には、第一の画像と、第二の画像内の第二領域画像の位置とを位置あわせする補正である。ただし、ここでは、位置補正情報として、撮影部303が撮影した画像を、撮影部303が撮影したパターン画像のオリジナルにあわせるための補正に用いられる位置補正情報を用いるものとする。ただし、この場合の位置の補正は、撮影画像とオリジナルのパターン画像との相対的な補正であればよく、撮影画像を、オリジナルのパターン画像にあわせる補正であっても、オリジナルのパターン画像を、撮影画像にあわせる補正であってもよい。
The position correction information acquisition unit 3083 acquires position correction information used for correcting the position of the image received by the image reception unit 104 using the position information acquired by the correspondence information acquisition unit 306.
The position correction described here is finally correction for aligning the position of the first image and the position of the second region image in the second image. However, here, as the position correction information, it is assumed that the position correction information used for correction for matching the image captured by the image capturing unit 303 with the original pattern image captured by the image capturing unit 303 is used. However, the position correction in this case may be a relative correction between the captured image and the original pattern image, and even if the captured image is corrected to match the original pattern image, the original pattern image is Correction may be made to match the captured image.

この位置の補正は、通常は撮影画像の座標と、オリジナルのパターン画像の座標との間の座標変換である。位置補正情報とは、具体的には、表示部302が表示する画像を構成する各画素を、撮影部303が撮影した画像内の、表示部302が表示している画像内の位置に座標変換するための関数や、撮影部303が撮影した画像内の、表示部302が表示している画像内の画素を、表示部302が表示する画像内の位置に座標変換するための関数の係数等の値である。ただし、位置変換関数自身であってもよい。例えば、対応情報が示すパターン画像内の目印画像の位置の座標情報と、対応する撮影された画像内の目印画像の位置の座標情報とを、画像を座標変換する関数に代入することで、位置補正情報を算出することができる。   This position correction is usually coordinate conversion between the coordinates of the captured image and the coordinates of the original pattern image. Specifically, the position correction information is a coordinate conversion of each pixel constituting the image displayed on the display unit 302 into a position in the image displayed on the display unit 302 in the image captured by the shooting unit 303. Function coefficients for converting the coordinates of the pixels in the image displayed by the display unit 302 to the positions in the image displayed by the display unit 302 in the image captured by the imaging unit 303, etc. Is the value of However, the position conversion function itself may be used. For example, by substituting the coordinate information of the position of the landmark image in the pattern image indicated by the correspondence information and the coordinate information of the position of the landmark image in the corresponding captured image into the function for coordinate transformation of the image, Correction information can be calculated.

座標変換する関数としては、例えば、アフィン変換の関数等がある。この場合、位置補正情報は、アフィン係数である。なお、関数は問わない。また、このような座標変換等を行う関数は、いわゆるモーフィング等の技術として公知である。位置補正情報取得手段3083は、取得した位置補正情報を補正パラメータ格納部106に蓄積する。位置補正情報取得手段3083は、通常、MPUやメモリ等から実現され得る。位置補正情報取得手段3083の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   As a function for coordinate transformation, for example, there is an affine transformation function. In this case, the position correction information is an affine coefficient. Any function is acceptable. A function for performing such coordinate transformation is known as a technique such as so-called morphing. The position correction information acquisition unit 3083 accumulates the acquired position correction information in the correction parameter storage unit 106. The position correction information acquisition unit 3083 can usually be realized by an MPU, a memory, or the like. The processing procedure of the position correction information acquisition unit 3083 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、画像処理装置300の動作について説明する。なお、画像処理装置300の動作のうちの、第一の画像を表示して、当該第一の画像を含む領域を撮影した第二の画像から、第一の画像に一致する領域を削除する動作については、上記実施の形態1と同様であるので、詳細な説明は省略する。
以下、画像処理装置300の補正パラメータを取得する動作について図16のフローチャートを用いて説明する。ここでは、2色のいずれかの色を有する目印画像を異なる位置に複数有するパターン画像を、p(p≧2、pは整数)枚用意しており、各パターン画像間においては、各目印画像は同じ位置に表示されるとともに、各パターン画像を予め指定された順番で切り替えて配列、あるいは表示した場合に、同じ表示位置に表示される各目印画像の色の出現パターンは、位置毎に互いに異なるよう設定されているものとする。また、各パターン画像において、目印画像が表示される位置、および目印画像として利用される色、および背景の色は予め指定されているものとする。背景の色としては通常は黒等が用いられる。
Next, the operation of the image processing apparatus 300 will be described. Of the operations of the image processing apparatus 300, the first image is displayed, and the region that matches the first image is deleted from the second image obtained by capturing the region including the first image. Since is the same as that of the first embodiment, detailed description thereof is omitted.
Hereinafter, the operation of acquiring the correction parameter of the image processing apparatus 300 will be described with reference to the flowchart of FIG. Here, p (p ≧ 2, p is an integer) number of pattern images having a plurality of mark images having two colors at different positions are prepared, and each mark image is between each pattern image. Are displayed at the same position, and when each pattern image is switched or arranged or displayed in a predetermined order, the appearance patterns of the colors of the mark images displayed at the same display position are mutually different for each position. Assume that they are set differently. In each pattern image, the position where the landmark image is displayed, the color used as the landmark image, and the background color are specified in advance. Normally, black or the like is used as the background color.

(ステップS1601)表示部302は、カウンタmに1を代入する。
(ステップS1602)表示部302は、m番目のパターン画像を画像格納部301から読み出し、ディスプレイ等に表示する。
(ステップS1603)撮影部303は、表示部302が表示するm番目のパターン画像を撮影する。撮影部303は、パターン画像を静止画として撮影しても動画として撮影してもよい。撮影部303が撮影した画像は、画像受付部104により受け付けられ、撮影画像格納部304に蓄積される。なお、撮影部303は、撮影した順番を示す情報、あるいは撮影したパターン画像を識別する情報を、撮影した画像に対応付けて、蓄積してもよい。
(Step S1601) The display unit 302 substitutes 1 for a counter m.
(Step S1602) The display unit 302 reads the mth pattern image from the image storage unit 301 and displays it on a display or the like.
(Step S1603) The photographing unit 303 photographs the mth pattern image displayed on the display unit 302. The photographing unit 303 may photograph the pattern image as a still image or a moving image. The image captured by the imaging unit 303 is received by the image receiving unit 104 and accumulated in the captured image storage unit 304. Note that the photographing unit 303 may accumulate information indicating the order of photographing or information for identifying the photographed pattern image in association with the photographed image.

(ステップS1604)表示部302は、カウンタmを1インクリメントする。
(ステップS1605)表示部302は、mがpより大きいか否かを判断する。mがpより大きい場合、ステップS1606に進み、大きくない場合、ステップS1602に戻る。
(ステップS1606)画像処理装置300は、撮影部303が撮影した画像から、すなわち、撮影画像格納部304に格納されている各撮影画像から目印画像を検出する。目印画像を検出する処理の詳細については後述する。
(ステップS1607)画像処理装置300は、補正パラメータを取得する。補正パラメータを取得する処理については後述する。そして、処理を終了する。
(Step S1604) The display unit 302 increments the counter m by 1.
(Step S1605) The display unit 302 determines whether m is larger than p. If m is larger than p, the process proceeds to step S1606, and if not larger, the process returns to step S1602.
(Step S1606) The image processing apparatus 300 detects a landmark image from the images captured by the capturing unit 303, that is, from the captured images stored in the captured image storage unit 304. Details of the process of detecting the landmark image will be described later.
(Step S1607) The image processing apparatus 300 acquires a correction parameter. The process for acquiring the correction parameter will be described later. Then, the process ends.

なお、図16のフローチャートにおいて、画像処理装置300が、上記の処理を開始するトリガやタイミング等は問わない。例えば、表示部302により、第一の画像の表示が行われる直前や、表示部302のディスプレイ等や、撮影部303等が設置された時点で行われるようにしてもよい。
なお、図16のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
In the flowchart of FIG. 16, the trigger, timing, and the like at which the image processing apparatus 300 starts the above processing are not questioned. For example, it may be performed immediately before the first image is displayed by the display unit 302, or when the display of the display unit 302, the photographing unit 303, or the like is installed.
In the flowchart of FIG. 16, the process is terminated by power-off or a process termination interrupt.

次に、図17のフローチャートを用いて、ステップS1606に示した目印画像を検出する処理の詳細について説明する。
(ステップS1701)目印画像検出部305は、カウンタnに1を代入する。
(ステップS1702)目印画像検出部305は、m番目の撮影画像を撮影画像格納部304から読み出して取得する。
Next, details of the process of detecting the landmark image shown in step S1606 will be described using the flowchart of FIG.
(Step S1701) The mark image detection unit 305 substitutes 1 for the counter n.
(Step S1702) The mark image detection unit 305 reads out and acquires the m-th captured image from the captured image storage unit 304.

(ステップS1703)目印画像検出部305は、m番目の撮影画像から複数の目印画像の位置の検出処理を行う。例えば、目印画像の各画素の色を、順次予め目印画像として指定されている複数の色と比較していき、比較の結果、目印画像のいずれかの色であると判断された場合、その画素、およびその画素と同様の色と判断される色が隣接している画素の領域を、一つの目印画像の領域であると判断する。隣接していない領域は、異なる目印画像の領域であると判断する。目印画像を検出するための、画素の色の判断等は、例えば、RGB値等の色の成分の情報等に閾値を設けて、画素の色成分がこれらの閾値を超えるか否か等で判断することが好ましい。   (Step S1703) The mark image detection unit 305 performs a process of detecting the positions of a plurality of mark images from the m-th captured image. For example, the color of each pixel of the landmark image is sequentially compared with a plurality of colors that are designated in advance as the landmark image. And an area of a pixel adjacent to a color determined to be the same color as that pixel is determined as an area of one mark image. It is determined that the non-adjacent areas are areas of different mark images. Judgment of the color of the pixel for detecting the landmark image is made by determining whether or not the color component of the pixel exceeds these thresholds by providing a threshold for the information of the color component such as the RGB value, for example. It is preferable to do.

パターン画像をディスプレイ等に表示し、他ものを撮影した撮影画像向の目印画像を構成する画素の色と、オリジナルのパターン画像内の目印画像を構成する画素の色とは、色成分自体が欠落したり、反転したりしてしまうことがないまでも、色成分の値が大きく変化することが考えられるため、このように閾値等を用いて色の範囲を設定することで、撮影画像内の画素が、目印画像のオリジナルの色と同じ色とみなすか否かを判断することが好適である。また、このような処理において、閾値により画素の色成分を「0」、「1」等に2値化して、2値化した情報から目印画像内の画素であるか否かを判断してもよい。目印画像を検出する処理は、上記のような処理に限るものではない。例えば、特定の色域や類似する形状等を有する画像を検出するための、パターンマッチング等の技術を利用して、上記のような目印画像と同じであると考えられる位置を検出するようにしてもよい。このような技術は公知技術であるので説明は省略する。   The color component itself is missing between the color of the pixels that make up the landmark image for the captured image that is displayed on the display, etc., and the other image is taken, and the color of the pixels that make up the landmark image in the original pattern image It is possible that the value of the color component will change greatly even if it is not reversed or reversed, so by setting the color range using the threshold value etc. in this way, It is preferable to determine whether or not the pixel is regarded as the same color as the original color of the landmark image. Further, in such processing, the color component of the pixel is binarized to “0”, “1”, etc. by the threshold value, and it is determined from the binarized information whether the pixel is in the mark image. Good. The process for detecting the mark image is not limited to the above process. For example, by using a technique such as pattern matching for detecting an image having a specific color gamut or a similar shape, a position that is considered to be the same as the mark image as described above is detected. Also good. Since such a technique is a known technique, a description thereof will be omitted.

(ステップS1704)目印画像検出部305は、ステップS1703で検出した各目印画像の位置の情報と、当該目印画像の色の情報とを取得し、これらを対応付けて出力、例えば、図示しないメモリ等の記憶媒体に蓄積する。また、このとき、各目印画像を識別する識別情報を対応付けて出力することが好ましい。目印画像の位置の情報は、撮影画像内における、目印画像の領域内の中心座標等が用いられる。ただし、目印画像の位置の情報は、目印画像の位置を指定可能な情報であれば、目印画像の輪郭を定義する情報や、目印画像の全てや一部の画素の座標等であってもよい。また、目印画像の色の情報は、目印画像内の特定の画素、例えば、目印画像の領域内の中心の画素の色の情報であってもよいし、目印画像内の全てや一部の画素の色の代表値、例えば平均値や中央値等の情報であってもよい。ここでの色の情報は、色のRGB成分の色強度の値等である。   (Step S1704) The mark image detection unit 305 acquires the position information of each mark image detected in step S1703 and the color information of the mark image and outputs them in association with each other, such as a memory (not shown). Stored in the storage medium. At this time, it is preferable to output the identification information for identifying each mark image in association with each other. As the information on the position of the mark image, the center coordinates in the area of the mark image in the photographed image are used. However, the information on the position of the mark image may be information that defines the outline of the mark image, the coordinates of all or some of the pixels of the mark image, etc., as long as the information can specify the position of the mark image. . The color information of the mark image may be information on the color of a specific pixel in the mark image, for example, the center pixel in the area of the mark image, or all or some of the pixels in the mark image. It may be information such as a representative value of each color, such as an average value or a median value. The color information here is the color intensity value of the RGB component of the color.

(ステップS1705)目印画像検出部305は、ステップS1704において出力したn番目の撮影画像内の目印画像の色の組み合わせを示す情報、すなわち目印画像として用いられている2つの色の情報を取得する。ここで述べる色の情報は、RGB値等の色の成分の値であってもよいし、上述した2値化した色の成分で表された情報であっても良い。なお、目印画像の色が一つだけであった場合、この色の組み合わせの情報は、ある一つの色のみで、他の色がないということを示す情報であってもよい。   (Step S1705) The landmark image detection unit 305 acquires information indicating the combination of the colors of the landmark images in the n-th photographed image output in Step S1704, that is, information on two colors used as the landmark images. The color information described here may be values of color components such as RGB values, or may be information expressed by the above-described binarized color components. When there is only one color of the mark image, the color combination information may be information indicating that there is only one color and no other color.

(ステップS1706)目印画像検出部305は、ステップS1705で取得した色の組み合わせを示す情報と、予めメモリ等に用意された画像格納部301に格納されているパターン画像の配列順番と、当該パターン画像内の目印画像に用いられる2つの色との組み合わせを示す情報とを比較して、撮影画像内のパターン画像の配列される順番を示す情報を取得する。目印画像の色が一色のみしかない組み合わせについても、予め配列される順番を設定しておくようにして、目印画像が一色の場合でも配列される順番を示す情報を取得できるようにしてもよい。   (Step S1706) The mark image detection unit 305 includes information indicating the color combination acquired in step S1705, the arrangement order of the pattern images stored in the image storage unit 301 prepared in advance in a memory, and the pattern image. The information indicating the order in which the pattern images in the captured image are arranged is acquired by comparing the information indicating the combination with the two colors used in the mark image. Even for a combination in which the mark image has only one color, the order in which the mark images are arranged may be set in advance so that information indicating the order in which the mark images are arranged can be acquired even when the mark image has only one color.

(ステップS1707)目印画像検出部305は、m番目の撮影画像内の各目印画像の色情報を2値化する。目印画像検出部305は、例えば、予め用意された目印画像の2つの色の組み合わせと、これらの色を2値化する際にいずれの値を、「1」、「0」等に変換するかを指定する情報とを用いて、各目印画像の色の情報を「1」、「0」の2値のいずれかに変換する。また、撮影画像内のパターン画像の配列される順番を示す情報と、この配列される順番が示すパターン画像に含まれる2つの色を、それぞれ「1」、「0」等に変換するかを指定する情報とを用いて、各目印画像の色の情報を、「1」、「0」の2値のいずれかに変換してもよい。目印画像検出部305は、2値化した色の情報を目印画像の位置情報と対応付けてメモリ等の記憶媒体に蓄積する。   (Step S1707) The mark image detection unit 305 binarizes the color information of each mark image in the m-th captured image. For example, the mark image detection unit 305 converts a combination of two colors of a mark image prepared in advance and converts these values into “1”, “0”, etc. when binarizing these colors. Is used to convert the color information of each landmark image into one of binary values “1” and “0”. Also, information indicating the order in which the pattern images in the captured image are arranged and whether the two colors included in the pattern image indicated by the arrangement order are converted to “1”, “0”, etc., respectively. The information on the color of each mark image may be converted into one of binary values “1” and “0”. The mark image detection unit 305 stores the binarized color information in a storage medium such as a memory in association with the position information of the mark image.

(ステップS1708)目印画像検出部305は、カウンタmがp以上であるか否かを判断する。p以上であれば、上位の関数、すなわち図16のフローチャートにリターンする。p以上でなければ、ステップS1709に進む。
(ステップS1709)目印画像検出部305は、カウンタmを1インクリメントする。
(ステップS1710)目印画像検出部305は、m番目の撮影画像を撮影画像格納部304から読み出して取得する。
(Step S1708) The mark image detection unit 305 determines whether or not the counter m is greater than or equal to p. If it is greater than or equal to p, the process returns to the upper function, that is, the flowchart of FIG. If it is not greater than or equal to p, the process proceeds to step S1709.
(Step S1709) The mark image detection unit 305 increments the counter m by 1.
(Step S1710) The landmark image detection unit 305 reads out and acquires the m-th captured image from the captured image storage unit 304.

(ステップS1711)目印画像検出部305は、ステップS1703においてm=1番目の撮影画像から検出した複数の目印画像の位置を示す情報を、m番目の撮影画像内の複数の目印画像の位置を示す情報として用いて、ステップS1704と同様に、m番目の撮影画像内の各目印画像の色の情報を取得して、目印画像の位置の情報と対応付けて出力、例えば、図示しないメモリ等の記憶媒体に蓄積する。そして、ステップS1705に戻る。   (Step S1711) The mark image detection unit 305 indicates information indicating the positions of the plurality of mark images detected from the m = 1st photographed image in step S1703, and indicates the positions of the plurality of mark images in the mth photographed image. As in step S1704, information on the color of each mark image in the m-th photographed image is acquired and output in association with the position information of the mark image, for example, stored in a memory (not shown) or the like. Accumulate on media. Then, the process returns to step S1705.

なお、図17のフローチャートにおいては、m=1の撮影画像から取得した目印画像の位置の情報を、m=1以外の撮影画像の目印画像の位置の情報として利用しているが、これは、撮影部303と表示部302のディスプレイの位置等が固定されている場合に、限られる。このようにm=1の撮影画像から取得した目印画像の位置の情報を、m=1以外の撮影画像の目印画像の位置の情報として利用する代わりに、各撮影画像毎にステップS1703と同様の目印画像の検出処理を行うようにし、最終的に各撮影画像の一致する目印画像同士をパターンマッチング等の技術を用いて検出して対応付けるようにしてもよい。   In the flowchart of FIG. 17, the information on the position of the mark image acquired from the captured image of m = 1 is used as the position information of the mark image of the captured image other than m = 1. This is limited to the case where the positions of the displays of the photographing unit 303 and the display unit 302 are fixed. In this way, instead of using the position information of the landmark image acquired from the captured image of m = 1 as the position information of the landmark image of the captured image other than m = 1, the same as step S1703 is performed for each captured image. Mark image detection processing may be performed, and finally mark images that match each captured image may be detected and associated using a technique such as pattern matching.

なお、目印画像を検出しやすくするために、予め他のパターン画像と目印画像の位置が同じであると共に、検出しやすい色の目印画像を有する位置検出用のパターン画像を用意し、この位置検出用のパターン画像を撮影した撮影画像をm=1番目の撮影画像として用いて、目印画像の位置検出だけを最初に検出するようにしてもよい。検出しやすい色の目印画像を有する位置検出用のパターン画像とは、目印画像の位置を検出するためのみに用いられる画像であり、例えば、黒の背景に白色の目印画像を有する画像のように、背景とのコントラストが強い画像等である。
なお、図17のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
In order to make it easy to detect a mark image, a position image is prepared in advance, which has the same position as the other pattern images and a mark image with a color that is easy to detect. Only the position detection of the landmark image may be detected first using the captured image obtained by capturing the pattern image for use as the first captured image m = 1. A pattern image for position detection having a mark image of a color that is easy to detect is an image that is used only for detecting the position of the mark image, such as an image having a white mark image on a black background. An image having a strong contrast with the background.
In the flowchart of FIG. 17, the process ends when the power is turned off or the process ends.

次に、図18のフローチャートを用いて、ステップS1607に示した補正パラメータを検出する処理の詳細について説明する。
(ステップS1801)対応情報取得部306は、カウンタiに1を代入する。
Next, details of the process of detecting the correction parameter shown in step S1607 will be described using the flowchart of FIG.
(Step S1801) The correspondence information acquisition unit 306 substitutes 1 for a counter i.

(ステップS1802)対応情報取得部306は、撮影画像内のi番目の目印画像が表示された位置について、目印画像の色の出現パターンを取得する。具体的には、図17のステップS1706において取得した撮影画像内のパターン画像の配列される順番を示す情報にそって、複数の撮影画像を配列した場合における、撮影画像内のi番目の目印画像が表示された位置について、目印画像の色の出現パターン、ここでは例として、各目印画像の色を2値化した値の現れる順列を取得する。例えば、仮に1番目のパターン画像を撮影した撮影画像内のi番目の目印画像が表示された位置の色が「0」、2番目のパターン画像を撮影した撮影画像内のi番目の目印画像が表示された位置の色が「1」、3番目のパターン画像を撮影した撮影画像内のi番目の目印画像が表示された位置の色が「0」であったとすると、1番目から3番目までのパターン画像を撮影した撮影画像について、対応情報取得部306が取得するi番目の目印画像が表示された位置における色の出現パターンは、「010」となる。   (Step S1802) The correspondence information acquisition unit 306 acquires the appearance pattern of the color of the landmark image at the position where the i-th landmark image is displayed in the captured image. Specifically, the i-th mark image in the captured image when a plurality of captured images are arranged in accordance with the information indicating the order in which the pattern images in the captured image obtained in step S1706 in FIG. 17 are arranged. For the position where is displayed, the appearance pattern of the color of the landmark image, here, as an example, the permutation in which the value obtained by binarizing the color of each landmark image appears. For example, the color at the position where the i-th landmark image in the captured image obtained by capturing the first pattern image is “0”, and the i-th landmark image in the captured image obtained by capturing the second pattern image. If the color at the displayed position is “1” and the color at the position at which the i-th mark image is displayed in the captured image obtained by photographing the third pattern image is “0”, the first to third colors For the captured image obtained by capturing the pattern image, the color appearance pattern at the position where the i-th landmark image acquired by the correspondence information acquisition unit 306 is displayed is “010”.

(ステップS1803)対応情報取得部306は、対応管理情報格納部307に格納されているオリジナルの複数のパターン画像における目印画像の位置と、目印画像の色の出現パターンとの対応関係を示す対応管理情報を用いて、撮影画像内のi番目の目印画像が表示された位置における目印画像の色の出現パターンに対応するパターン画像内の目印画像の位置を取得する。具体的には、対応情報取得部306は、撮影画像内のi番目の目印画像が表示された位置における目印画像の色の出現パターンと一致する出現パターンを対応管理情報内で検索し、この一致する出現パターンに対応するパターン画像における目印画像の位置の情報を取得する。   (Step S1803) The correspondence information acquisition unit 306 is a correspondence management that indicates a correspondence relationship between the position of the landmark image in the plurality of original pattern images stored in the correspondence management information storage unit 307 and the color appearance pattern of the landmark image. Using the information, the position of the mark image in the pattern image corresponding to the color appearance pattern of the mark image at the position where the i-th mark image in the captured image is displayed is acquired. Specifically, the correspondence information acquisition unit 306 searches the correspondence management information for an appearance pattern that matches the appearance pattern of the color of the landmark image at the position where the i-th landmark image in the captured image is displayed. Information on the position of the mark image in the pattern image corresponding to the appearance pattern to be acquired is acquired.

(ステップS1804)対応情報取得部306は、撮影画像内のi番目の目印画像が表示された位置、具体的には座標情報等の位置の情報と、ステップS1803において取得した、画像格納部301内に格納されているパターン画像内の目印画像が表示される位置、具体的には座標情報等の位置の情報とを対応付けた対応情報を取得する。
(ステップS1805)対応情報取得部306は、ステップS1804において取得した対応情報を出力、例えば、メモリ等の記憶媒体に蓄積する。
(ステップS1806)対応情報取得部306は、カウンタiを1インクリメントする。
(ステップS1807)対応情報取得部306は、撮影画像に対してi番目の位置情報があるか否かを判断する。i番目の位置情報がある場合、ステップS1802に戻り、i番目の位置情報がない場合、ステップS1808に戻る。
(Step S1804) The correspondence information acquisition unit 306 includes information on the position where the i-th mark image in the photographed image is displayed, specifically the position information such as coordinate information, and the information stored in the image storage unit 301 acquired in step S1803. Correspondence information is obtained by associating the position where the landmark image stored in the pattern image is stored, specifically the position information such as coordinate information.
(Step S1805) The correspondence information acquisition unit 306 outputs the correspondence information acquired in step S1804, for example, stores it in a storage medium such as a memory.
(Step S1806) The correspondence information acquisition unit 306 increments the counter i by 1.
(Step S1807) The correspondence information acquisition unit 306 determines whether there is i-th position information with respect to the captured image. If there is i-th position information, the process returns to step S1802. If there is no i-th position information, the process returns to step S1808.

(ステップS1808)色情報取得手段3081は、画像格納部301に格納されているパターン情報の目印情報の色の情報と、当該パターン情報を撮影した撮影情報内のパターン情報の目印情報に対して対応情報で対応付けられた目印情報の色の情報とをそれぞれ取得する。すなわち、配列順番が同じパターン画像と撮影画像からそれぞれ対応する目印画像の色の情報を取得する。ここで取得する色の情報は例えば色の成分の値である。ここでは一対の目印情報の色の情報のみを取得してもよいし、パターン画像内の複数の目印情報の色の情報と、この複数の目印情報に対応する撮影情報内の複数の目印情報の色の情報とをそれぞれ取得してもよい。   (Step S1808) The color information acquisition unit 3081 responds to the color information of the mark information of the pattern information stored in the image storage unit 301 and the mark information of the pattern information in the shooting information obtained by photographing the pattern information. Information on the color of the mark information associated with the information is acquired. That is, the color information of the corresponding mark image is acquired from the pattern image and the captured image having the same arrangement order. The color information acquired here is, for example, the value of the color component. Here, only the color information of the pair of landmark information may be acquired, or the color information of the plurality of landmark information in the pattern image and the plurality of landmark information in the shooting information corresponding to the plurality of landmark information. Each of the color information may be acquired.

(ステップS1809)色補正情報取得手段3082は、ステップS1808において取得した色情報を用いて、撮影画像内のパターン画像の色の情報を、パターン画像のオリジナルの色の情報に補正するための関数である色補正関数の係数等の情報である色補正情報を算出する。なお、ステップS1808において、複数の位置の色の情報を取得した場合、最小二乗法等を用いて色補正情報を算出してもよい。
(ステップS1810)色補正情報取得手段3082は、ステップS1809において算出した色補正情報を補正パラメータ格納部106に蓄積する。
(Step S1809) The color correction information acquisition unit 3082 is a function for correcting the color information of the pattern image in the photographed image to the original color information of the pattern image using the color information acquired in Step S1808. Color correction information which is information such as a coefficient of a certain color correction function is calculated. Note that in step S1808, when color information of a plurality of positions is acquired, the color correction information may be calculated using a least square method or the like.
(Step S1810) The color correction information acquisition unit 3082 accumulates the color correction information calculated in step S1809 in the correction parameter storage unit.

(ステップS1811)位置補正情報取得手段3083は、ステップS1804において取得された対応情報を用いて、撮影画像内のパターン画像の位置の情報と、パターン画像のオリジナルの位置の情報との関係を示す関数である位置補正関数の係数等の情報である位置補正情報を算出する。位置補正関数としては、公知の位置補正関数が利用可能である。
(ステップS1812)位置補正情報取得手段3083は、ステップS1811において算出した位置補正情報を補正パラメータ格納部106に蓄積する。そして、処理を終了する。
なお、図18のフローチャートは、電源オフや処理終了の割り込みにより処理を終了する。
(Step S1811) The position correction information acquisition unit 3083 uses the correspondence information acquired in step S1804, and shows a function indicating the relationship between the position information of the pattern image in the captured image and the information of the original position of the pattern image. Position correction information which is information such as a coefficient of the position correction function is calculated. A known position correction function can be used as the position correction function.
(Step S1812) The position correction information acquisition unit 3083 accumulates the position correction information calculated in step S1811 in the correction parameter storage unit. Then, the process ends.
In the flowchart of FIG. 18, the process is terminated by powering off or a process termination interrupt.

以下、本実施の形態における画像処理装置の具体的な動作について説明する。画像処理装置300の概念図を図19に示す。ここでは、例として、画像処理装置300が、表示部302の表示デバイスであるディスプレイ302aと撮影部303以外は、コンピュータ300aにより実現されている場合について説明する。ただし、ディスプレイ302aと撮影部303以外もハードウェア等で実現されていてもよい。例えば、この画像処理装置300は、上記実施の形態1の図5と同様にテレビ会議端末を構成しているものとする。
ここでは、各パターン画像内の目印画像が、それぞれ2色のいずれか一方の色を有するものとする。目印画像の形状は円形であるとする。また、ここでは例として、パターン画像のサイズは、表示部302に通常表示される他の画像のサイズ、例えばテレビ会議等の画像のサイズと同じサイズであるとする。
Hereinafter, a specific operation of the image processing apparatus according to the present embodiment will be described. A conceptual diagram of the image processing apparatus 300 is shown in FIG. Here, as an example, a case will be described in which the image processing apparatus 300 is realized by a computer 300a other than the display 302a and the photographing unit 303 which are display devices of the display unit 302. However, hardware other than the display 302a and the photographing unit 303 may be realized. For example, it is assumed that this image processing apparatus 300 constitutes a video conference terminal as in FIG. 5 of the first embodiment.
Here, it is assumed that the mark image in each pattern image has one of two colors. The shape of the mark image is assumed to be circular. Here, as an example, it is assumed that the size of the pattern image is the same as the size of other images normally displayed on the display unit 302, for example, the size of an image such as a video conference.

図20は、パターン画像別の目印画像の色の組み合わせを管理するパターン画像色管理表である。パターン画像色管理表は、「パターンID」、「0:カラー」、「1:カラー」という属性を有している。「パターンID」は対応するパターン画像の識別情報である。このパターンIDはパターン画像の配列順も示しているものとする。「0:カラー」は、2値化の際に「0」と判断される色を示す。「1:カラー」は2値化の際に「0」と判断される色を示す。「0:カラー」、「1:カラー」がパターン画像の目印画像の2つの色を示す。ここでは例として、目印画像の色はRGB成分の組み合わせにより表されているとともに、RGB成分をそれぞれ2値化した値「0」、または「1」で示している。   FIG. 20 is a pattern image color management table for managing the color combinations of the mark images for each pattern image. The pattern image color management table has attributes of “pattern ID”, “0: color”, and “1: color”. “Pattern ID” is identification information of a corresponding pattern image. This pattern ID also indicates the order of arrangement of pattern images. “0: Color” indicates a color that is determined to be “0” during binarization. “1: Color” indicates a color determined to be “0” in binarization. “0: Color” and “1: Color” indicate two colors of the mark image of the pattern image. Here, as an example, the color of the mark image is represented by a combination of RGB components, and the RGB components are represented by binary values “0” or “1”, respectively.

例えば、目印画像のR,G,Bの色成分が、それぞれ実際には8ビットで表されていたとすると、R,G,Bの色成分の値が256である場合に、それぞれの成分を「1」で表し、256未満である場合、それぞれの成分を「0」で表している。すなわち、「0:カラー」および「1:カラー」は、それぞれ、R成分とG成分とB成分と2値の値の配列で表される。例えば、赤色は、(100)、青色は、(010)、緑色は、(001)で表される。なお、ここでは、各色成分を、「256」を閾値として2値化したが、閾値は「256」でなくてもよい。   For example, if the R, G, and B color components of the landmark image are actually represented by 8 bits, when the R, G, and B color component values are 256, the respective components are expressed as “ When it is represented by “1” and less than 256, each component is represented by “0”. That is, “0: color” and “1: color” are represented by an array of R values, G components, B components, and binary values, respectively. For example, red is represented by (100), blue is represented by (010), and green is represented by (001). Here, each color component is binarized with “256” as a threshold value, but the threshold value may not be “256”.

図20においては、例えば、「パターンID」が「1」であるパターン画像には、(001)と(010)の2つの色が目印画像として用いられていることを示している。なお、ここでは、パターン画像の目印画像以外の領域、すなわち背景画像の色は黒色(000)であるとする。
また、各パターン画像内においては、A(Aは2以上の整数)個の目印画像が互いに重ならないように配置されており、各パターン画像間においては、A個の目印画像が同じ位置に配置されているものとする。また、パターン画像を予め設定された順番に配列した場合に、パターン画像内の目印画像が配置されている各位置に出現する目印画像の色の出現パターンは、位置毎に互いに異なるものであるとする。
In FIG. 20, for example, two color (001) and (010) are used as a mark image in a pattern image whose “pattern ID” is “1”. Here, it is assumed that the area other than the mark image of the pattern image, that is, the color of the background image is black (000).
In each pattern image, A (A is an integer of 2 or more) mark images are arranged so as not to overlap each other, and A mark images are arranged at the same position between the pattern images. It is assumed that Further, when the pattern images are arranged in a preset order, the appearance pattern of the color of the mark image appearing at each position where the mark image is arranged in the pattern image is different from each other for each position. To do.

すなわち、このような条件を満たすためには、パターン画像数をB(Bは2以上の整数)とした場合、   That is, in order to satisfy such a condition, when the number of pattern images is B (B is an integer of 2 or more),

≧A 2 B ≧ A

の関係を満たしているようにする。この具体例においては、A=64個の目印画像が配置されたパターン画像がB=6枚用意されている場合について説明する。また、ここでは、各目印画像が例えば100ピクセル間隔で配置されているものとする。また、各目印画像の直径は例えば10ピクセルであるとする。   To satisfy the relationship. In this specific example, a case will be described in which B = 6 pattern images in which A = 64 mark images are arranged are prepared. Here, it is assumed that the mark images are arranged at intervals of 100 pixels, for example. Further, it is assumed that the diameter of each mark image is 10 pixels, for example.

ここで利用される6枚のパターン画像を図21に模式的に示す。ここでは、各パターン画像の目印画像の色をそれぞれ図20に示したパターン画像色管理表を用いて2値化した色で表している。すなわち、例えば、図21においては、「パターンID」が「2」のパターン画像については、(001)の色を「0」、(010)の色を「1」に置き換えて示している。図21に示したパターン画像においては、パターン画像を「パターンID」の値の昇順に配列した場合、例えば、右上隅の目印画像の配置された位置における色の出現パターンは、「000111」となる。   FIG. 21 schematically shows six pattern images used here. Here, the color of the mark image of each pattern image is represented by a binarized color using the pattern image color management table shown in FIG. That is, for example, in FIG. 21, for the pattern image whose “pattern ID” is “2”, the color of (001) is replaced with “0” and the color of (010) is replaced with “1”. In the pattern image shown in FIG. 21, when the pattern images are arranged in ascending order of the “pattern ID” values, for example, the color appearance pattern at the position where the mark image in the upper right corner is arranged is “000111”. .

各パターン画像の各目印画像が配置される位置は、パターン画像内の座標情報で表される。ここで、図21に示したようパターン画像を「パターンID」の値の昇順に配列した場合における、目印画像の配置される位置の情報と、目印画像の色の出現パターンとの関係を示す情報である対応管理情報を図22に示す。対応管理情報は、「座標」と「出現パターン」という属性を有している。「座標」は、各パターン画像内の目印画像の表示される位置であり、ここでは目印画像の中心の座標情報を示す。また、「出現パターン」は、パターン画像毎に2値化した色の出現パターンを示す。   The position where each mark image of each pattern image is arranged is represented by coordinate information in the pattern image. Here, when the pattern images are arranged in ascending order of the “pattern ID” values as shown in FIG. 21, the information indicating the relationship between the information on the position where the mark image is arranged and the appearance pattern of the color of the mark image The correspondence management information is shown in FIG. The correspondence management information has attributes of “coordinates” and “appearance pattern”. The “coordinate” is a position where the mark image in each pattern image is displayed, and here indicates coordinate information of the center of the mark image. The “appearance pattern” indicates a color appearance pattern binarized for each pattern image.

まず、補正パラメータを取得する指示を、画像処理装置300に対して図示しない受付部等を介して与えると、表示部302は、パターン画像のうちの1番目に表示するパターン画像を画像格納部301から読み出し、ディスプレイ302aに表示する。
図23は、ディスプレイ302aに表示した1番目のパターン画像の表示例を示す図である。ここでは1番目のパターン画像として、「パターンID」が「3」であるパターン画像を表示しているものとする。目印画像231は、色が「0:カラー」属性に相当する色(001)である目印画像とし、目印画像232は、色が「1:カラー」属性に相当する色(100)である目印画像であるとする。
First, when an instruction to acquire a correction parameter is given to the image processing apparatus 300 via a reception unit (not shown) or the like, the display unit 302 displays a pattern image to be displayed first among the pattern images in the image storage unit 301. Is read out and displayed on the display 302a.
FIG. 23 is a diagram illustrating a display example of the first pattern image displayed on the display 302a. Here, it is assumed that a pattern image whose “pattern ID” is “3” is displayed as the first pattern image. The landmark image 231 is a landmark image whose color is a color (001) corresponding to the “0: color” attribute, and the landmark image 232 is a landmark image whose color is a color (100) corresponding to the “1: color” attribute. Suppose that

撮影部303は、表示部302がディスプレイ302aに表示したパターン画像を撮影し、撮影した画像を撮影する。撮影した画像である撮影画像は、画像受付部104により受け付けられ撮影画像格納部304に蓄積される。ここでは撮影し蓄積した画像は、動画像の1フレームであるとする。各パターン画像の表示時間は、撮影部303が撮影を完了できる時間であれば問わない。   The imaging unit 303 captures the pattern image displayed on the display 302a by the display unit 302 and captures the captured image. A captured image that is a captured image is received by the image receiving unit 104 and accumulated in the captured image storage unit 304. Here, it is assumed that an image captured and accumulated is one frame of a moving image. The display time of each pattern image is not limited as long as the photographing unit 303 can complete photographing.

図24は、撮影部303が撮影した図23に示すようにディスプレイ302aに表示されたパターン画像を撮影した撮影画像を示す図である。
1番目のパターン画像の表示、および撮影が終了すると、さらに残りのパターン画像も順次表示、および撮影が行われる。なお、表示部302が表示するパターン画像の表示順番と、上述した「パターンID」の順番とは一致している必要はない。ここでは、電源の投入をトリガとしてパターン画像の表示を開始したが、表示開始のトリガ等は問わない。
FIG. 24 is a diagram illustrating a captured image obtained by capturing the pattern image displayed on the display 302 a as illustrated in FIG. 23 captured by the capturing unit 303.
When the display and shooting of the first pattern image are completed, the remaining pattern images are also sequentially displayed and shot. The display order of the pattern images displayed on the display unit 302 and the order of the “pattern ID” described above do not have to match. Here, the display of the pattern image is started with the power-on as a trigger, but the display start trigger or the like is not limited.

次に、目印画像検出部305は、図24に示すような撮影画像の一つ、ここでは一番目に表示されたパターン画像を撮影した撮影画像を読み出し、目印画像を検出する処理を行う。ここでは、目印画像に使用される色が、(001)、(011)、(100)、(110)、(101)、(111)のいずれかであることが分かっているため、撮影画像の各画素について、上記のいずれかの色に相当するか否かを順次判断して、上記のいずれか一つの色に相当する色を有する画素が隣接する領域を検出する。   Next, the landmark image detection unit 305 reads one of the photographed images as shown in FIG. 24, here, the photographed image obtained by photographing the pattern image displayed at the first, and performs a process of detecting the landmark image. Here, since it is known that the color used for the mark image is any one of (001), (011), (100), (110), (101), and (111), For each pixel, it is sequentially determined whether or not it corresponds to any one of the above colors, and a region adjacent to a pixel having a color corresponding to any one of the above colors is detected.

なお、ディスプレイ302aの表示領域以外の部分の色に起因する目印画像の誤検出を防ぐためには、予めディスプレイ302aの表示領域を、ディスプレイの枠や背景等を検出することで検出したり、表示領域についての指定を入力デバイス等を介して受け付けることにより、この表示領域内のみについて、目印画像の検出を行うようにしてもよい。ただし、撮影画像は、パターン画像を一旦ディスプレイ302aに表示した画像を撮影部303で撮影したものであるため、撮影画像内のパターン画像の目印画像の色は、オリジナルのパターン画像の色とは色成分の値が異なっていることが考えられる。このため、ここでは、このような色の変化を考慮した色成分毎の閾値を指定して、この閾値により、撮影画像内の画素の色成分を2値化して、上記の目印画像の色であるか否かを判断するようにする。   In order to prevent erroneous detection of the mark image due to the color of the part other than the display area of the display 302a, the display area of the display 302a is detected in advance by detecting the frame or background of the display, or the display area. The mark image may be detected only in the display area by accepting the designation about the image via an input device or the like. However, since the photographed image is an image obtained by temporarily displaying the pattern image on the display 302a by the photographing unit 303, the color of the mark image of the pattern image in the photographed image is different from the color of the original pattern image. It is conceivable that the component values are different. For this reason, here, a threshold value for each color component in consideration of such a color change is designated, and the color component of the pixel in the photographed image is binarized by this threshold value, and the color of the mark image described above is used. Judge whether there is.

例えば、R,G,B成分のそれぞれの閾値を「180」に設定して、各画素のそれぞれの色成分について、「180」以上のものを「1」、「180」未満のものを「0」に変換し、画素が、上記のいずれかの色と一致するか否かを判断する。例えば、R,G,B成分がそれぞれ13,40,150であった場合、その画素の色は(000)に変換され、上記のいずれの色にも一致しないため、目印画像を構成する画素でないと判断される。また、例えば、R,G,B成分がそれぞれ230,80,192であった場合、その画素の色は(101)に変換され、上記の色の一つに一致するため、目印画像を構成する画素であると判断される。そして、同じ色に判断される画素が隣接する領域を、それぞれ目印画像の領域と判断して、その領域の中心の画素の座標と目印画像の色の値とを図示しないメモリ等の記憶媒体に蓄積する。なお、目印画像の中心の画素の座標は、ここでは、目印画像のx軸方向の長さが最も長い径と、y軸方向の長さが最も長い径との交わる位置の画素の座標に設定される。   For example, the respective threshold values of the R, G, and B components are set to “180”, and “1” is set to “180” or more and “0” is set to less than “180” for each color component of each pixel. To determine whether the pixel matches any of the above colors. For example, when the R, G, and B components are 13, 40, and 150, respectively, the color of the pixel is converted to (000) and does not match any of the above colors. It is judged. For example, if the R, G, and B components are 230, 80, and 192, respectively, the color of the pixel is converted to (101) and matches one of the above colors, so that a landmark image is formed. It is determined to be a pixel. Then, the areas adjacent to the pixels determined to be the same color are determined as mark image areas, and the coordinates of the center pixel of the area and the color value of the mark image are stored in a storage medium such as a memory (not shown). accumulate. Here, the coordinates of the pixel at the center of the mark image are set to the coordinates of the pixel at the position where the diameter of the mark image in the x-axis direction is the longest and the diameter in the y-axis direction is the longest. Is done.

さらに、一の撮影画像について目印画像を検出している際に、目印画像が取り得る2つの色が検出された場合、この2つの色を図20に示したパターン画像色管理表の管理している色の組み合わせ、すなわち「0:カラー」と「1:カラー」との組み合わせと比較して、一致するレコードの「パターンID」の属性値を取得する。すなわち、撮影画像は、取得された「パターンID」の属性値に対応付けられたパターン画像を撮影した画像であると判断されることとなる。例えば、二つの目印画像の色が、(001)と(100)であった場合、図20のパターン画像色管理表から「パターンID」の値として「3」が取得される。そして、この取得した「パターンID」の属性値を、同じ撮影画像から検出した全ての目印画像の位置等を示す情報に対応付けて蓄積する。さらに、目印画像検出部305は、図20のパターン画像色管理表を用いて、目印画像の二つの色を、2値化する。   Furthermore, if two colors that can be taken by the mark image are detected while detecting the mark image for one photographed image, the two colors are managed by the pattern image color management table shown in FIG. The attribute value of the “pattern ID” of the matching record is acquired by comparing with the combination of existing colors, that is, the combination of “0: color” and “1: color”. That is, the photographed image is determined to be an image obtained by photographing the pattern image associated with the acquired “pattern ID” attribute value. For example, when the colors of the two mark images are (001) and (100), “3” is acquired as the value of “pattern ID” from the pattern image color management table of FIG. Then, the acquired attribute value of “pattern ID” is stored in association with information indicating the positions and the like of all the landmark images detected from the same captured image. Further, the landmark image detection unit 305 binarizes the two colors of the landmark image using the pattern image color management table of FIG.

具体的には、ここでは、二つの目印画像の色が(001)と(100)であり、この二つの色の組み合わせを含むレコード、すなわち「パターンID」の属性値が「3」であるレコードでは、(001)は「0:カラー」属性であり、(100)は「1:カラー」属性であることから、(001)は、「0」に変換され、(100)は「1」に変換される。そして、この2値化した色の値も、同じ撮影画像から検出した全ての目印画像の位置等を示す情報に対応付けて蓄積する。   Specifically, here, the colors of the two landmark images are (001) and (100), and the record includes a combination of the two colors, that is, the record whose attribute value of “pattern ID” is “3”. Since (001) is a “0: color” attribute and (100) is a “1: color” attribute, (001) is converted to “0” and (100) is changed to “1”. Converted. The binarized color values are also stored in association with information indicating the positions and the like of all the landmark images detected from the same photographed image.

次に、他の5つの撮影画像、ここでは、「パターンID」が「3」を除くパターン画像を撮影した撮影画像についても、それぞれ上記と同様の処理を繰り返す。ただし、ここでは、パターン画像の撮影の際において、撮影部303等の撮影方向や撮影領域等が固定されているため、目印画像を検出する処理は省略し、一番目の撮影画像について検出した目印画像の領域を示す情報を、そのまま他の撮影画像の目印画像の領域を示す情報として利用する。従って、異なる撮影画像の、同じ位置の目印画像の位置を示す座標は同じ値となる。   Next, the same processing as described above is repeated for the other five photographed images, in this case, the photographed images obtained by photographing the pattern images except for “pattern ID” “3”. However, here, since the shooting direction, shooting area, and the like of the shooting unit 303 are fixed when the pattern image is shot, the process of detecting the mark image is omitted, and the mark detected for the first shot image is detected. Information indicating the area of the image is directly used as information indicating the area of the mark image of another captured image. Therefore, the coordinates indicating the position of the mark image at the same position in different captured images have the same value.

図25は、撮影画像から検出された目印画像の位置や色等を管理する目印画像管理表である。目印画像管理表においては、「パターンID」、「座標」、「色」、「2値化色」である。「パターンID」は、一の撮影画像において検出された目印画像に使用されている2つの色の組み合わせを用いて得られた「パターンID」である。「座標」は、目印画像の位置を目印画像の中心座標で示した値である。ここでは、座標を画像の左上隅を(0,0)として、ピクセル単位のxy座標値で表している。「色」は目印画像の色を二値化した色成分で表した値である。「2値化色」は、目印画像の色を図20に示したパターン画像色管理表に基づいて、撮影したパターン画像に応じて2値化した値である。なお、「座標」の値は説明のための値であり、実際の値等とは異なるものとする。   FIG. 25 is a mark image management table for managing the position and color of the mark image detected from the photographed image. In the mark image management table, they are “pattern ID”, “coordinate”, “color”, and “binarized color”. “Pattern ID” is a “pattern ID” obtained by using a combination of two colors used in a landmark image detected in one captured image. The “coordinate” is a value indicating the position of the mark image with the center coordinates of the mark image. Here, the coordinates are represented by xy coordinate values in pixel units, where the upper left corner of the image is (0, 0). “Color” is a value represented by a color component obtained by binarizing the color of the mark image. The “binarized color” is a value obtained by binarizing the color of the mark image in accordance with the photographed pattern image based on the pattern image color management table shown in FIG. Note that the value of “coordinate” is a value for explanation, and is different from an actual value or the like.

次に、対応情報取得部306は、目印画像検出部305が検出した目印画像が配置されている位置毎に、目印画像の色を二値化した値、すなわち図25の「2値化色」の属性値を、対応する「パターンID」属性の昇順に並べた配列パターンを取得する。この配列パターンが、撮影画像内における各目印画像の配置される位置における色の出現パターンである。対応情報取得部306は取得した出現パターンを、目印画像の位置、ここでは座標と対応付けてメモリ等に一時記憶する。例えば、座標(120,140)の位置において得られる出現パターンは、「010010」となる。   Next, the correspondence information acquisition unit 306 binarizes the color of the mark image at each position where the mark image detected by the mark image detection unit 305 is arranged, that is, “binary color” in FIG. An array pattern in which the attribute values are arranged in ascending order of the corresponding “pattern ID” attribute is acquired. This arrangement pattern is a color appearance pattern at a position where each mark image is arranged in the photographed image. The correspondence information acquisition unit 306 temporarily stores the acquired appearance pattern in a memory or the like in association with the position of the mark image, here the coordinates. For example, the appearance pattern obtained at the position of the coordinates (120, 140) is “010010”.

図26は、メモリ等に一時記憶された撮影画像における目印画像の位置と色の出現パターンとを管理する出現パターン管理表である。出現パターン管理表は「目印位置ID」、「座標」、「撮影出現パターン」という属性を有している。「目印位置ID」は、各目印画像の配置される位置を管理するための識別情報、「座標」は、目印画像の配置される位置の座標、ここでは目印画像の中心の画素の座標、「撮影出現パターン」は、2値化した色の値を「パターンID」属性の昇順に並べたパターンである。   FIG. 26 is an appearance pattern management table for managing the position of the mark image and the color appearance pattern in the captured image temporarily stored in the memory or the like. The appearance pattern management table has attributes of “marking position ID”, “coordinates”, and “shooting appearance pattern”. “Mark position ID” is identification information for managing the position where each mark image is arranged, “Coordinate” is the coordinate of the position where the mark image is arranged, here the coordinates of the center pixel of the mark image, “ The “photographing appearance pattern” is a pattern in which binarized color values are arranged in ascending order of the “pattern ID” attribute.

ここで、対応管理情報格納部307には、図22に示したような対応管理情報が予め格納されているものとする。この対応管理情報は、ユーザにより設定されたものであってもよいし、パターン画像から、上記のような目印画像検出部305および対応情報取得部306等を用いて、上記と同様の処理により取得した情報であってもよい。
対応情報取得部306は、図26に示したような出現パターン管理表の各レコードについて、「撮影出現パターン」の属性値と、一致する「出現パターン」属性値を有するレコードを、図22に示した対応管理情報において検索する。そして、一致するレコードの「座標」属性値と、出現パターン管理表の「座標」属性値とを対応付けていく。そして、対応付けて得られた対応情報を、対応情報取得部306が図示しないメモリ等の記憶媒体に蓄積する。
Here, it is assumed that correspondence management information as illustrated in FIG. 22 is stored in the correspondence management information storage unit 307 in advance. This correspondence management information may be set by the user, or obtained from the pattern image by the same process as described above using the landmark image detection unit 305 and the correspondence information acquisition unit 306 as described above. May be the information.
The correspondence information acquisition unit 306 shows, for each record in the appearance pattern management table as shown in FIG. 26, a record having an attribute value of “appearance pattern” that matches the attribute value of “shooting appearance pattern” in FIG. Search in correspondence management information. Then, the “coordinate” attribute value of the matching record is associated with the “coordinate” attribute value of the appearance pattern management table. Then, the correspondence information obtained by the association is stored in a storage medium such as a memory (not shown) by the correspondence information acquisition unit 306.

図27は、出力部109が出力する対応情報を示す図である。対応情報は、「オリジナル座標」と「撮影画像内座標」という属性を有している。「オリジナル座標」は、オリジナル、すなわち画像格納部301に格納されているパターン画像内における目印画像が配置される座標である。「撮影画像内座標」は、撮影画像内において、「オリジナル座標」に配置された目印画像が配置されている位置を示す座標である。同じレコードの「オリジナル座標」と「撮影画像内座標」とが互いに対応している座標である。すなわち、撮影画像のパターン画像が表示されている部分は、「オリジナル座標」の示す座標を、「撮影画像内座標」が示す座標に座標変換して得られる画像であると考えることができる。   FIG. 27 is a diagram illustrating correspondence information output by the output unit 109. The correspondence information has attributes of “original coordinates” and “in-photographed image coordinates”. “Original coordinates” are coordinates at which the mark image in the original, that is, the pattern image stored in the image storage unit 301 is arranged. “Coordinates in photographed image” is coordinates indicating the position where the mark image arranged at “original coordinates” is arranged in the photographed image. “Original coordinates” and “coordinates in captured image” of the same record correspond to each other. That is, it can be considered that the portion of the captured image where the pattern image is displayed is an image obtained by converting the coordinates indicated by the “original coordinates” into the coordinates indicated by the “coordinates in the captured image”.

次に、色情報取得手段3081は、パターン画像の一つと、当該パターン画像を撮影した撮影画像とから、それぞれ、対応情報が示している対応している目印画像の座標の色情報を取得する。具体的には、パターン画像からは対応情報の各レコードの「オリジナル座標」が示す座標の画素の色情報を取得し、撮影画像からは「オリジナル座標」と同一のレコードの「撮影画像内座標」が示す座標の画素の色情報をそれぞれ取得する。ここで取得する色情報は、色の補正のために用いられる情報であるため、R,G,B成分のそれぞれの成分値、色が24ビットカラーで表される場合、例えば8ビットの値、である必要がある。そして、色情報取得手段3081がパターン画像と撮影画像とからそれぞれ取得した対応する座標の色を用いて、色補正情報取得手段3082が、撮影画像の色をオリジナルのパターン画像の色に補正するための、色を補正する関数である色補正関数のパラメータである色補正情報を算出する。   Next, the color information acquisition unit 3081 acquires the color information of the coordinates of the corresponding mark image indicated by the corresponding information from one of the pattern images and the captured image obtained by capturing the pattern image. Specifically, the color information of the pixel at the coordinate indicated by the “original coordinate” of each record of the correspondence information is acquired from the pattern image, and the “coordinate in the captured image” of the same record as the “original coordinate” is acquired from the captured image. The color information of the pixel at the coordinates indicated by is acquired. Since the color information acquired here is information used for color correction, each component value of the R, G, and B components, when the color is expressed in 24-bit color, for example, an 8-bit value, Need to be. Then, the color correction information acquisition unit 3082 corrects the color of the captured image to the color of the original pattern image by using the color of the corresponding coordinates respectively acquired by the color information acquisition unit 3081 from the pattern image and the captured image. The color correction information that is a parameter of the color correction function that is a function for correcting the color is calculated.

例えば、このような色補正関数は、上記実施の形態1において具体例において説明した色補正情報と同じものが用いられるとする。すなわち、撮影画像の画素値を(r,g,b)、オリジナルのパターン画像の対応する画素値を(R,G,B)とすると、   For example, such a color correction function is assumed to be the same as the color correction information described in the specific example in the first embodiment. That is, if the pixel value of the captured image is (r, g, b) and the corresponding pixel value of the original pattern image is (R, G, B),

R=ar+ag+ab、
G=br+ag+ab、
B=cr+ag+a
R = a 1 r + a 2 g + a 3 b,
G = b 1 r + a 2 g + a 3 b,
B = c 1 r + a 2 g + a 3 b

で表される。なお、a〜a、b〜b、c〜cは、色補正関数の係数、すなわち色補正情報である。 It is represented by Note that a 1 to a 3 , b 1 to b, and c 1 to c 3 are coefficients of a color correction function, that is, color correction information.

この色補正関数に対して、色情報取得手段3081が取得したパターン画像と撮影画像の、対応している画素の色情報を代入して係数の値を求めることで、撮影画像の色をオリジナルのパターン画像の色に補正するための色補正関数を得ることができる。色補正情報取得手段3082は、取得した色補正関数の係数を、色補正情報として補正パラメータ格納部106に蓄積する。ここでは、4箇所以上の対応する画素の色情報を、色情報取得手段3081が取得するための、上記の係数を算出する際に最小二乗法等を用いることが好適である。   By substituting the color information of the corresponding pixels of the pattern image and the captured image acquired by the color information acquisition unit 3081 for this color correction function, the value of the coefficient is obtained, whereby the color of the captured image is changed to the original color. A color correction function for correcting the color of the pattern image can be obtained. The color correction information acquisition unit 3082 accumulates the acquired coefficient of the color correction function in the correction parameter storage unit 106 as color correction information. Here, it is preferable to use the least square method or the like when calculating the above-described coefficient for the color information acquisition unit 3081 to acquire color information of corresponding pixels at four or more locations.

ただし、ここで示した色補正関数を得るためには、通常は色の異なる3箇所の対応する画素の色情報が必要となる。この色補正関数を用いることで、撮影画像全体の色を、オリジナルのパターン画像と同様の色に補正可能となる。すなわち、表示部302により表示される画像と、撮影部303が撮影した画像内において表示部に表示された画像との色をあわせることが可能となる。なお、ここでは色補正関数として、撮影画像の色をパターン画像の色に補正する関数を用いた場合について説明したが、用途によっては、パターン影画像の色を撮影画像の色に補正する関数を用いるようにしてもよい。   However, in order to obtain the color correction function shown here, the color information of the corresponding pixels at three different positions is usually required. By using this color correction function, the color of the entire captured image can be corrected to the same color as the original pattern image. That is, it is possible to match the colors of the image displayed on the display unit 302 and the image displayed on the display unit in the image captured by the imaging unit 303. Here, the case where the function for correcting the color of the captured image to the color of the pattern image has been described as the color correction function. However, depending on the application, a function for correcting the color of the pattern shadow image to the color of the captured image may be used. You may make it use.

次に、位置補正情報取得手段3083は、対応情報を用いて、位置を補正する関数である位置補正関数のパラメータである位置補正情報を取得する。例えば、ここで用いられる位置補正関数は、上記実施の形態1において具体例において説明した位置補正情報と同じものが用いられるとする。すなわち、撮影画像内の画素の位置を(x、y)、オリジナルのパターン画像内の画素の位置を(X,Y)とすると、位置補正関数は、   Next, the position correction information acquisition unit 3083 acquires position correction information that is a parameter of a position correction function that is a function for correcting the position, using the correspondence information. For example, it is assumed that the position correction function used here is the same as the position correction information described in the specific example in the first embodiment. That is, if the pixel position in the captured image is (x, y) and the pixel position in the original pattern image is (X, Y), the position correction function is

X=ax+by、
Y=cx+dy
X = ax + by,
Y = cx + dy

で表される。なお、a、b、c、dは、それぞれ位置補正関数の係数、すなわち位置補正情報である。   It is represented by Note that a, b, c, and d are coefficients of a position correction function, that is, position correction information.

この位置補正関数に対して、対応情報の示すパターン画像の座標と、これに対応する撮影画像内の座標の値を代入して係数の値を求めることで、撮影画像を構成する画素の位置を、パターン画像内の画素の位置に座標変換する位置補正関数を得ることができる。位置補正情報取得手段3083は、取得した位置補正関数の係数を、位置補正情報として補正パラメータ格納部で106に蓄積する。   By substituting the coordinates of the pattern image indicated by the correspondence information and the coordinates in the captured image corresponding to this position correction function, the position of the pixels constituting the captured image is determined. A position correction function for converting the coordinates to the position of the pixel in the pattern image can be obtained. The position correction information acquisition unit 3083 accumulates the acquired coefficient of the position correction function in the correction parameter storage unit 106 as position correction information.

なお、ここでは、3箇所以上の対応する画素の座標の情報を、対応情報が有しているため、上記の係数を算出する際に、最小二乗法等を用いることが好適である。ただし、ここで示した位置補正関数を得るためには、通常は異なる2箇所の対応する画素の位置の情報が必要となる。この位置補正関数を用いることで、撮影画像の画素の位置や画像の形状等を、オリジナルのパターン画像と同様の位置や形状等に補正可能となる。   In this case, since the correspondence information includes information on the coordinates of the corresponding pixels at three or more locations, it is preferable to use the least square method or the like when calculating the above coefficients. However, in order to obtain the position correction function shown here, information on the positions of the corresponding pixels at two different positions is usually required. By using this position correction function, it is possible to correct the pixel position of the captured image, the shape of the image, and the like to the same position, shape, and the like as the original pattern image.

図28は、補正パラメータ構成部308により構成され、補正パラメータ格納部106に格納されている補正パラメータを管理する補正パラメータ管理表を示す図である。補正パラメータ管理表において、「色補正情報」は、色補正情報取得手段3082により構成された色補正情報を示し、「位置補正情報」は、位置補正情報取得手段3083により構成された位置補正情報を示している。なお、α〜α、β〜β、γ〜γは、上記に例示した色補正関数の係数a〜a、b〜b、c〜cに対応する値であるとする。また、A、B、C、Dは、それぞれ上記に例示した位置補正関数の係数a、b、c、dに対応する値であるとする。 FIG. 28 is a diagram showing a correction parameter management table configured by the correction parameter configuration unit 308 and managing the correction parameters stored in the correction parameter storage unit 106. In the correction parameter management table, “color correction information” indicates color correction information configured by the color correction information acquisition unit 3082, and “position correction information” indicates position correction information configured by the position correction information acquisition unit 3083. Show. Α 1 to α 3 , β 1 to β 3 , and γ 1 to γ 3 are values corresponding to the coefficients a 1 to a 3 , b 1 to b, and c 1 to c 3 of the color correction function exemplified above. Suppose that A, B, C, and D are values corresponding to the coefficients a, b, c, and d of the position correction function exemplified above, respectively.

上記のようにして補正パラメータ格納部106に格納された補正パラメータを用いて画像処理装置300は、上記実施の形態1と同様に、撮影部303が撮影した第二の画像から第一の画像に一致する画像の領域を検出して、この領域を透過領域とした第二の画像の出力を行う。この処理については、上記実施の形態1と同様であるので説明は省略する。
なお、ここでは位置補正関数として、撮影画像の画素の位置をパターン画像内の位置に補正する関数を用いた場合について説明したが、必要に応じて、パターン画像の画素の位置を撮影画像内の位置に補正する関数を用いるようにしてもよい。
Using the correction parameters stored in the correction parameter storage unit 106 as described above, the image processing apparatus 300 changes from the second image captured by the imaging unit 303 to the first image, as in the first embodiment. A matching image area is detected, and a second image is output with this area as the transmission area. Since this process is the same as that of the first embodiment, description thereof is omitted.
Here, the case where the function for correcting the position of the pixel in the captured image to the position in the pattern image has been described as the position correction function. However, the position of the pixel in the pattern image in the captured image can be changed as necessary. A function for correcting the position may be used.

なお、この具体例において述べた色補正関数や位置補正関数はあくまでも一例であり、他の色補正関数や位置補正関数等を用いるようにしてもよく、このような場合、これらの関数に応じた補正パラメータを、対応情報等を用いて算出するようにしてもよい。また、
上記具体例においては、目印画像の検出の処理において、目印画像の色と各画素の色とを比較するようにしたが、目印画像は他の方法により検出してもよい。例えば、撮影画像が内のパターン画像の画質が良好である場合等、目印画像の形状が大きく変わらないことが前提となっている場合等には、目印画像とほぼ同じ形状の領域を、一般的なパターンマッチング技術等により検出することで、目印画像を検出してもよい。
Note that the color correction function and position correction function described in this specific example are merely examples, and other color correction functions, position correction functions, and the like may be used. In such a case, according to these functions. The correction parameter may be calculated using correspondence information or the like. Also,
In the above specific example, in the detection process of the mark image, the color of the mark image is compared with the color of each pixel. However, the mark image may be detected by other methods. For example, when it is assumed that the shape of the mark image does not change significantly, such as when the image quality of the pattern image in the captured image is good, an area having almost the same shape as the mark image is generally used. The mark image may be detected by detecting it with a simple pattern matching technique or the like.

上記具体例においては、各パターン画像の複数の目印画像が、それぞれ2色の色のうちのいずれか1色を有している場合について説明したが、本実施の形態においては、複数の目印画像は、撮影画像においても識別可能な2以上の色のうちのいずれか一色を有しているようにすればよい。この場合において、各パターン画像内の目印画像の色数をC(Cは2以上の整数)、目印画像数Aを、パターン画像数をB(Bは正の整数)とした場合、   In the above specific example, the case where each of the plurality of landmark images of each pattern image has any one of two colors has been described. However, in the present embodiment, a plurality of landmark images are used. May have any one of two or more colors that can be identified in the captured image. In this case, when the number of colors of the mark images in each pattern image is C (C is an integer of 2 or more), the number of mark images is A, and the number of pattern images is B (B is a positive integer),

≧A C B ≧ A

の関係を満たしているようにすればよい。   Should be satisfied.

以上、本実施の形態によれば、パターン画像を表示することで、表示部302に表示された画像と、撮影部303により撮影された画像内において表示部302に表示された画像との間の位置の対応を正確に取ることができる対応情報を算出し、当該対応情報を用いて補正パラメータを得るようにしたことにより、上記実施の形態1において示した第一の画像と、第二の領域の一致する領域を検出する処理において、第一の画像と、第二領域画像との色および位置の補正を適正に行うことが可能となり、第一の画像と、第二の画像の一致する領域を正確に検出することができる。これにより、第二の画像内の第一の画像が写っている領域を正確に透過領域に指定することができる。   As described above, according to the present embodiment, by displaying the pattern image, between the image displayed on the display unit 302 and the image displayed on the display unit 302 in the image shot by the shooting unit 303. By calculating correspondence information that can accurately correspond to the position and obtaining the correction parameter using the correspondence information, the first image and the second region shown in the first embodiment are obtained. In the process of detecting the matching region, it is possible to appropriately correct the color and position of the first image and the second region image, and the matching region between the first image and the second image. Can be accurately detected. Thereby, the area | region where the 1st image in the 2nd image is reflected can be correctly designated as a transmissive area | region.

また、本実施の形態においては、目印画像の色の出現パターンによって、撮影画像内から目印画像を識別して検出するようにしているため、撮影部303の撮影状況によって表示部302の一部しか撮影できず、表示部302の表示領域内のどの部分を撮影したか分からない場合や、表示部302の撮影された向き等が判別できない場合においても、撮影画像内から、正確に目印画像の配置されている位置を識別することができる。   Further, in the present embodiment, the landmark image is identified and detected from within the photographed image by the appearance pattern of the color of the landmark image. Therefore, only a part of the display unit 302 is detected depending on the photographing situation of the photographing unit 303. Even in the case where it is impossible to photograph and it is not known which part in the display area of the display unit 302 has been photographed, or when the photographing direction or the like of the display unit 302 cannot be determined, the placement of the landmark image is accurately performed from within the photographed image. Can be identified.

また、本実施の形態においては、撮影画像内における目印画像の色の出現パターンにより、目印画像を識別するため、目印画像の色が多少表示や撮影等の処理により変色していても、撮影画像内から正確に目印画像を識別することができる。
また、目印画像の形から目印画像を識別する場合とは異なり、色の出現パターンにより目印画像を識別するため、撮影画像にゆがみ等が生じたり、撮影位置によって、大きなパース等が入って撮影画像がゆがんで目印画像が変形してしまっても、撮影画像内から正確に目印画像を識別することができる。
また、本実施の形態においては、実際に撮影に利用する撮影部303により、予め用意されたパターン画像を撮影するだけで、簡単に位置や色の補正のための情報を得ることができ、補正のための専用のデバイス等を設置する必要がなく、コストの上昇を抑えることができる。また、補正のための特別な操作を最小限にできるため、操作性が向上する。
Further, in the present embodiment, the landmark image is identified by the appearance pattern of the color of the landmark image in the photographed image. Therefore, even if the color of the landmark image is slightly discolored by processing such as display or photographing, the photographed image The landmark image can be accurately identified from the inside.
Also, unlike the case of identifying the landmark image from the shape of the landmark image, the landmark image is identified by the appearance pattern of the color, so that the photographed image is distorted or a large perspective is included depending on the photographing position. Even if the mark image is deformed due to distortion, the mark image can be accurately identified from the captured image.
In the present embodiment, information for correcting the position and color can be obtained simply by photographing a pattern image prepared in advance by the photographing unit 303 actually used for photographing. It is not necessary to install a dedicated device or the like for the cost, and an increase in cost can be suppressed. In addition, since a special operation for correction can be minimized, the operability is improved.

なお、上記実施の形態において、目印画像の色の出現パターンにより目印画像が検出された位置を識別するようにしたが、複数のパターン画像の少なくとも一つのパターン画像において目印画像が配置された位置における、目印画像の有無のパターンである出現パターンにより、目印画像が配置された位置を識別するようにしてもよい。例えば、第一パターン画像のある座標(x1、y1)において、目印画像が出現し、その同じ座標において異なる第二、第三のパターンにおいては、目印画像が出現せず、背景画像のみが出現した場合、目印画像を「1」、背景画像を「0」に置き換えて、座標(x1、y1)における目印画像の出現パターンを、「011」と考えてもよい。ただし、この場合、複数の撮影画像内に目印画像が検出されるまでは、目印画像の位置が検出できないため、一旦、目印画像の位置を検出後、他の撮影画像の同じ位置において背景画像を検出する必要があり、処理に後戻りが発生する可能性がある。   In the above embodiment, the position where the mark image is detected is identified by the appearance pattern of the color of the mark image. However, at the position where the mark image is arranged in at least one pattern image of the plurality of pattern images. The position where the mark image is arranged may be identified by the appearance pattern that is the pattern of the presence or absence of the mark image. For example, a mark image appears at a certain coordinate (x1, y1) of the first pattern image, and a mark image does not appear and only a background image appears in different second and third patterns at the same coordinates. In this case, the mark image may be replaced with “1” and the background image may be replaced with “0”, and the appearance pattern of the mark image at the coordinates (x1, y1) may be considered as “011”. However, in this case, since the position of the landmark image cannot be detected until the landmark image is detected in a plurality of captured images, once the position of the landmark image is detected, the background image is detected at the same position of the other captured images. It is necessary to detect, and there is a possibility that the process may be reversed.

また、上記実施の形態において、互いに異なる予め設定された所定の位置に、一つの目印画像がそれぞれ配置された複数のパターン画像を表示するようにし、複数の撮影画像内のパターン画像毎に、これらの目印画像の位置をそれぞれ検出することで、撮影したパターン画像と、撮影画像内の目印画像の検出された位置との組み合わせを用いて、撮影された目印画像の検出された位置を識別するようにしてもよい。すなわち、ここでは、パターン画像毎に、目印画像の位置が特定されることとなる。このため、各目印画像が、どのパターン画像を撮影した撮影画像から検出されたか判断することで、撮影画像の目印画像が検出された位置を識別することができる。   Further, in the above embodiment, a plurality of pattern images each having one mark image are respectively displayed at predetermined positions different from each other, and each of the pattern images in the plurality of captured images is displayed. By detecting the position of each mark image, the combination of the captured pattern image and the detected position of the mark image in the captured image is used to identify the detected position of the captured mark image. It may be. That is, here, the position of the mark image is specified for each pattern image. Therefore, it is possible to identify the position where the mark image of the photographed image is detected by determining which pattern image is detected from the photographed image obtained by photographing each landmark image.

言い換えれば、ここでは、各目印画像が検出されたパターン画像を識別する情報を各目印画像についての出現パターンと考えて、各撮影画像から検出された各目印画像についての出現パターンを取得し、この出現パターンを用いて、各撮影画像内において検出された目印画像の位置と、当該目印画像の出現パターンと一致する出現パターンを有するオリジナルの複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するようにする。例えば、第一のパターン画像においては、座標(x2、y2)に一つの目印画像のみが配置されている場合、第一のパターン画像を撮影した撮影画像内で目印画像を検出した位置は、この第一のパターン画像の座標(x2、y2)に対応した位置であると判断することができる。   In other words, here, the information for identifying the pattern image in which each landmark image is detected is regarded as the appearance pattern for each landmark image, and the appearance pattern for each landmark image detected from each captured image is acquired. Using the appearance pattern, the position of the landmark image detected in each captured image and the position where the landmark image is arranged in the plurality of original pattern images having the appearance pattern that matches the appearance pattern of the landmark image The correspondence information indicating the correspondence is acquired. For example, in the first pattern image, when only one mark image is arranged at the coordinates (x2, y2), the position where the mark image is detected in the captured image obtained by shooting the first pattern image is It can be determined that the position corresponds to the coordinates (x2, y2) of the first pattern image.

ただし、このような場合、例えば、撮影画像が撮影したパターン画像が、どのパターン画像であるかを、撮影したパターン画像を識別する情報を撮影情報に対応付けたり、パターン画像の表示順番と撮影順番とを対応付けておくこと等により識別できるようにする必要がある。また、このような場合においては、各パターン画像には、一つの目印画像しか配置することができないため、撮影画像内の複数の位置を識別するためには、パターン画像を、識別したい位置の数と同数だけ用意する必要があるとともに、これらのパターン画像を全て表示して撮影する必要がある。このため、上述したような目印画像の色の出現パターンにより、目印画像が配置されている複数の位置を識別する場合と比べて、処理時間が長くなってしまうことが考えられる。   However, in such a case, for example, which pattern image the pattern image captured by the captured image is associated with information for identifying the captured pattern image, or the display order and the capture order of the pattern images Need to be identified by associating them with each other. In such a case, since only one mark image can be arranged in each pattern image, in order to identify a plurality of positions in the captured image, the number of positions to be identified is determined. It is necessary to prepare the same number as the number of images and to display all these pattern images. For this reason, it is conceivable that the processing time becomes longer by the appearance pattern of the color of the mark image as described above as compared with the case of identifying a plurality of positions where the mark image is arranged.

なお、上記各実施の形態1、2において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
また、上記各実施の形態1、2において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。
In the first and second embodiments, each processing (each function) may be realized by centralized processing by a single device (system), or distributed processing by a plurality of devices. May be realized.
In the first and second embodiments, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. . For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

なお、上記各実施の形態1、2における画像処理装置を実現するソフトウェアのプログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
また、上記各実施の形態1、2において、一の装置に存在する2以上の通信手段(情報送信部など)は、物理的に一の媒体で実現されてもよいことは言うまでもない。
In the software program for realizing the image processing apparatus according to each of the first and second embodiments, in the transmission step for transmitting information, the reception step for receiving information, etc., processing performed by hardware, for example, the transmission step This does not include processing performed by a modem or an interface card (processing performed only by hardware).
Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by
Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
Further, in each of the first and second embodiments, it goes without saying that two or more communication means (such as an information transmission unit) existing in one apparatus may be physically realized by one medium.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
また、上記各実施の形態では、画像処理装置がスタンドアロンである場合について説明したが、画像処理装置は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、出力部や受付部は、通信回線を介して入力を受け付けたり、画面を出力したりすることになる。
The present invention is not limited to the above-described embodiments, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.
Further, although cases have been described with the above embodiments where the image processing apparatus is a stand-alone, the image processing apparatus may be a stand-alone apparatus or a server apparatus in a server / client system. In the latter case, the output unit or the reception unit receives an input or outputs a screen via a communication line.

以上のように、本発明にかかる画像処理装置等は、ディスプレイ等に表示されている画像を撮影した画像を処理する画像処理装置等として適しており、テレビ会議等に用いられる画像処理装置等として有用である。   As described above, the image processing apparatus or the like according to the present invention is suitable as an image processing apparatus or the like that processes an image obtained by photographing an image displayed on a display or the like, and is used as an image processing apparatus or the like used for a video conference or the like. Useful.

実施の形態1における画像処理装置のブロック図である。1 is a block diagram of an image processing device in Embodiment 1. FIG. 同実施の形態における画像処理装置の動作について説明するフローチャートである。6 is a flowchart for explaining the operation of the image processing apparatus according to the embodiment. 同実施の形態における画像処理装置の動作について説明するフローチャートである。6 is a flowchart for explaining the operation of the image processing apparatus according to the embodiment. 同実施の形態における画像処理装置を用いたテレビ会議システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video conference system using the image processing apparatus in the embodiment. 同実施の形態における画像処理装置を用いたテレビ会議システムの概念的な構成図である。It is a notional block diagram of the video conference system using the image processing apparatus in the embodiment. 同実施の形態における第二の画像と、第二の画像に撮影された第一の画像との関係を示す模式的な構成図である。It is a typical block diagram which shows the relationship between the 2nd image in the same embodiment, and the 1st image image | photographed by the 2nd image. 同実施の形態における第一の画像の表示例を示す構成図である。It is a block diagram which shows the example of a display of the 1st image in the embodiment. 同実施の形態における第二の画像の表示例を示す構成図である。It is a block diagram which shows the example of a display of the 2nd image in the embodiment. 同実施の形態における第二の画像内の一致する領域を示す構成図である。It is a block diagram which shows the area | region which corresponds in the 2nd image in the embodiment. 同実施の形態におけるアルファチャンネルを説明するための構成図である。It is a block diagram for demonstrating the alpha channel in the embodiment. 同実施の形態におけるクリッピングした第二の画像を示す構成図である。It is a block diagram which shows the 2nd image clipped in the embodiment. 同実施の形態におけるクリッピング画像管理表を示す構成図である。It is a block diagram which shows the clipping image management table | surface in the embodiment. 同実施の形態における第二テレビ会議端末における第二の画像の表示例を示す構成図である。It is a block diagram which shows the example of a display of the 2nd image in the 2nd video conference terminal in the embodiment. 同実施の形態における第一テレビ会議端末の変形例を示す構成図である。It is a block diagram which shows the modification of the 1st video conference terminal in the embodiment. 実施の形態2における画像処理装置のブロック構成図である。6 is a block configuration diagram of an image processing apparatus according to Embodiment 2. FIG. 同実施の形態における画像処理装置の動作について説明するフローチャートである。6 is a flowchart for explaining the operation of the image processing apparatus according to the embodiment. 同実施の形態における画像処理装置の動作について説明するフローチャートである。6 is a flowchart for explaining the operation of the image processing apparatus according to the embodiment. 同実施の形態における画像処理装置の動作について説明するフローチャートである。6 is a flowchart for explaining the operation of the image processing apparatus according to the embodiment. 同実施の形態における画像処理装置の概念的な構成図である。It is a notional block diagram of the image processing apparatus in the embodiment. 同実施の形態におけるパターン画像色管理表を示す構成図である。It is a block diagram which shows the pattern image color management table | surface in the embodiment. 同実施の形態におけるパターン画像の例を示す構成図である。It is a block diagram which shows the example of the pattern image in the same embodiment. 同実施の形態における対応管理情報を示す構成図である。It is a block diagram which shows the correspondence management information in the embodiment. 同実施の形態における情報処理装置の表示例を示す構成図である。It is a block diagram which shows the example of a display of the information processing apparatus in the embodiment. 同実施の形態における情報処理装置の撮影画像の例を示す構成図である。It is a block diagram which shows the example of the picked-up image of the information processing apparatus in the embodiment. 同実施の形態における目印画像管理表を示す構成図である。It is a block diagram which shows the mark image management table | surface in the embodiment. 同実施の形態における出現パターン管理表を示す構成図である。It is a block diagram which shows the appearance pattern management table | surface in the embodiment. 同実施の形態における対応情報を示す構成図である。It is a block diagram which shows the correspondence information in the same embodiment. 同実施の形態における補正パラメータ管理表を示す構成図である。It is a block diagram which shows the correction parameter management table | surface in the embodiment.

符号の説明Explanation of symbols

10 第一テレビ会議端末
20 第二テレビ会議端末
61、70 第一の画像
62、80、91、92 第二の画像
90 一致する領域
95 アルファチャンネル
100、300 画像処理装置
101 受付部
102a、302a ディスプレイ
102、302 表示部
103、303 撮影部
104 画像受付部
105 遅延バッファ
106 補正パラメータ格納部
107 比較部
108 透過画像構成部
109 出力部
201 撮影部
202 送信部
203 受信部
204a ディスプレイ
204 表示部
231、232 目印画像
300a コンピュータ
301 画像格納部
304 撮影画像格納部
305 目印画像検出部
306 対応情報取得部
307 対応管理情報格納部
308 補正パラメータ構成部
1000、2000 情報処理装置
3081 色情報取得手段
3082 色補正情報取得手段
3083 位置補正情報取得手段
DESCRIPTION OF SYMBOLS 10 1st video conference terminal 20 2nd video conference terminal 61, 70 1st image 62, 80, 91, 92 2nd image 90 Matching area 95 Alpha channel 100, 300 Image processing apparatus 101 Reception part 102a, 302a Display 102, 302 Display unit 103, 303 Imaging unit 104 Image reception unit 105 Delay buffer 106 Correction parameter storage unit 107 Comparison unit 108 Transparent image configuration unit 109 Output unit 201 Imaging unit 202 Transmission unit 203 Reception unit 204a Display 204 Display unit 231, 232 Mark image 300a Computer 301 Image storage unit 304 Captured image storage unit 305 Mark image detection unit 306 Corresponding information acquisition unit 307 Corresponding management information storage unit 308 Correction parameter configuration unit 1000, 2000 Information processing device 3081 Color information Acquiring means 3082 color correction information acquisition unit 3083 position correction information acquisition means

Claims (16)

第一の画像を受け付ける受付部と、
前記受付部が受け付けた第一の画像を表示する表示部と、
前記表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付部と、
前記第一の画像と前記第二の画像内に含まれる第一の画像との色あわせ、および位置あわせのための補正に用いられる補正パラメータが格納される補正パラメータ格納部と、
前記補正パラメータに基づいて、前記第一の画像、または、第二の画像内の第一の画像が位置する領域内の画像を補正し、前記第一の画像と、前記第二の画像内の第一の画像が位置する領域内の画像とを比較する比較部と、
前記比較部の比較結果を用いて、前記第二の画像内の前記第一の画像と一致する領域を透過領域に設定した透過画像を生成する透過画像構成部と、
前記透過画像構成部が生成した透過画像を出力する出力部と
を具備することを特徴とする画像処理装置。
A reception unit for receiving the first image;
A display unit for displaying the first image received by the reception unit;
An image receiving unit that receives a second image that is an image of an area including the first image displayed by the display unit;
A correction parameter storage unit for storing correction parameters used for correction for color matching and alignment between the first image and the first image included in the second image;
Based on the correction parameter, the first image or the image in the region where the first image in the second image is located is corrected, and the first image and the second image A comparison unit that compares the image in the region where the first image is located;
Using the comparison result of the comparison unit, a transmission image configuration unit that generates a transmission image in which a region that matches the first image in the second image is set as a transmission region;
An image processing apparatus comprising: an output unit that outputs a transparent image generated by the transparent image forming unit.
前記比較部は、
前記補正パラメータに基づいて、前記第一の画像、及び第二の画像内の第一の画像が位置する領域内の画像を補正する
ことを特徴とする請求項1に記載の画像処理装置。
The comparison unit includes:
The image processing apparatus according to claim 1, wherein the image in the region where the first image and the first image in the second image are located is corrected based on the correction parameter.
前記透過画像構成部は、
前記第二の画像内の前記透過領域により分離された領域の画像を切り出した複数の透過画像を構成する
ことを特徴とする請求項1または2に記載の画像処理装置。
The transmission image constructing unit includes:
The image processing apparatus according to claim 1, wherein a plurality of transmission images are formed by cutting out images of an area separated by the transmission area in the second image.
前記透過画像構成部は、
透過領域を指定するアルファチャンネルを有する透過画像を生成する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。
The transmission image constructing unit includes:
The image processing apparatus according to claim 1, wherein a transmission image having an alpha channel that designates a transmission area is generated.
目印となる画像である目印画像が異なる位置に配置された複数のパターン画像であって当該複数のパターン画像間にて、目印画像の出現パターンが互いに異なる複数のパターン画像が格納される画像格納部と、
前記パターン撮影画像内から前記目印画像を検出する目印画像検出部と、
前記目印画像検出部が検出した各目印画像を用いて、前記各目印画像についての出現パターンを取得し、前記各パターン撮影画像内において検出された目印画像の位置と、当該目印画像の出現パターンと一致する出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得する対応情報取得部と、
前記対応情報取得部が取得した対応情報を用いて前記補正パラメータを構成し、前記補正パラメータ格納部に蓄積する補正パラメータ構成部とを更に具備し、
前記表示部は、
前記画像格納部に格納されている複数のパターン画像を切り替えて表示し、
前記画像受付部は、前記表示部が表示している複数のパターン画像を含む画像を撮影した画像であるパターン撮影画像を受け付け、
前記目印画像検出部は、前記画像受付部が受け付けたパターン撮影画像内から前記目印画像を検出する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
An image storage unit that stores a plurality of pattern images in which mark images, which are images serving as marks, are arranged at different positions, and in which a plurality of pattern images having different appearance patterns appear between the plurality of pattern images. When,
A landmark image detection unit for detecting the landmark image from within the pattern photographed image;
Using each mark image detected by the mark image detection unit, an appearance pattern for each mark image is acquired, and the position of the mark image detected in each pattern photographed image, and the appearance pattern of the mark image A correspondence information acquisition unit that acquires correspondence information indicating correspondence with positions where mark images are arranged in the plurality of pattern images having matching appearance patterns;
The correction parameter is configured using the correspondence information acquired by the correspondence information acquisition unit, and further includes a correction parameter configuration unit that accumulates in the correction parameter storage unit,
The display unit
Switch and display a plurality of pattern images stored in the image storage unit,
The image receiving unit receives a pattern captured image that is an image obtained by capturing an image including a plurality of pattern images displayed by the display unit,
5. The image processing apparatus according to claim 1, wherein the mark image detection unit detects the mark image from a pattern photographed image received by the image receiving unit.
前記画像格納部は、
複数の色のうちのいずれか一つの色を有する、目印となる画像である前記目印画像が、異なる位置に複数配置された前記複数のパターン画像であって当該複数のパターン画像間にて、前記複数の目印画像の配置されている位置が同じであり、異なる位置に配置された目印画像の色の出現パターンが互いに異なる前記複数のパターン画像を格納し、
前記対応情報取得部は、
前記目印画像検出部が検出した各目印画像を用いて、前記各パターン撮影画像内の同じ位置において検出された前記目印画像についての色の出現パターンを取得し、当該色の出現パターンが取得された撮影画像内の位置と、当該色の出現パターンと一致する色の出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得する
ことを特徴とする請求項5に記載の画像処理装置。
The image storage unit
The mark image, which is a mark image having any one of a plurality of colors, is a plurality of the pattern images arranged in different positions, and the pattern images are between the pattern images. The plurality of pattern images are stored at the same position, and the appearance images of the colors of the mark images arranged at different positions are different from each other.
The correspondence information acquisition unit
Using each mark image detected by the mark image detection unit, a color appearance pattern for the mark image detected at the same position in each pattern image is acquired, and the color appearance pattern is acquired Obtaining correspondence information indicating a correspondence between a position in the photographed image and a position where the mark image is arranged in the plurality of pattern images having the appearance pattern of the color that matches the appearance pattern of the color. The image processing apparatus according to claim 5.
前記複数のパターン画像における複数の目印画像の配置された位置と、当該配置された位置における色の出現パターンとの対応を示す情報である対応管理情報が格納される対応管理情報格納部を更に具備し、
前記対応情報取得部は、
前記対応管理情報を用いて、前記撮影画像内の目印画像について取得した色の出現パターンから前記対応情報を取得する
ことを特徴とする請求項6に記載の画像処理装置。
A correspondence management information storage unit that stores correspondence management information that is information indicating correspondence between positions where the plurality of mark images in the plurality of pattern images are arranged and color appearance patterns at the arranged positions; And
The correspondence information acquisition unit
The image processing apparatus according to claim 6, wherein the correspondence information is acquired from a color appearance pattern acquired for a landmark image in the captured image using the correspondence management information.
前記画像格納部は、
前記各パターン画像内の目印画像数をA(Aは2以上の整数)、前記パターン画像数をB(Bは2以上の整数)とした場合に、2≧Aの関係を満たす複数のパターン画像を格納する
ことを特徴とする請求項6または請求項7に記載の画像処理装置。
The image storage unit
A plurality of patterns satisfying the relationship of 2 B ≧ A, where A (A is an integer of 2 or more) and B (B is an integer of 2 or more) of the pattern images in the pattern images. The image processing apparatus according to claim 6, wherein an image is stored.
前記複数のパターン画像の目印画像は、前記パターン画像ごとに互いに異なっており、
前記目印画像検出部は、
各パターン画像から検出した目印画像を取得し、
前記対応情報取得部は、
前記目印画像検出部が取得したパターン画像の配列される順番に応じた前記目印画像を取得して、前記対応情報を取得する
ことを特徴とする請求項5から請求項8いずれか1項に記載の画像処理装置。
Mark images of the plurality of pattern images are different from each other for each pattern image,
The landmark image detection unit includes:
Obtain the landmark image detected from each pattern image,
The correspondence information acquisition unit
The mark image detection unit acquires the mark image according to the order in which the pattern images are acquired, and acquires the correspondence information. 9. Image processing apparatus.
前記補正パラメータ構成部は、
前記画像受付部が受け付けたパターン撮影画像内の目標画像の色に関する情報である色情報と、前記出力部により出力された対応情報が示す前記目標画像に対応した前記パターン画像内の目標画像の色情報とを取得する色情報取得手段と、
前記色情報取得手段が取得した色情報を用いて、前記画像受付部が受け付けた画像の色あわせのための補正に用いられる補正パラメータである色補正情報を取得し、前記補正パラメータ格納部に蓄積する色補正情報取得手段と
を更に具備することを特徴とする請求項5から請求項9いずれか1項に記載の画像処理装置。
The correction parameter configuration unit includes:
Color information that is information relating to the color of the target image in the pattern photographed image received by the image receiving unit, and the color of the target image in the pattern image corresponding to the target image indicated by the correspondence information output by the output unit Color information acquisition means for acquiring information;
Using the color information acquired by the color information acquisition means, acquires color correction information, which is a correction parameter used for correction for color matching of the image received by the image receiving unit, and accumulates it in the correction parameter storage unit The image processing apparatus according to claim 5, further comprising a color correction information acquisition unit that performs the correction.
前記補正パラメータ構成部は、
前記対応情報取得部が取得した位置情報を用いて、前記画像受付部が受け付けた画像の位置あわせのための補正に用いられる補正パラメータである位置補正情報を取得し、前記補正パラメータ格納部に蓄積する位置補正情報取得手段をさらに具備する
ことを特徴とする請求項5から請求項10いずれか1項に記載の画像処理装置。
The correction parameter configuration unit includes:
Using the position information acquired by the correspondence information acquisition unit, position correction information, which is a correction parameter used for correction for image alignment received by the image receiving unit, is acquired and stored in the correction parameter storage unit The image processing apparatus according to claim 5, further comprising position correction information acquisition means for performing the correction.
第一の画像を受け付ける受付部と、画像を表示する表示部と、第二の画像を受け付ける画像受付部と、前記第一の画像と、前記第二の画像内に含まれる第一の画像との色あわせ、および位置あわせのための補正に用いられる補正パラメータが格納される補正パラメータ格納部と、画像の比較を行う比較部と、透過画像を生成する透過画像構成部と、出力部とを備えた画像処理装置における画像処理方法であって、
前記受付部が、前記第一の画像を受け付けるステップと、
前記表示部が、受け付けた第一の画像を表示するステップと、
前記画像受付部が、表示した第一の画像を含む領域を撮影した画像である第二の画像を受け付けるステップと、
前記比較部が、前記補正パラメータ格納部に格納される補正パラメータに基づいて、前記第一の画像、または、第二の画像内の第一の画像が位置する領域内の画像を補正するステップと、
前記比較部が、前記第一の画像と、前記第二の画像内の第一の画像が位置する領域内の画像とを比較するステップと、
前記透過画像構成部が、比較結果を用いて、前記第二の画像内の、前記第一の画像と一致する領域を透過領域に設定した透過画像を生成するステップと、
前記出力部が、生成した透過画像を出力するステップと
を含むことを特徴とする画像処理方法。
A reception unit that receives a first image, a display unit that displays an image, an image reception unit that receives a second image, the first image, and a first image included in the second image; A correction parameter storage unit that stores correction parameters used for correction for color matching and registration, a comparison unit that compares images, a transmission image configuration unit that generates a transmission image, and an output unit An image processing method in an image processing apparatus comprising:
The accepting unit accepting the first image;
The display unit displaying the received first image;
The image receiving unit receiving a second image that is an image of a region including the displayed first image;
The comparison unit correcting the first image or the image in the region where the first image in the second image is located based on the correction parameter stored in the correction parameter storage unit; ,
The comparing unit comparing the first image with an image in a region where the first image in the second image is located;
The transparent image constructing unit, using the comparison result, generating a transparent image in which a region that matches the first image in the second image is set as a transparent region;
And a step of outputting the generated transmission image by the output unit.
前記画像処理装置は、さらに、目印となる画像である目印画像が異なる位置に配置された複数のパターン画像であって当該複数のパターン画像間にて、目印画像の出現パターンが互いに異なる複数のパターン画像が格納される画像格納部と、前記パターン撮影画像内から前記目印画像を検出する目印画像検出部と、対応情報取得部と、前記補正パラメータ格納部に蓄積する補正パラメータを生成する補正パラメータ構成部とを具備し、
前記表示部が、前記画像格納部に格納されている複数のパターン画像を切り替えて表示するステップと、
前記画像受付部が、前記表示部が表示している複数のパターン画像を含む画像を撮影した画像であるパターン撮影画像を受け付けるステップと、
前記目印画像検出部が、前記画像受付部が受け付けたパターン撮影画像内から前記目印画像を検出するステップと、
前記対応情報取得部が、前記目印画像検出部が検出した各目印画像を用いて、前記各目印画像についての出現パターンを取得し、前記各パターン撮影画像内において検出された目印画像の位置と、当該目印画像の出現パターンと一致する出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するステップと、
前記補正パラメータ構成部が、前記対応情報取得部が取得した対応情報を用いて前記補正パラメータを構成し、前記補正パラメータ格納部に蓄積するステップと、
を更に含むことを特徴とする請求項12に記載の画像処理方法。
The image processing apparatus further includes a plurality of pattern images in which the mark images, which are images serving as marks, are arranged at different positions, and a plurality of patterns in which the appearance patterns of the mark images are different between the plurality of pattern images. An image storage unit for storing an image, a landmark image detection unit for detecting the landmark image from the pattern photographed image, a correspondence information acquisition unit, and a correction parameter configuration for generating correction parameters to be accumulated in the correction parameter storage unit And comprising
The display unit switching and displaying a plurality of pattern images stored in the image storage unit;
The image receiving unit receiving a pattern captured image that is an image obtained by capturing an image including a plurality of pattern images displayed by the display unit;
The landmark image detection unit detecting the landmark image from within a pattern photographed image received by the image reception unit;
The correspondence information acquisition unit acquires an appearance pattern for each landmark image using each landmark image detected by the landmark image detection unit, and the position of the landmark image detected in each pattern photographed image, Obtaining correspondence information indicating correspondence with positions where the mark images are arranged in the plurality of pattern images having an appearance pattern that matches the appearance pattern of the mark image;
The correction parameter configuration unit configures the correction parameter using the correspondence information acquired by the correspondence information acquisition unit, and accumulates the correction parameter in the correction parameter storage unit;
The image processing method according to claim 12, further comprising:
前記画像格納部には、
複数の色のうちのいずれか一つの色を有する、目印となる画像である前記目印画像が、異なる位置に複数配置された前記複数のパターン画像であって当該複数のパターン画像間にて、前記複数の目印画像の配置されている位置が同じであり、異なる位置に配置された目印画像の色の出現パターンが互いに異なる前記複数のパターン画像が格納されており、
前記対応情報取得部が、
前記目印画像検出部が検出した各目印画像を用いて、前記各パターン撮影画像内の同じ位置において検出された前記目印画像についての色の出現パターンを取得し、当該色の出現パターンが取得された撮影画像内の位置と、当該色の出現パターンと一致する色の出現パターンを有する前記複数のパターン画像における目印画像の配置されている位置との対応を示す対応情報を取得するステップと、
を更に含むことを特徴とする請求項13に記載の画像処理方法。
In the image storage unit,
The mark image, which is a mark image having any one of a plurality of colors, is a plurality of the pattern images arranged in different positions, and the pattern images are between the pattern images. The plurality of pattern images are stored at the same position where the plurality of mark images are arranged, and the appearance patterns of the colors of the mark images arranged at different positions are different from each other.
The correspondence information acquisition unit
Using each mark image detected by the mark image detection unit, a color appearance pattern for the mark image detected at the same position in each pattern image is acquired, and the color appearance pattern is acquired Obtaining correspondence information indicating a correspondence between a position in the captured image and a position where a mark image is arranged in the plurality of pattern images having an appearance pattern of a color that matches the appearance pattern of the color;
The image processing method according to claim 13, further comprising:
第一の画像と、第二の画像内に含まれる第一の画像との色あわせ、および位置あわせのための補正に用いられる補正パラメータを格納する補正パラメータ格納部を具備したコンピュータに、
前記第一の画像を受け付けるステップと、
受け付けた第一の画像を表示するステップと、
表示した第一の画像を含む領域を撮影した画像である第二の画像を受け付けるステップと、
前記補正パラメータ格納部に格納されている前記補正パラメータに基づいて、前記第一の画像、または、第二の画像内の第一の画像が位置する領域内の画像を補正するステップと、
前記第一の画像と、前記第二の画像内の第一の画像が位置する領域内の画像とを比較するステップと、
比較結果を用いて、前記第二の画像内の、前記第一の画像と一致する領域を透過領域に設定した透過画像を生成するステップと、
生成した透過画像を出力するステップと
を実行させるためのプログラム。
A computer having a correction parameter storage unit that stores correction parameters used for correction for color matching and alignment between the first image and the first image included in the second image,
Receiving the first image;
Displaying the received first image;
Receiving a second image that is an image of an area including the displayed first image;
Correcting the first image or an image in a region where the first image in the second image is located based on the correction parameter stored in the correction parameter storage unit;
Comparing the first image with an image in a region where the first image in the second image is located;
Using the comparison result, generating a transmission image in which a region in the second image that matches the first image is set as a transmission region;
A program for executing the step of outputting the generated transparent image.
請求項15記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 15 is recorded.
JP2007149127A 2007-06-05 2007-06-05 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP4999559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007149127A JP4999559B2 (en) 2007-06-05 2007-06-05 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007149127A JP4999559B2 (en) 2007-06-05 2007-06-05 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2008306264A true JP2008306264A (en) 2008-12-18
JP4999559B2 JP4999559B2 (en) 2012-08-15

Family

ID=40234627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007149127A Expired - Fee Related JP4999559B2 (en) 2007-06-05 2007-06-05 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4999559B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035880A (en) * 2009-08-06 2011-02-17 Nippon Telegr & Teleph Corp <Ntt> Video communication system, method and program
EP2824913A1 (en) * 2013-07-09 2015-01-14 Alcatel Lucent A method for generating an immersive video of a plurality of persons
JP7482937B2 (en) 2021-06-25 2024-05-14 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド Method for eliminating video echo in projector-camera based remote collaboration systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288806A (en) * 1994-04-20 1995-10-31 Hitachi Ltd Moving image communication system
JPH07303198A (en) * 1994-05-06 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Identifying method for crt monitor image
JP2004109246A (en) * 2002-09-13 2004-04-08 Minolta Co Ltd Projection system
JP2005229451A (en) * 2004-02-16 2005-08-25 Sony Corp Video display device, video display method, program for video display method, and recording medium recorded with program for video display method
JP2006277283A (en) * 2005-03-29 2006-10-12 Fuji Xerox Co Ltd Information processing system and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288806A (en) * 1994-04-20 1995-10-31 Hitachi Ltd Moving image communication system
JPH07303198A (en) * 1994-05-06 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Identifying method for crt monitor image
JP2004109246A (en) * 2002-09-13 2004-04-08 Minolta Co Ltd Projection system
JP2005229451A (en) * 2004-02-16 2005-08-25 Sony Corp Video display device, video display method, program for video display method, and recording medium recorded with program for video display method
JP2006277283A (en) * 2005-03-29 2006-10-12 Fuji Xerox Co Ltd Information processing system and information processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035880A (en) * 2009-08-06 2011-02-17 Nippon Telegr & Teleph Corp <Ntt> Video communication system, method and program
EP2824913A1 (en) * 2013-07-09 2015-01-14 Alcatel Lucent A method for generating an immersive video of a plurality of persons
WO2015003889A1 (en) * 2013-07-09 2015-01-15 Alcatel Lucent A method for generating an immersive video of a plurality of persons
US9729825B2 (en) 2013-07-09 2017-08-08 Alcatel Lucent Method for generating an immersive video of a plurality of persons
JP7482937B2 (en) 2021-06-25 2024-05-14 コニカ ミノルタ ビジネス ソリューションズ ユー.エス.エー., インコーポレイテッド Method for eliminating video echo in projector-camera based remote collaboration systems

Also Published As

Publication number Publication date
JP4999559B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
KR101231518B1 (en) Camera control apparatus, camera system, electronic conference system, and camera control method
US7327890B2 (en) Imaging method and system for determining an area of importance in an archival image
US8866943B2 (en) Video camera providing a composite video sequence
JP5515472B2 (en) Imaging apparatus, imaging method, and program
KR100986228B1 (en) Camera apparatus and image recording/reproducing method
US20130235223A1 (en) Composite video sequence with inserted facial region
JP6666949B2 (en) System comprising a video camera and a client device and a method performed thereby
US10521891B2 (en) Image processing apparatus, system, image processing method, and non-transitory recording medium
WO2004086748A3 (en) Systems and methods for multi-resolution image processing
JP2010211255A (en) Imaging apparatus, image processing method, and program
JP2009071478A (en) Information communication terminal and information communication system
US20220199120A1 (en) Image processing device, image processing method, and image processing program
JP4999559B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5003666B2 (en) Imaging apparatus, imaging method, image signal reproducing apparatus, and image signal reproducing method
GR1004309B (en) System and method of multi-camera recording of images and simultaneous transmission thereof to a television or cinema system
JP2006157432A (en) Three-dimensional photographic apparatus and photographic method of three-dimensional image
JP2007251532A (en) Imaging device and face area extraction method
JP2013016933A (en) Terminal device, imaging method, and program
JP5004680B2 (en) Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium
JP4799483B2 (en) Information processing apparatus, information processing method, program, and recording medium
JP2008250366A (en) Person extraction method, its device, its program, and recording medium with same program recorded
JP5423296B2 (en) Image processing apparatus, image processing method, and program
JP7038935B2 (en) Image processing device, image processing method, and image processing program
JP2007249526A (en) Imaging device, and face area extraction method
JP2008301399A (en) Television conference apparatus, television conference method, television conference system, computer program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120515

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees