JP2008306265A - Image processor, image processing method, video conference system, video conference method, program, and recording medium - Google Patents

Image processor, image processing method, video conference system, video conference method, program, and recording medium Download PDF

Info

Publication number
JP2008306265A
JP2008306265A JP2007149128A JP2007149128A JP2008306265A JP 2008306265 A JP2008306265 A JP 2008306265A JP 2007149128 A JP2007149128 A JP 2007149128A JP 2007149128 A JP2007149128 A JP 2007149128A JP 2008306265 A JP2008306265 A JP 2008306265A
Authority
JP
Japan
Prior art keywords
image
unit
information
image information
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007149128A
Other languages
Japanese (ja)
Other versions
JP5004680B2 (en
Inventor
Toshihiro Takada
敏弘 高田
Shigeki Aoyanagi
滋己 青柳
Yasunari Harada
康徳 原田
Junji Yamato
淳司 大和
Keiji Hirata
圭二 平田
Yoshinari Shirai
良成 白井
Naomi Yamashita
直美 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007149128A priority Critical patent/JP5004680B2/en
Publication of JP2008306265A publication Critical patent/JP2008306265A/en
Application granted granted Critical
Publication of JP5004680B2 publication Critical patent/JP5004680B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent images captured in respective conference rooms from mutually be fed back to be displayed one over another on display devices etc., in the respective conference rooms. <P>SOLUTION: When an image imaged by imaging a member C in a first conference room by a camera in the conference room is displayed in a second conference room, a fist image including the member C, a display device behind it, and a display area 3021b thereof is displayed. When an image imaged by imaging a member A in front of the first image in a second conference room by a camera therein is displayed in the first conference room, a second image obtained by feeding the first image back is displayed in a display area 2021b together with the member A. For the purpose, the first and second images are compared with each other to determine an area 1000, shown by a dotted line, including an image such that the both match each other. The member A is not included in the area 1000. An image obtained by converting all pixels in the area 1000 to gray is displayed in the first conference room together with the member A. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、テレビ会議等を行うため等に用いられる画像処理装置、画像処理方法、テレビ会議システム、テレビ会議方法、プログラムおよび記録媒体に関するものである。   The present invention relates to an image processing apparatus, an image processing method, a video conference system, a video conference method, a program, and a recording medium used for performing a video conference and the like.

従来よりテレビ会議システムが開発されており、そのテレビ会議システムを用いることにより、遠隔の2以上の会議室の間で映像・音声の送受信を行うことができ、その2以上の会議室にいる人たちで会議を行うことができていた。
一方、従来の画像処理の技術として、背景画像の用意されていない動画像において、動領域の切れ目のない閉輪郭を生成し、この閉輪郭を用いて動領域と背景領域とを分離する技術が開発されている(例えば、特許文献1参照)。
特開平11−353486号公報(第1頁、第1図等)
Video conferencing systems have been developed in the past. By using the video conferencing system, video / audio can be transmitted and received between two or more remote conference rooms. We were able to hold a meeting.
On the other hand, as a conventional image processing technology, there is a technology for generating a closed contour without a moving region in a moving image for which a background image is not prepared, and separating the moving region and the background region using the closed contour. It has been developed (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 11-353486 (first page, FIG. 1 etc.)

しかしながら、従来のテレビ会議システムにおいては、第一の会議室における会議の様子を撮影するカメラの設置場所や向き等によっては、カメラが、第一の会議室内の参加者等だけでなく、撮影領域内に配置されたディスプレイ等に表示されている第二の会議室の状態を撮影した画像や、資料の画像等を撮影してしまう場合がある。このように一旦ディスプレイ等に表示された画像を再度撮影して得られた画像は、通常、画質が悪く、内容が把握しにくい。従って、このような画像が、第二の会議室で表示されると、目障りであるとともに、この画像内のディスプレイ内に表示されている画像等に、第二の会議室における会議の参加者の注意が移ってしまい、会議に集中できず、効率の良い会議が実現できない恐れがあるという問題があった。   However, in the conventional video conference system, depending on the installation location and orientation of the camera that captures the state of the conference in the first conference room, the camera is not only a participant in the first conference room, There may be a case where an image obtained by photographing the state of the second conference room displayed on a display or the like disposed inside, an image of a document, or the like is photographed. Thus, an image obtained by re-taking an image once displayed on a display or the like usually has poor image quality and is difficult to grasp. Therefore, when such an image is displayed in the second conference room, it is annoying and the image displayed in the display in this image is displayed in the conference room in the second conference room. There has been a problem that attention has shifted and it is not possible to concentrate on the meeting, and there is a possibility that an efficient meeting cannot be realized.

特に、第一の会議室において撮影された画像に、第二の会議室の様子を表示しているディスプレイ等を含む画像が含まれている場合、この第一の会議室において撮影された画像が、遠隔地の第二の会議室に送信されてディスプレイ等に表示されると、第二の会議室のディスプレイ等には、本来は表示が不要な第二の会議室内で撮影された画像等がフィードバックされて表示されることとなる。この結果、第二の会議室内においては、第一の会議室の様子と第二の会議室の様子とが同じ画面に表示されてしまい、表示される画像全体が混雑したものとなり、会議に集中てきなくなってしまうという問題があった。
具体的には、第二の会議室で参加者の一人が発言している様子が、第二の会議室のディスプレイ等にも表示される結果、第二の会議室では、現在、どこで、誰が発言しているかを、瞬時に判断しにくくなり、参加者が状況の把握ができずに混乱してしまい、会議に集中できなくなってしまうという問題があった。
本発明は上記の問題を解決するためになされたもので、各会議室で撮影された画像が互いにフィードバックされて、各会議室内のディスプレイ等に表示されることを防ぐようにすることを課題とする。
In particular, when an image taken in the first meeting room includes an image including a display that displays the state of the second meeting room, the image taken in the first meeting room is When sent to the second conference room at a remote location and displayed on a display or the like, the display or the like of the second conference room contains images or the like taken in the second conference room that are not originally required to be displayed. Feedback will be displayed. As a result, in the second meeting room, the state of the first meeting room and the state of the second meeting room are displayed on the same screen, and the entire displayed image is congested, and the concentration in the meeting There was a problem that it would not come.
Specifically, one of the participants speaking in the second meeting room is also displayed on the display of the second meeting room. As a result, in the second meeting room, where and who There was a problem that it was difficult to instantly determine whether or not he was speaking, and the participants could not grasp the situation and were confused and unable to concentrate on the meeting.
The present invention has been made to solve the above problem, and it is an object of the present invention to prevent images taken in each conference room from being fed back to each other and displayed on a display or the like in each conference room. To do.

本発明の画像処理装置は、第一の画像を示す情報である第一画像情報が記憶される画像情報記憶部と、前記第一画像情報を用いて前記第一の画像を表示する表示部と、前記表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付部と、前記画像情報記憶部に記憶されている前記第一画像情報を用いて、前記画像受付部が受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する差分画像情報構成部と、前記差分画像情報構成部が構成した差分画像情報を出力する出力部とを具備する画像処理装置である。
かかる構成により、撮影した画像から、撮影領域内で表示されていた画像を削除した画像を構成して出力することができる。例えば、この画像処理装置をテレビ会議等に用いることにより、会議の画像から、会議の妨げになる画像を除去することができ、効率の良い会議を実現することができる。
An image processing apparatus of the present invention includes an image information storage unit that stores first image information that is information indicating a first image, and a display unit that displays the first image using the first image information. Using an image receiving unit that receives a second image that is an image of an area including the first image displayed by the display unit, and the first image information stored in the image information storage unit, A difference image information constituting unit constituting difference image information which is information indicating a difference image which is an image obtained by removing the first image included in the second image from the second image received by the image receiving unit. And an output unit that outputs the difference image information configured by the difference image information configuration unit.
With this configuration, it is possible to configure and output an image obtained by deleting the image displayed in the shooting area from the shot image. For example, by using this image processing apparatus for a video conference or the like, an image that hinders the conference can be removed from the conference image, and an efficient conference can be realized.

また、本発明の画像処理装置は、前記画像処理装置において、前記差分画像情報構成部は、前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像を、前記画像情報記憶部に記憶されている前記第一画像情報が示す第一の画像と比較して、前記第一の画像に一致する画像を有する領域を決定し、前記第二の画像から当該決定した領域内の画像を除去した差分画像を示す差分画像情報を構成する画像処理装置である。
かかる構成により、撮影した画像から、撮影領域内で表示されていた画像を削除した画像を構成して出力することができる。
In the image processing apparatus of the present invention, in the image processing apparatus, the difference image information configuration unit may display an image on an area of the second image where the display unit displays the first image. Compared with the first image indicated by the first image information stored in the image information storage unit, an area having an image that matches the first image is determined, and the determined from the second image It is an image processing apparatus which comprises difference image information which shows the difference image which removed the image in an area | region.
With this configuration, it is possible to configure and output an image obtained by deleting the image displayed in the shooting area from the shot image.

また、本発明の画像処理装置は、前記画像処理装置において、前記差分画像情報構成部は、前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の、画素数を変換して前記比較を行う画像処理装置である。
かかる構成により、画像間の画素の比較を精度良く行うことができるため、撮影した画像から、撮影領域内に表示されていた画像を精度よく削除することができる。
In the image processing device of the present invention, in the image processing device, the difference image information configuration unit is an area in which the display unit in the first image or the second image displays the first image. An image processing apparatus that performs the comparison by converting the number of pixels of at least one of the upper images.
With this configuration, it is possible to accurately compare pixels between images, and thus it is possible to accurately delete an image displayed in a shooting area from a shot image.

また、本発明の画像処理装置は、前記画像処理装置において、前記差分画像情報構成部は、前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の、色を変換して前記比較を行う画像処理装置である。
かかる構成により、画像間の画素の比較を精度良く行うことができるため、撮影した画像から、撮影領域内に表示されていた画像を、精度よく削除することができる。
In the image processing device of the present invention, in the image processing device, the difference image information configuration unit is an area in which the display unit in the first image or the second image displays the first image. It is an image processing apparatus for converting the color of at least one of the above images and performing the comparison.
With this configuration, it is possible to compare pixels between images with high accuracy, so that an image displayed in the shooting region can be deleted with high accuracy from the captured image.

また、本発明のテレビ会議システムは、第一画像処理装置と、第二画像処理装置とを具備するテレピ会議システムであって、前記第一画像処理装置は、前記第二画像処理装置が出力する第一の画像を示す情報である第一画像情報を受信する第一受信部と、前記第一受信部が受信した第一画像情報が記憶される第一画像情報記憶部と、前記第一画像情報を用いて、前記第一の画像を表示する第一表示部と、前記第一表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける第一画像受付部と、前記第一画像情報記憶部に記憶されている前記第一画像情報を用いて、前記第一画像受付部が受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する第一差分画像情報構成部と、前記第一差分画像情報構成部が構成した差分画像情報を出力する第一出力部とを具備し、前記第二画像処理装置は、第二画像処理装置が出力する前記差分画像情報を受信する第二受信部と、前記第二受信部が受信した差分画像情報が記憶される第二画像情報記憶部と、前記差分画像情報を用いて、前記差分画像を表示する第二表示部と、前記第二表示部が表示する差分画像を含む領域を撮影した画像である第三の画像を受け付ける第二画像受付部と、前記第二画像情報記憶部に記憶されている前記差分画像情報を用いて、前記第二画像受付部が受け付けた第三の画像から、当該第三の画像に含まれる前記差分画像を除去した画像である前記第一の画像を示す情報である第一画像情報を構成する第二差分画像情報構成部と、前記第二差分画像情報構成部が構成した第一画像情報を出力する第二出力部とを具備するテレビ会議システムである。
かかる構成により、会議の状況等を撮影した画像からこの撮影領域内で表示されていた画像を削除した画像を構成して出力することができ、会議の画像から会議の妨げになる画像を除去して、効率のよい会議を実現することができる。
The video conference system of the present invention is a teleconferencing system comprising a first image processing device and a second image processing device, wherein the first image processing device outputs the second image processing device. A first receiving unit that receives first image information that is information indicating a first image; a first image information storage unit that stores first image information received by the first receiving unit; and the first image Using the information, a first display unit that receives the first image that displays the first image and a second image that is an image of a region that includes the first image displayed by the first display unit. And the first image included in the second image from the second image received by the first image receiving unit using the first image information stored in the first image information storage unit. The difference image which is information indicating the difference image which is an image obtained by removing the image of A first difference image information constituting unit constituting a report, and a first output unit outputting the difference image information constituted by the first difference image information constituting unit, wherein the second image processing device A second receiving unit that receives the difference image information output by the processing device, a second image information storage unit that stores the difference image information received by the second receiving unit, and the difference image information, A second display unit that displays a difference image, a second image reception unit that receives a third image that is an image of an area including the difference image displayed by the second display unit, and the second image information storage unit The first image which is an image obtained by removing the difference image included in the third image from the third image received by the second image receiving unit using the difference image information stored in The second image information constituting the first image information And min image information forming unit, a television conference system in which the second difference image information forming unit includes a second output section that outputs the first image information constructed.
With this configuration, it is possible to construct and output an image obtained by deleting the image displayed in the shooting area from an image obtained by capturing the situation of the conference and the like, and removing an image that hinders the conference from the image of the conference. Thus, an efficient meeting can be realized.

また、本発明のテレビ会議システムは、前記テレビ会議システムにおいて、前記第一差分画像情報構成部は、前記第二の画像内における前記第一表示部が前記第一の画像を表示する領域上の画像を、前記第一画像情報記憶部に記憶されている前記第一画像情報が示す第一の画像と比較して、前記第一の画像に一致する画像を有する領域を決定し、前記第二の画像から、当該決定した領域内の画像を除去した前記差分画像を示す前記差分画像情報を構成し、前記第二差分画像情報構成部は、前記第三の画像内における前記第二表示部が前記差分画像を表示する領域上の画像を、前記第二画像情報記憶部に記憶されている前記差分画像情報が示す差分画像と比較して、前記差分画像に一致する画像を有する領域を決定し、前記第三の画像から当該決定した領域内の画像を除去した前記第一の画像を示す前記第一画像情報を構成するテレビ会議システムである。
かかる構成により、会議の状況等を撮影した画像からこの撮影領域内で表示されていた画像を削除した画像を構成して出力することができ、会議の画像から会議の妨げになる画像を除去して、効率の良い会議を実現することができる。
In the video conference system according to the present invention, in the video conference system, the first difference image information configuration unit is on an area where the first display unit in the second image displays the first image. The image is compared with the first image indicated by the first image information stored in the first image information storage unit, an area having an image that matches the first image is determined, and the second image information is stored. The difference image information indicating the difference image obtained by removing the image in the determined area from the image is configured, and the second difference image information configuring unit is configured so that the second display unit in the third image is The image on the area displaying the difference image is compared with the difference image indicated by the difference image information stored in the second image information storage unit, and an area having an image that matches the difference image is determined. , From the third image A television conference system that constitutes the first image information indicating the image the first image obtained by removing the boss was region.
With this configuration, it is possible to construct and output an image obtained by deleting the image displayed in the shooting area from an image obtained by capturing the situation of the conference and the like, and removing an image that hinders the conference from the image of the conference. Efficient meetings.

また、本発明のテレビ会議システムは、前記テレビ会議システムにおいて、前記第一差分画像情報構成部は、前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の画素数を変換して前記比較を行い、前記第二差分画像情報構成部は、前記差分画像または前記第三の画像内における前記表示部が前記差分画像を表示する領域上の画像の少なくとも一方の画素数を変換して前記比較を行うテレビ会議システムである。
かかる構成により、画像間の画素の比較を精度良く行うことができるため、撮影した画像から、撮影領域内に表示されていた画像を精度よく削除することができる。
In the video conference system of the present invention, in the video conference system, the first differential image information configuration unit displays the first image in the display unit in the first image or the second image. The comparison is performed by converting the number of pixels of at least one of the images on the area to be processed, and the second difference image information configuration unit displays the difference image on the difference image or the third image in the display unit. This is a video conference system that performs the comparison by converting the number of pixels of at least one of the images on the area to be processed.
With this configuration, it is possible to accurately compare pixels between images, and thus it is possible to accurately delete an image displayed in a shooting area from a shot image.

また、本発明のテレビ会議システムは、前記テレビ会議システムにおいて、前記第一差分画像情報構成部は、前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の色を変換して前記比較を行い、前記第二差分画像情報構成部は、前記差分画像または前記第三の画像内における前記表示部が前記差分画像を表示する領域上の画像の少なくとも一方の色を変換して前記比較を行うテレビ会議システムである。
かかる構成により、画像間の画素の比較を精度良く行うことができるため、撮影した画像から、撮影領域内に表示されていた画像を精度よく削除することができる。
In the video conference system of the present invention, in the video conference system, the first differential image information configuration unit displays the first image in the display unit in the first image or the second image. The comparison is performed by converting at least one color of the image on the area to be performed, and the second difference image information configuration unit displays the difference image on the display unit in the difference image or the third image. In the video conference system, the comparison is performed by converting at least one color of an image on a region.
With this configuration, it is possible to accurately compare pixels between images, and thus it is possible to accurately delete an image displayed in a shooting area from a shot image.

本発明によれば、撮影した画像から撮影領域内で表示されていた画像を削除した画像を構成して出力することができる。   According to the present invention, it is possible to configure and output an image obtained by deleting the image displayed in the shooting area from the shot image.

以下、画像処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
図1は、本実施の形態による画像処理装置のブロック図である。
画像処理装置100は、画像情報記憶部101、表示部102、撮影部103、画像受付部107、差分画像情報構成部104、および出力部105を具備する。
Hereinafter, embodiments of an image processing apparatus and the like will be described with reference to the drawings. In addition, since the component which attached | subjected the same code | symbol in embodiment performs the same operation | movement, re-explanation may be abbreviate | omitted.
FIG. 1 is a block diagram of an image processing apparatus according to this embodiment.
The image processing apparatus 100 includes an image information storage unit 101, a display unit 102, a photographing unit 103, an image reception unit 107, a difference image information configuration unit 104, and an output unit 105.

画像情報記憶部101には、第一の画像を示す情報である第一画像情報が記憶される。第一の画像は、通常は動画像であるが、静止画像であっても良い。第一の画像はカラー画像であることが好ましいが、グレースケール画像であっても良い。この第一の画像は、例えば、会議の場面を撮影した画像である。具体例としては、この画像処理装置100を端末として用いたテレビ会議システムにおける、他の会議室で撮影され、リアルタイムに送信された画像である。また、第一の画像は、会議の場面を撮影したものを蓄積した画像であってもよい。   The image information storage unit 101 stores first image information that is information indicating the first image. The first image is usually a moving image, but may be a still image. The first image is preferably a color image, but may be a grayscale image. This first image is, for example, an image of a meeting scene. A specific example is an image taken in another conference room and transmitted in real time in a video conference system using the image processing apparatus 100 as a terminal. In addition, the first image may be an image obtained by storing an image of a meeting scene.

また、第一の画像は、会議の場面を撮影した画像に限らず、どのような画像であっても良い。例えば、会議に利用される資料の画像やプレゼンテーション用の画像等であっても良い。また、第一の画像情報は、アナログの画像情報であってもデジタルの画像情報であってもよい。例えば、デジタルの画像情報である場合、MPEG(Moving Picture Experts Group)や、ITU−TH.264等、画像情報の圧縮符号化のアルゴリズム等は問わない。また、非圧縮の画像情報を出力してもよい。また、画像情報は、HD画像等、画質や解像度等も問わない。また、第一の画像情報には、他の画像情報等との同期を取るための同期情報が含まれていても良い。また、同期情報が付加されていてもよい。   The first image is not limited to an image obtained by capturing a meeting scene, and may be any image. For example, it may be an image of a material used for a meeting or an image for presentation. The first image information may be analog image information or digital image information. For example, in the case of digital image information, MPEG (Moving Picture Experts Group), ITU-TH. H.264 and other algorithms for compressing and encoding image information may be used. Further, uncompressed image information may be output. The image information may be any image quality, resolution, etc. such as an HD image. Further, the first image information may include synchronization information for synchronizing with other image information and the like. Also, synchronization information may be added.

画像情報記憶部101は、半導体メモリや磁気ディスク、光ディスクなどの所定の記録媒体によって実現され得る。画像情報記憶部101に第一画像情報が記憶される過程は問わない。例えば、図示しない記録媒体を介して第一画像情報が画像情報記憶部101に記憶されるようにしてもよく、図示しない通信回線等を介して送信された第一画像情報が画像情報記憶部101で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された第一画像情報が画像情報記憶部101に記憶されてもよい。また、画像情報記憶部101には、第一画像情報に加えて、第一画像情報に対応した音声情報が記憶されていても良い。画像情報記憶部101による記憶は、通信回線等を介して送信された第一画像情報の、RAM等における一時的な記憶、いわゆるバッファリング等でもよく、あるいは、長期的な記憶でもよい。   The image information storage unit 101 can be realized by a predetermined recording medium such as a semiconductor memory, a magnetic disk, or an optical disk. The process in which the first image information is stored in the image information storage unit 101 does not matter. For example, the first image information may be stored in the image information storage unit 101 via a recording medium (not shown), and the first image information transmitted via a communication line (not shown) is stored in the image information storage unit 101. The first image information input via the input device may be stored in the image information storage unit 101. In addition to the first image information, the image information storage unit 101 may store audio information corresponding to the first image information. The storage by the image information storage unit 101 may be temporary storage in the RAM or the like of the first image information transmitted via a communication line or the like, so-called buffering, or long-term storage.

表示部102は、画像情報記憶部101に記憶されている第一画像情報を用いて、第一の画像を表示する。具体的には、液晶ディスプレイやプラズマディスプレイ、CRTディスプレイ等の表示デバイスに、第一画像情報を用いて構成した第一の画像を表示する。なお、表示部102は、第一画像情報に対応した音声情報を、第一の画像とともに、音声出力してもよい。表示部102が第一の画像を表示する解像度等は問わない。また、表示部102は、第一画像情報に第一画像のマスク情報や、透過情報が含まれる場合、これらの情報を用いて、第一の画像の一部の領域を透過させて表示したり、第一の画像の一部の領域を、他の画像、例えば背景画像や特定の色の画像で置換して表示するようにしてもよい。表示部102は、表示を行う表示デバイスやスピーカを含んでもよく、あるいは含まなくてもよい。表示部102は、ハードウェアによって実現されてもよく、あるいは表示デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The display unit 102 displays the first image using the first image information stored in the image information storage unit 101. Specifically, a first image configured using the first image information is displayed on a display device such as a liquid crystal display, a plasma display, or a CRT display. Note that the display unit 102 may output audio information corresponding to the first image information together with the first image. The resolution at which the display unit 102 displays the first image does not matter. In addition, when the first image information includes mask information or transmission information of the first image, the display unit 102 uses the information to display a part of the first image in a transparent manner. Alternatively, a partial area of the first image may be replaced with another image, for example, a background image or a specific color image for display. The display unit 102 may or may not include a display device and a speaker that perform display. The display unit 102 may be realized by hardware, or may be realized by software such as a driver that drives a display device.

撮影部103は、表示部102が表示デバイス等を用いて表示する第一の画像を含む領域の画像である第二の画像を撮影する。具体的には、撮影部103は、表示部102が第一の画像を表示する領域上を含む領域を撮影対象領域として撮影して、第二の画像を示す情報である第二画像情報を取得する。より具体的には、撮影部103は、第一の画像を表示するディスプレイ等の表示デバイスの表示面を含む領域の画像を第二の画像として撮影する。撮影部103が撮影する画像は、通常は動画像であるが、一以上の静止画像であっても良い。なお、一定または不定の所定の時間間隔で撮影された複数の静止画像は、ここでは動画像とする。また、第二の画像は、通常はカラー画像であるが、グレースケール画像であってもよい。   The imaging unit 103 captures a second image that is an image of an area including the first image that the display unit 102 displays using a display device or the like. Specifically, the imaging unit 103 captures an area including the area where the display unit 102 displays the first image as an imaging target area, and acquires second image information that is information indicating the second image. To do. More specifically, the imaging unit 103 captures an image of an area including a display surface of a display device such as a display that displays the first image as the second image. The image photographed by the photographing unit 103 is usually a moving image, but may be one or more still images. Note that a plurality of still images taken at predetermined time intervals that are constant or indefinite are moving images. The second image is usually a color image, but may be a grayscale image.

撮影部103の撮影方向と表示部102が表示する第一の画像の表示面とのなす角等は問わない。撮影部103は、例えば、映像を撮影するカメラであり、例えば、CCDやCMOS等のイメージセンサを用いて映像を撮影する。また、撮影部103が音声情報も取得する場合には、撮影部103は、例えば、マイクを含んでいてもよい。撮影部103が画像を出力するためのデータ構造やタイミング等は問わない。例えば、撮影部103は、取得した動画像の情報を、一つの動画像ファイルとして出力しても良い。また、撮影部103は動画像を構成する各フレームの画像情報、もしくは各フレームに相当する画像情報を、取得する毎に順次、出力しても良いし、所定数のフレームの画像が取得された時点で、所定数のフレーム単位で、画像情報を出力してもよい。   The angle formed by the photographing direction of the photographing unit 103 and the display surface of the first image displayed on the display unit 102 is not limited. The imaging unit 103 is a camera that captures images, for example, and captures images using an image sensor such as a CCD or CMOS. Further, when the photographing unit 103 also acquires audio information, the photographing unit 103 may include a microphone, for example. There is no limitation on the data structure, timing, or the like for the imaging unit 103 to output an image. For example, the photographing unit 103 may output the acquired moving image information as one moving image file. Further, the photographing unit 103 may sequentially output image information of each frame constituting the moving image or image information corresponding to each frame, or a predetermined number of frames of images have been acquired. At the time, the image information may be output in units of a predetermined number of frames.

また、撮影部103は、撮影した動画像に対して、動画像内の任意の時間的位置を指定することができるような情報である時間位置情報を付加した動画像を作成してもよい。例えば、時間位置情報として、撮影時点の時刻を示す情報等の時間位置を示す情報を付加した動画像を作成してもよい。例えば、撮影部103は、動画像を構成する各フレームの画像情報に対し、その画像情報を取得した時刻の情報を、時間位置情報、具体例としてはタイムコードや、タイムスタンプとして付加した画像情報を作成してもよい。また、画像情報の各フレームに、フレームを識別するためのフレーム識別情報を付与するようにしてもよい。   In addition, the photographing unit 103 may create a moving image in which time position information that is information that can specify an arbitrary temporal position in the moving image is added to the captured moving image. For example, a moving image to which information indicating a time position such as information indicating the time at the time of shooting is added may be created as the time position information. For example, the image capturing unit 103 adds, to the image information of each frame constituting the moving image, information on the time at which the image information was acquired as time position information, specifically, a time code or image information added as a time stamp. May be created. Further, frame identification information for identifying a frame may be added to each frame of the image information.

撮影部103が作成し出力する画像情報は、アナログの画像情報であってもデジタルの画像情報であってもよい。例えば、デジタルの画像情報である場合、MPEG(Moving Picture Experts Group)や、ITU−T H.264等、画像情報の圧縮符号化のアルゴリズム等は問わない。また、非圧縮の画像情報を出力してもよい。また、画像情報は、HD画像等、画質や解像度等も問わない。また、撮影部103は、マイク等を含むようにし、音声情報も取得するようにしてもよい。   The image information created and output by the photographing unit 103 may be analog image information or digital image information. For example, in the case of digital image information, MPEG (Moving Picture Experts Group) or ITU-T H.264 is used. H.264 and other algorithms for compressing and encoding image information may be used. Further, uncompressed image information may be output. The image information may be any image quality, resolution, etc. such as an HD image. Further, the photographing unit 103 may include a microphone and acquire voice information.

また、撮影部103は、撮影部103を識別する装置識別情報を出力するようにしてもよい。装置識別情報は、撮影部103が、カメラ等の撮影デバイスである場合、その撮影デバイスの製造番号等であってもよいし、予め撮影部103に設定しておいた識別番号であってもよい。また、撮影部103のIPアドレス等のネットワーク上の物理アドレス情報であってもよい。また、装置識別情報は、結果として撮影部103を識別できる情報であればよく、撮影部103が接続されているポート番号等の入力端子を識別する情報であってもよい。装置識別情報は、例えば撮影部103内部の図示しないメモリ等に予め蓄積しておく。また、撮影部103が、識別情報をどのように送信するかは問わない。具体的には、上述した位置識別情報と同様の方法により識別情報を出力することが可能である。   The imaging unit 103 may output device identification information for identifying the imaging unit 103. When the photographing unit 103 is a photographing device such as a camera, the device identification information may be a manufacturing number of the photographing device or an identification number set in the photographing unit 103 in advance. . Further, it may be physical address information on the network such as the IP address of the photographing unit 103. The device identification information may be information that can identify the imaging unit 103 as a result, and may be information that identifies an input terminal such as a port number to which the imaging unit 103 is connected. The device identification information is stored in advance in a memory (not shown) in the photographing unit 103, for example. Moreover, it does not ask how the imaging | photography part 103 transmits identification information. Specifically, the identification information can be output by the same method as the position identification information described above.

画像受付部107は、表示部102が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける。ここでは、具体的には、撮影部103が出力する当該撮影部103が撮影した第二の画像を示す情報である第二画像情報を受け付ける。ここで、この受け付けは、例えば、有線もしくは無線の通信回線(例えば、インターネットやイントラネット、LANなどであってもよく、あるいは、IEEE1394のケーブルや、映像情報を伝送する専用のケーブル等であってもよい)を介して送信された情報の受信でもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出された情報の受け付けでもよい。本実施の形態では、画像受付部107は、撮影部103が撮影した第二の画像を示す情報を、専用のケーブル等を介して受け付けるものとする。なお、画像受付部107は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、画像受付部107は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The image receiving unit 107 receives a second image that is an image of an area including the first image displayed on the display unit 102. Here, specifically, the second image information, which is information indicating the second image captured by the imaging unit 103 output from the imaging unit 103, is received. Here, this acceptance may be, for example, a wired or wireless communication line (for example, the Internet, an intranet, a LAN, or the like, or an IEEE 1394 cable, a dedicated cable for transmitting video information, or the like). Information received via a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received. In the present embodiment, it is assumed that the image reception unit 107 receives information indicating the second image captured by the imaging unit 103 via a dedicated cable or the like. The image receiving unit 107 may or may not include a device (for example, a modem or a network card) for receiving. The image receiving unit 107 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

差分画像情報構成部104は、画像情報記憶部101に記憶されている第一画像情報を用いて、画像受付部107が受け付けた第二の画像から、当該第二の画像に含まれる第一の画像を除去した画像である差分画像を示す情報である差分画像情報を作成する。具体的には、差分画像情報構成部104は、画像受付部107が受け付けた第二の画像から、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像に一致すると判断される画像を除去した画像である差分画像を示す情報である差分画像情報を作成する。通常、第二の画像から、当該第二の画像に含まれる第一の画像を除去する処理は、デジタル処理で行われる。このため、第一画像情報や、第二の画像を示す情報である第二画像情報が、アナログ情報である場合、デジタルシグナルプロセッサ等を用いてデジタル信号に変換した後、処理を行うことが好ましい。ただし、第二の画像から、当該第二の画像に含まれる第一画像を除去する処理を、アナログ処理で行うようにしてもよい。   The difference image information configuration unit 104 uses the first image information stored in the image information storage unit 101 to select the first image included in the second image from the second image received by the image reception unit 107. Difference image information that is information indicating a difference image that is an image from which the image has been removed is created. Specifically, the difference image information configuration unit 104 determines that the second image received by the image reception unit 107 matches the first image indicated by the first image information stored in the image information storage unit 101. Difference image information that is information indicating a difference image that is an image from which the image to be removed is removed is created. Usually, the process of removing the first image included in the second image from the second image is performed by digital processing. For this reason, when the first image information or the second image information, which is information indicating the second image, is analog information, it is preferable to perform processing after conversion to a digital signal using a digital signal processor or the like. . However, the process of removing the first image included in the second image from the second image may be performed by analog processing.

差分画像情報構成部104が除去する第二の画像に含まれる第一の画像は、通常知られているパターンマッチングの技術を用いて決定される。除去対象となる画像は、第一画像情報が示す第一の画像と、完全に一致した画像でなくてもよい。第二の画像に含まれる第一の画像は、一旦、表示部102によってディスプレイ等に表示した第一の画像を、撮影部103で撮影して取得したものであるため、色や画素数や、画像の細部等が変化したり失われたりして、第一画像情報が示す第一の画像と、通常は完全に一致することがないからである。このため、差分画像情報構成部104は、第二の画像に含まれる実質的に第一の画像であると判断される画像を除去する。   The first image included in the second image removed by the difference image information configuration unit 104 is determined by using a generally known pattern matching technique. The image to be removed may not be an image that completely matches the first image indicated by the first image information. Since the first image included in the second image is obtained by photographing the first image displayed on the display or the like by the display unit 102 by the photographing unit 103, the color, the number of pixels, This is because details or the like of the image is changed or lost, and usually does not completely match the first image indicated by the first image information. Therefore, the difference image information configuration unit 104 removes an image that is determined to be substantially the first image included in the second image.

具体的には、差分画像情報構成部104は、第二の画像内における表示部102が第一の画像を表示する領域上の画像を、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像と比較して、第二の画像内の第一の画像を有する領域を決定し、第二の画像から、当該決定した領域内の画像を除去した差分画像を示す差分画像情報を作成する。第一画像情報が示す第一の画像と第二の画像とが動画像の場合、比較に用いられる画像情報記憶部101に記憶されている第一画像情報が示す第一の画像と第二の画像とは、通常、これらの動画像をそれぞれ構成するフレーム単位の画像であり、1フレームの画像同士が比較に用いられる。   Specifically, the difference image information configuration unit 104 displays the image on the area where the display unit 102 displays the first image in the second image as the first image information stored in the image information storage unit 101. The difference image which shows the difference image which determined the area | region which has the 1st image in a 2nd image compared with the 1st image which shows, and removed the image in the determined area | region from a 2nd image Create information. When the first image and the second image indicated by the first image information are moving images, the first image and the second image indicated by the first image information stored in the image information storage unit 101 used for comparison are used. An image is usually an image in frame units that constitute each of these moving images, and images of one frame are used for comparison.

なお、比較に用いられる画像情報記憶部101に記憶されている第一画像情報が示す第一の画像と第二の画像は、それぞれの動画像を構成する各静止画像でもよい。比較に用いられる画像情報記憶部101に記憶されている第一画像情報が示す第一の画像は、撮影部103が撮影した時点において、表示部102により表示された第一の画像であることが好ましい。ただし、特に、この画像処理装置100が、テレビ会議等に用いられる場合には、比較に用いられる第一画像情報が示す第一の画像は、撮影部103が1フレームの第二の画像を撮影した時点において、表示されていた第一の画像の1フレームの画像に対して、時間的に前後した1フレームの画像であってもよい。通常、テレビ会議等に用いられる画像においては、急激な動きがある画像が撮影されて表示されることが少ないからである。   Note that the first image and the second image indicated by the first image information stored in the image information storage unit 101 used for comparison may be each still image constituting each moving image. The first image indicated by the first image information stored in the image information storage unit 101 used for comparison may be the first image displayed by the display unit 102 at the time when the imaging unit 103 captures the image. preferable. However, in particular, when the image processing apparatus 100 is used for a video conference or the like, the first image indicated by the first image information used for comparison is captured by the photographing unit 103 for the second image of one frame. At this time, the image may be one frame image that is temporally changed with respect to the one frame image of the first image displayed. This is because, in an image used for a video conference or the like, an image with a sudden movement is usually not captured and displayed.

「第二の画像内における表示部102が第一の画像を表示する領域」は、例えば、予め第二の画像内における表示部102が第一の画像を表示する領域が、第二の画像内のどの領域に表示されるかを調べておいて、この領域を指定する情報を設定しておくようにしてもよい。この領域を指定する情報は、例えば、この領域が四角形であれば、その四角形の4つの頂点を指定する座標情報や、ベクトル情報等が利用可能である。 “Area in which the display unit 102 displays the first image in the second image” is, for example, an area in which the display unit 102 in the second image displays the first image in advance in the second image. It may be possible to set information for designating an area in which the area is displayed. For example, if this area is a rectangle, coordinate information specifying four vertices of the rectangle, vector information, and the like can be used as the information specifying this area.

また、この第一の画像を表示する領域を画像処理等により検出してもよい。例えば、第一の画像が表示される図示しないディスプレイ等の枠やその枠のコーナーの4点を、差分画像情報構成部104が特定することによって、その枠の内部の領域である第一の画像を表示する領域を特定してもよい。ディスプレイ等の枠やその枠のコーナーの4点を特定することができるように、ディスプレイ等の枠や、その枠のコーナーの4点には、所定の色や、模様、マーカ等が配置されていてもよい。その所定の色は、会議の場面で一般に使われないような色であることが好ましい。マーカは、例えば、モーションキャプチャ等で用いられる光学式のマーカ等であってもよい。第二の画像内における表示部102が第一の画像を表示する領域の特定の方法は、これらの方法に限定されるものではなく、その他の方法であってもよい。また、このような所定の領域を特定する方法はすでに公知であり、その詳細な説明を省略する。   Further, the area for displaying the first image may be detected by image processing or the like. For example, the difference image information configuration unit 104 specifies four frames, such as a display (not shown) frame on which the first image is displayed, and corners of the frame, so that the first image that is an area inside the frame is specified. You may specify the area | region which displays. A predetermined color, pattern, marker, etc. are arranged at the four points of the frame of the display and the corner of the frame so that the four points of the frame of the display and the corner of the frame can be specified. May be. The predetermined color is preferably a color that is not generally used in a meeting scene. The marker may be, for example, an optical marker used in motion capture or the like. The specific method of the area in which the display unit 102 displays the first image in the second image is not limited to these methods, and other methods may be used. In addition, a method for specifying such a predetermined region is already known, and detailed description thereof is omitted.

なお、第二の画像と、表示部102が第一の画像を表示する領域とが一致する場合、例えば撮影部103の撮影領域と、表示部102の表示領域とが一致する場合には、この「第二の画像内における表示部102が第一の画像を表示する領域」を設定する処理等は、省略可能である。あるいは、この「第二の画像内における表示部102が第一の画像を表示する領域」を、第二の画像の全領域に設定するようにすればよい。この表示領域は、一旦、設定した後は、撮影部103が撮影する領域や、表示部102のディスプレイ等の位置が変更されない限り、通常は固定しておくようにすればよい。   When the second image and the area where the display unit 102 displays the first image match, for example, when the shooting area of the shooting unit 103 and the display area of the display unit 102 match, this The process of setting “an area in which the display unit 102 displays the first image in the second image” can be omitted. Alternatively, the “region in which the display unit 102 displays the first image in the second image” may be set to the entire region of the second image. Once the display area has been set, it is usually fixed as long as the area captured by the imaging unit 103 and the position of the display of the display unit 102 are not changed.

また、「第二の画像内における表示部102が第一の画像を表示する領域上」、とは、第二画像内の実際に含まれている第一の画像だけではなく、表示部102と重なっている会議の参加者等の物体等を無視した場合の、表示部102が第一の画像を表示している領域である。例えば、表示部102が第二の画像を表示する際に用いるディスプレイの表示領域が四角形である場合、そのディスプレイの一部を覆う物体、例えばユーザ等が、第二の画像に撮影されていたとしても、表示部102が第一の画像を表示する領域は四角形となる。ただし、撮影部103に対する表示デバイスの表示領域の向きにより、形状は完全に一致しない場合がある。   Further, “on the region where the display unit 102 in the second image displays the first image” means not only the first image actually included in the second image but also the display unit 102. This is an area where the display unit 102 displays the first image when objects such as overlapping conference participants are ignored. For example, when the display area of the display used when the display unit 102 displays the second image is a quadrangle, it is assumed that an object that covers a part of the display, such as a user, is captured in the second image. In addition, the area where the display unit 102 displays the first image is a rectangle. However, the shape may not completely match depending on the orientation of the display area of the display device with respect to the photographing unit 103.

差分画像情報構成部104は、例えば、上記のように特定された第二の画像内における 表示部102が第一の画像を表示する領域上の画像(以下、第二領域画像と称す)と、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像と、をそれぞれ構成 する画素のうちの、対応する画素同士を比較する。そして、比較の結果、予め設定しておいた所定の関係にあると判断された第二の画像内の画素を、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像に対応する画素と判断する。そして、同様の判 断を、第二領域画像内の画素、通常は全ての画素について順次行い、第一の画素に対応する画素の含まれる領域を決定する。そして、この領域の画像を除去した差分画像を示す差分画像情報を作成する。   The difference image information configuration unit 104 includes, for example, an image on an area where the display unit 102 displays the first image in the second image specified as described above (hereinafter referred to as a second area image), Corresponding pixels are compared among the pixels constituting the first image indicated by the first image information stored in the image information storage unit 101. Then, as a result of the comparison, the first image indicated by the first image information stored in the image information storage unit 101 indicates the pixels in the second image determined to have a predetermined relationship set in advance. It is determined that the pixel corresponds to. Then, the same determination is sequentially performed on the pixels in the second region image, usually all the pixels, and the region including the pixels corresponding to the first pixel is determined. And the difference image information which shows the difference image which removed the image of this area | region is produced.

この対応する画素同士の比較は、必ずしも対応する画素同士の1対1の比較でなくてもよい。例えば、一つの画素と、複数の画素との比較でもよいし、複数の画素と複数の画素との比較でもよい。第二領域画像と画像情報記憶部101に記憶されている第一画像情報が示す第一の画像との画素数等が異なる場合、画素同士が1対1で対応しないからである。例えば、一方の画像の1画素と、この画素に対応する他方の画像の複数の画素とを比較する場合、一方の画像の1画素の画素値と、複数の画素の画素値の平均値や中間値等の代表値とを比較しても良い。また、例えば、一方の画像の複数の画素と、この複数の画素に対応する他方の画像の複数の画素とを比較する場合、一方の画像の複数の画素の画素値の平均値等の代表値と、複数の画素の画素値の平均値等の代表値とを比較してもよい。例えば、画素同士の比較は、通常、画素の情報、例えば、RGBの各チャンネルの情報や、輝度情報等の色情報の値の比較により行われる。   The comparison between the corresponding pixels is not necessarily a one-to-one comparison between the corresponding pixels. For example, one pixel may be compared with a plurality of pixels, or a plurality of pixels may be compared with a plurality of pixels. This is because when the number of pixels and the like of the second region image and the first image indicated by the first image information stored in the image information storage unit 101 are different, the pixels do not correspond one-on-one. For example, when comparing one pixel of one image with a plurality of pixels of the other image corresponding to this pixel, the pixel value of one pixel of one image and the average value or intermediate value of the pixel values of the plurality of pixels You may compare with representative values, such as a value. For example, when comparing a plurality of pixels of one image with a plurality of pixels of the other image corresponding to the plurality of pixels, a representative value such as an average value of pixel values of the plurality of pixels of one image And a representative value such as an average value of pixel values of a plurality of pixels may be compared. For example, comparison between pixels is usually performed by comparing pixel information, for example, information on each channel of RGB, and values of color information such as luminance information.

具体的には、第二領域画像と、第一の画像とが相似の関係にあり、両者の総画素数が同じである場合、同じ位置の座標同士の、所定の画素の情報、例えば色情報の比較を行い、その差が、予め設定した閾値以内であれば、一致する画素であると判断し、閾値より大きければ、一致しない画素であると判断することにより行われる。そして、このような処理を全ての画素について行って、一致する画素が含まれる領域を決定する。画素の情報同士を比較して一致するか否かを判断する処理等については公知技術である。   Specifically, when the second region image and the first image are in a similar relationship and the total number of pixels of both is the same, information on a predetermined pixel between coordinates at the same position, for example, color information If the difference is within a preset threshold value, it is determined that the pixel matches, and if the difference is greater than the threshold value, it is determined that the pixel does not match. Then, such a process is performed for all the pixels, and an area including matching pixels is determined. The process of comparing pixel information to determine whether or not they match is a known technique.

また、二つの画像の同じ位置の領域同士について、パターンマッチングを順次行って、第二領域画像内における一致する領域を決定してもよく、これらの方法を組み合わせてもよい。また、第二領域画像のうちの、第一の画像に一致する画素の領域に囲まれた、微小な画素の領域等についてはノイズと考えて、第一の画像に一致する画素と判断するようにしてもよい。画像同士を比較して、一致する領域を決定する処理についは、上記の方法も含めて様々な処理があるが、公知技術であるので詳細な説明は省略する。   In addition, pattern matching may be sequentially performed on regions at the same position in two images to determine matching regions in the second region image, or these methods may be combined. Further, among the second region images, a minute pixel region or the like surrounded by a pixel region that matches the first image is considered as noise and is determined to be a pixel that matches the first image. It may be. There are various processes for comparing the images and determining the matching area, including the above-described method, but since it is a known technique, a detailed description thereof will be omitted.

第二領域画像と、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像とが相似の関係にない場合や、両者の総画素数が同じでない場合には以下のように処理を行うようにしてもよい。まず、第二の画像内における表示部102が第一の画像を表示する領域上の画像の形状および大きさと、第一画像情報が示す第一の画像の形状および大きさとの相関関数を求める。そして、この相関関数、もしくはその逆関数を用いて、第二領域画像の各画素に対応する第一の画像内の座標を算出し、第一画像情報が示す第一の画像の、算出された座標が示す位置の画素の色情報等の情報と、対応する第二領域画像の画素の色情報等の情報とを、上記と同様に閾値等を用いて比較する。そして、第二領域画像内の、第一画像情報が示す第一の画像に一致すると判断された画素を含む領域を決定する。そして、上記のようにして決定した領域の画像を、第二の画像、具体的には、第二の画像を構成する各フレームの画像から除去した差分画像を示す差分画像情報を構成する。   When the second region image and the first image indicated by the first image information stored in the image information storage unit 101 are not similar or when the total number of pixels is not the same, the following is performed. You may make it perform a process. First, a correlation function between the shape and size of the image on the area where the display unit 102 displays the first image in the second image and the shape and size of the first image indicated by the first image information is obtained. Then, using this correlation function or its inverse function, the coordinates in the first image corresponding to each pixel of the second region image are calculated, and the first image indicated by the first image information is calculated. The information such as the color information of the pixel at the position indicated by the coordinates and the information such as the color information of the pixel of the corresponding second region image are compared using a threshold value or the like as described above. And the area | region containing the pixel judged to correspond with the 1st image which 1st image information shows in a 2nd area image is determined. And the difference image information which shows the difference image which removed the image of the area | region determined as mentioned above from the image of the 2nd image, specifically each frame which comprises a 2nd image is comprised.

なお、上記のような、第二領域画像内において、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像に一致する画素を含む領域を決定する処理は、第二の画像の全てのフレームの画像に対して行うようにしてもよいが、一定または不定期の所定のタイミング、例えば、数フレーム毎や数秒毎に行うようにしてもよい。特に、第一の画像が、テレビ会議等の画像である場合、上述したように、急激な動き等がないと考えられるため、一旦決定した、第一画像情報が示す第一の画像に一致する画素を含む領域を、連続する複数のフレームの第二の画像から第一の画像に一致する画像を除去する処理に適用しても、大きな画質の劣化等がないと考えられるからである。上記のような、第二領域画像と、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像との、画像が一致する領域を決定する処理については、これらの方法に限定されるものではなく、その他の方法であってもよい。例えば、MPEG等の2つのフレーム間の画像を比較して、移動しているオブジェクトを検出する処理等の公知技術が利用可能である。   In addition, the process which determines the area | region containing the pixel which corresponds to the 1st image which the 1st image information memorize | stored in the image information storage part 101 as mentioned above in the 2nd area | region image as mentioned above is 2nd Although it may be performed on images of all frames of the image, it may be performed at a predetermined or irregular timing, for example, every few frames or every few seconds. In particular, when the first image is an image of a video conference or the like, it is considered that there is no abrupt movement or the like as described above, and therefore matches the first image indicated by the first image information once determined. This is because even if the region including the pixels is applied to a process of removing an image that matches the first image from the second image of a plurality of consecutive frames, it is considered that there is no significant deterioration in image quality. The above-described processing for determining a region where the images match between the second region image and the first image indicated by the first image information stored in the image information storage unit 101 is described in these methods. It is not limited and other methods may be used. For example, a known technique such as processing for detecting a moving object by comparing images between two frames such as MPEG can be used.

ここで、差分画像情報構成部104は、第一の画像または第二領域画像の少なくとも一方の、画素数を変換した後、上述したような、第一画像情報が示す第一の画像に一致する第二領域画像内の領域を判断するための、第一画像情報が示す第一の画像と第二領域画像との比較を行うようにしてもよい。例えば、第一画像情報が示す第一の画像と第二領域画像との総画素数が同じとなるように、第一の画像または第二領域画像の少なくとも一方の、画素を補間して、画素数を増加あるいは減少させるようにしても良い。また、第一の画像と第二領域画像との形状が同じとなるように、画素を補間して、画素数を増加あるいは減少させてもよい。例えば、第一の画像と、第二領域画像の総画素数や形状を同じとすることで、二つの画像の画素同士の比較が容易となる。   Here, after the number of pixels of at least one of the first image and the second region image is converted, the difference image information configuration unit 104 matches the first image indicated by the first image information as described above. A comparison between the first image indicated by the first image information and the second region image may be performed to determine the region in the second region image. For example, by interpolating pixels of at least one of the first image and the second region image so that the total number of pixels of the first image and the second region image indicated by the first image information are the same, The number may be increased or decreased. Further, the number of pixels may be increased or decreased by interpolating pixels so that the shapes of the first image and the second region image are the same. For example, by making the total number of pixels and the shape of the first image and the second region image the same, it becomes easy to compare the pixels of the two images.

また、差分画像情報構成部104は、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像または第二領域画像の少なくとも一方の色を変換した後、上述したような、第一画像情報が示す第一の画像に一致する第二領域画像内の領域を判断するための、第一画像情報が示す第一の画像と第二領域画像との比較を行うようにしてもよい。色補正とは、例えば、カラー補正や、コントラスト補正や、レベル補正や、シャープネス補正等である。これらの色補正は、第一画像情報が示す第一の画像または第二領域画像の、一部、または全体の領域の色情報を用いて自動的に行われるようにする。   Further, the difference image information configuration unit 104 converts at least one color of the first image or the second region image indicated by the first image information stored in the image information storage unit 101, and then, as described above, The first image indicated by the first image information may be compared with the second region image to determine a region in the second region image that matches the first image indicated by the first image information. Good. The color correction includes, for example, color correction, contrast correction, level correction, sharpness correction, and the like. These color corrections are automatically performed using the color information of a part or the whole area of the first image or the second area image indicated by the first image information.

通常、第一画像情報が示す第一の画像が、ディスプレイに表示される時点で、ディスプレイの特性等により表示される色等が変化する。更に、この表示された第一の画像を撮影部103で撮影する際に、ディスプレイの配置された環境光の影響や、撮影部103の特性によっても取得される第二の画像内の第二領域画像の色は、ディスプレイに表示されている色と異なる色となる。従って、第二領域画像と第一の画像との色は大きく異なるものとなっていることが多い。このように色が異なると、第一の画像と、第二領域画像との比較が正常に行われないことが考えられる。これに対し、上述したような色補正を行うことで、第一画像情報が示す第一の画像と、第二領域画像との精度の高い比較が可能となる。例えば、第二領域画像を色補正することで、第二領域画像における環境光の影響による色かぶり等をなくして、精度の高い比較が可能となる。   Usually, when the first image indicated by the first image information is displayed on the display, the color or the like displayed changes depending on the characteristics of the display. Further, when the displayed first image is photographed by the photographing unit 103, the second region in the second image acquired also by the influence of the ambient light on which the display is arranged and the characteristics of the photographing unit 103. The color of the image is different from the color displayed on the display. Therefore, the colors of the second region image and the first image are often very different. If the colors are different as described above, it is considered that the comparison between the first image and the second region image is not normally performed. In contrast, by performing the color correction as described above, it is possible to compare the first image indicated by the first image information with the second region image with high accuracy. For example, by performing color correction on the second region image, it is possible to eliminate a color cast or the like due to the influence of ambient light in the second region image, and to perform highly accurate comparison.

また、第一画像情報が示す第一の画像および第二領域画像に対して、色補正として、グレースケール化を行うようにしてもよい。グレースケール化することで、撮影時等の画像の色の変化を排除して、画像同士を比較することができる。また、このようにグレースケール化することで、画像のデータ量が減少され、比較の処理が高速化できる。また、同様に、第一の画像および第二領域画像のうちの一致する領域を検出する際に、第一画像情報が示す第一の画像および第二領域画像の輝度情報のみを比較するようにしてもよい。このように輝度情報のみを比較することで、撮影時等の画像の色の変化を排除して、画像同士を比較することができる。また、画像同士の比較に使用されるデータ量が低減でき、処理の高速化を図れる。   Further, gray scale conversion may be performed as color correction on the first image and the second region image indicated by the first image information. By making it grayscale, it is possible to compare the images by eliminating the change in the color of the images during shooting. Further, by making the gray scale in this way, the amount of image data is reduced, and the comparison process can be speeded up. Similarly, when detecting a matching region between the first image and the second region image, only the luminance information of the first image and the second region image indicated by the first image information is compared. May be. In this way, by comparing only the luminance information, it is possible to compare the images while eliminating the change in the color of the images at the time of shooting or the like. In addition, the amount of data used for comparison between images can be reduced, and the processing speed can be increased.

なお、ここで述べる除去とは、完全に画素を除去してしまうことに限るものではなく、 結果的に除去したものと同じ扱いとなる状態とすることも、除去と考える。例えば、除去対象となる画素に対して、表示時に当該画素が不可視として扱われるようにするためのマスク情報や透過情報を設定することや、画像を表示する際に、除去する画素を識別できるように、画素の色情報等を所定の値、例えば、特定の青色となるような値に設定してもよい。また、除去した画素が位置していた領域に、除去した画素の代わりに、他の画像等を配置するようにしてもよい。この他の画像は、視聴の妨げにならないような、有意ではない静止画像あるいは動画像であることが好ましい。また、差分画像を表示する装置等が、差分画像を表示する際に、除去した領域に上述のような他の画像を、適宜、はめ込み合成するようにしても良い。   Note that the removal described here is not limited to the complete removal of the pixels, but it is also considered to be the same as the removal as a result. For example, for a pixel to be removed, mask information or transmission information for setting the pixel to be invisible at the time of display can be set, or a pixel to be removed can be identified when displaying an image. In addition, the color information of the pixel may be set to a predetermined value, for example, a value that becomes a specific blue color. In addition, another image or the like may be arranged instead of the removed pixel in the area where the removed pixel is located. The other images are preferably non-significant still images or moving images that do not hinder viewing. In addition, when displaying a difference image, a device or the like that displays a difference image may appropriately synthesize another image as described above into the removed region.

差分画像情報構成部104は、通常、MPUやメモリ等から実現され得る。差分画像情報構成部104の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The difference image information configuration unit 104 can usually be realized by an MPU, a memory, or the like. The processing procedure of the difference image information configuration unit 104 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力部105は、差分画像情報構成部104が構成した差分画像情報を出力する。ここ での出力とは、他の装置への送信や、記録媒体等への蓄積を含む概念である。出力部105は、画像処理装置100がリアルタイムで会議を行うテレビ会議システム等に利用される場合、差分画像情報をストリーミング出力することが好ましい。出力部105が、差分画像情報を出力するタイミングや方式等は問わない。例えば、差分画像情報を取得する毎に、差分画像情報を出力するようにしてもよいし、所定量の差分画像情報を取得した場合に差分画像情報を出力するようにしてもよい。出力部105は、差分画像情報構成部104が出力する差分画像情報を、MPEGや、ITU−T H.264等の、圧縮符号化の アルゴリズム等を用いて、圧縮符号化してもよい。   The output unit 105 outputs the difference image information configured by the difference image information configuration unit 104. The output here is a concept including transmission to another apparatus and accumulation in a recording medium or the like. The output unit 105 preferably outputs the difference image information in a streaming manner when the image processing apparatus 100 is used in a video conference system or the like that performs a conference in real time. There is no limitation on the timing, method, and the like at which the output unit 105 outputs the difference image information. For example, the difference image information may be output every time the difference image information is acquired, or the difference image information may be output when a predetermined amount of difference image information is acquired. The output unit 105 outputs the difference image information output from the difference image information configuration unit 104 to MPEG, ITU-T H.264, or the like. The compression encoding may be performed using a compression encoding algorithm such as H.264.

また、出力部105は、同期情報を差分画像情報に付加して出力してもよい。また、出力部105は、撮影部103等の装置識別情報等を付加して差分画像情報を出力してもよい。出力部105は、通信装置等の出力デバイスを含むと考えても含まないと考えてもよい。出力部105は、出力デバイスのドライバーソフト、または出力デバイスのドライバーソフトと出力デバイス等で実現され得る。また、出力部105が、圧縮符号化の処理等を行う場合、これらの処理を実行するためのMPUやメモリ等を具備していてもよい。これらの処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。   Further, the output unit 105 may output the synchronization information added to the difference image information. Further, the output unit 105 may output the difference image information by adding device identification information or the like of the photographing unit 103 or the like. The output unit 105 may or may not include an output device such as a communication device. The output unit 105 can be implemented by output device driver software, or output device driver software and an output device. In addition, when the output unit 105 performs compression encoding processing or the like, the output unit 105 may include an MPU, a memory, or the like for executing these processing. These processing procedures are usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

次に、画像処理装置の動作の一例について図2のフローチャートを用いて説明する。ここでは、予め撮影部103が撮影した第二の画像内における表示部102が第一の画像を表示する領域を指定する情報、例えば、領域の頂点の座標情報等が、予め図示しないメモリ等に格納されている場合について説明する。また、説明を簡単にするために、画素間の輝度情報を比較して、画素が一致するか否かを判断する場合を例に挙げて説明する。   Next, an example of the operation of the image processing apparatus will be described using the flowchart of FIG. Here, information for designating an area in which the display unit 102 displays the first image in the second image captured by the imaging unit 103 in advance, for example, coordinate information of the vertex of the area is stored in a memory (not shown) in advance. The case where it is stored will be described. Further, in order to simplify the description, a case will be described as an example where luminance information between pixels is compared to determine whether or not the pixels match.

(ステップS201)表示部102は、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像を表示するタイミングであるか否かを判断する。例えば、第一の画像を、毎秒30フレーム表示する場合、直前のフレームの画像を表示してから1/30秒経過したか否かを判断し、経過した場合に、表示するタイミングであると判断する。表示するタイミングである場合、ステップS202に進み、表示するダイミングでない場合、ステップS204に進む。   (Step S <b> 201) The display unit 102 determines whether it is time to display the first image indicated by the first image information stored in the image information storage unit 101. For example, when the first image is displayed at 30 frames per second, it is determined whether 1/30 seconds have elapsed since the previous frame image was displayed. To do. If it is time to display, the process proceeds to step S202, and if not, the process proceeds to step S204.

(ステップS202)表示部102は、画像情報記憶部101に記憶されている第一画像情報のうちの、表示するタイミングに応じた一フレームの画像情報を読み出して取得する。例えば、直前に表示したフレームの画像の、次のフレームの画像を示す画像情報を取得する。
(ステップS203)表示部102は、ステップS202で取得した画像情報を、図示しないディスプレイ等に表示する。
(Step S <b> 202) The display unit 102 reads out and acquires one frame of image information corresponding to the display timing among the first image information stored in the image information storage unit 101. For example, image information indicating the image of the next frame of the image of the frame displayed immediately before is acquired.
(Step S203) The display unit 102 displays the image information acquired in step S202 on a display (not shown) or the like.

(ステップS204)撮影部103は、第2の画像を撮影するタイミングであるか否かを判断する。例えば、第二の画像を、毎秒30フレームで撮影する場合、直前のフレームの画像を撮影してから1/30秒経過したか否かを判断し、経過した場合に、撮影するタイミングであると判断する。撮影するタイミングである場合、ステップS205に進み、撮影するタイミングでない場合、ステップS201に戻る。
(ステップS205)撮影部103は、表示部102によりディスプレイ等に表示されている第一の画像を含む1フレームの第二の画像を撮影する。画像受付部107は、撮影された第二の画像を示す情報を受け付け、図示しないメモリ等に一時記憶する。
(Step S204) The photographing unit 103 determines whether or not it is time to photograph the second image. For example, when the second image is captured at 30 frames per second, it is determined whether 1/30 seconds have elapsed since the image of the immediately preceding frame was captured. to decide. If it is time to shoot, the process proceeds to step S205. If it is not time to shoot, the process returns to step S201.
(Step S205) The imaging unit 103 captures a second image of one frame including the first image displayed on the display or the like by the display unit 102. The image receiving unit 107 receives information indicating the captured second image and temporarily stores it in a memory (not shown) or the like.

(ステップS206)差分画像情報構成部104は、図示しないメモリ等に予め格納されている、第二の画像内における表示部102が第一の画像を表示する領域を指定する情報を取得し、当該情報を用いて、ステップS205において取得した第二の画像を示す情報から、第二領域画像を示す情報を取得する。なお、第二領域画像と、第二の画像とが一致する場合、すなわち、撮影部103の撮影領域が、表示部102の表示領域と一致する場合等にはこの処理は省略してもよい。   (Step S <b> 206) The difference image information configuration unit 104 acquires information for specifying a region in which the display unit 102 in the second image displays the first image, which is stored in advance in a memory or the like (not shown). Using the information, information indicating the second region image is acquired from the information indicating the second image acquired in step S205. Note that this process may be omitted when the second area image matches the second image, that is, when the shooting area of the shooting unit 103 matches the display area of the display unit 102.

(ステップS207)差分画像情報構成部104は、第二領域画像の輝度情報を補正する。例えば、第二領域画像内の各画素の輝度情報である輝度値を自動レベル補正する。自動レベル補正とは、画像内の最も明るい画素と最も暗い画素とを輝度の最大値と最小値とに定義して、中間調部分の画素の輝度値を均等に再配分する処理である。補正した第二領域画像を示す情報はメモリ等に一時記憶される。   (Step S207) The difference image information configuration unit 104 corrects the luminance information of the second region image. For example, the brightness value that is the brightness information of each pixel in the second area image is automatically level-corrected. Automatic level correction is a process in which the brightest and darkest pixels in an image are defined as the maximum and minimum luminance values, and the luminance values of halftone pixels are evenly redistributed. Information indicating the corrected second region image is temporarily stored in a memory or the like.

(ステップS208)差分画像情報構成部104は、第一画像情報を、第一画像情報記憶部から読み出して取得する。
(ステップS209)差分画像情報構成部104は、ステップS208で取得した第一画像情報を、第一の画像が、第二領域画像と同じ形状および総画素数を有する画像となるよう、図示しないメモリ等に予め格納されている第二の画像内における表示部102が第一の画像を表示する領域を指定する情報を用いて補正する。補正した第一画像情報はメモリ等に一時記憶される。
(Step S208) The difference image information configuration unit 104 reads out and acquires the first image information from the first image information storage unit.
(Step S209) The difference image information configuration unit 104 converts the first image information acquired in Step S208 into a memory (not shown) so that the first image becomes an image having the same shape and the total number of pixels as the second region image. For example, the display unit 102 in the second image stored in advance corrects the information using information specifying an area for displaying the first image. The corrected first image information is temporarily stored in a memory or the like.

(ステップS210)ステップS207で補正した第二領域画像と、ステップS209で補正した第一画像情報が示す第一の画像とを比較して、第二領域画像内の第一の画像と一致する領域を決定する。なお、ステップS210の処理については、図3において詳細に説明する。
(ステップS211)差分画像情報構成部104は、第二の画像からステップS210で決定した領域内の画像を除去した画像である差分画像を示す差分画像情報を作成する。
(ステップS212)出力部105は、ステップS211で構成した差分画像情報を送信する。そして、ステップS201に戻る。
なお、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
(Step S210) A region that matches the first image in the second region image by comparing the second region image corrected in Step S207 with the first image indicated by the first image information corrected in Step S209. To decide. Note that the processing in step S210 will be described in detail with reference to FIG.
(Step S211) The difference image information configuration unit 104 creates difference image information indicating a difference image, which is an image obtained by removing the image in the region determined in Step S210 from the second image.
(Step S212) The output unit 105 transmits the difference image information configured in step S211. Then, the process returns to step S201.
In the flowchart of FIG. 2, the process is terminated by powering off or a process termination interrupt.

次に、図2のステップS210の処理について、図3のフローチャートを用いて説明する。ここでは、例として、第一の画像と第二領域画像とが、輝度情報である輝度値を有するカラー画像であるとし、第一の画像と第二領域画像との輝度情報である輝度値を用いて第一の画像に一致する第二領域画像内の領域を決定する場合を例に挙げて説明する。また、ここでは、第一領域画像および画素数を補正した第一の画像が、それぞれx軸方向がp画素(pは1以上の整数)で、y軸方向がq画素(qは1以上の整数)の矩形の画像である場合について説明する。   Next, the process of step S210 of FIG. 2 will be described using the flowchart of FIG. Here, as an example, it is assumed that the first image and the second area image are color images having a luminance value as luminance information, and the luminance value as luminance information between the first image and the second area image is set. A case where the region in the second region image that matches the first image is determined will be described as an example. In addition, here, the first region image and the first image corrected for the number of pixels are each p pixels in the x-axis direction (p is an integer of 1 or more) and q pixels in the y-axis direction (q is 1 or more). The case of an (integer) rectangular image will be described.

(ステップS301)差分画像情報構成部104は、カウンタmに1を代入する。
(ステップS302)差分画像情報構成部104は、カウンタnに1を代入する。
(ステップS303)差分画像情報構成部104は、第二領域画像の座標(n、m)に位置する画素の輝度値を取得する。座標(n、m)は、画像内の画素を単位とした座標であり、ここでは、例として、左上の座標が(0,0)、右下の座標が(p、q)であるとする。
(Step S301) The difference image information construction unit 104 substitutes 1 for a counter m.
(Step S302) The difference image information construction unit 104 substitutes 1 for a counter n.
(Step S303) The difference image information configuration unit 104 acquires the luminance value of the pixel located at the coordinates (n, m) of the second region image. The coordinates (n, m) are coordinates in units of pixels in the image. Here, as an example, the upper left coordinates are (0, 0) and the lower right coordinates are (p, q). .

(ステップS304)差分画像情報構成部104は、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像の座標(n、m)に位置する画素の輝度値を取得する。
(ステップS305)差分画像情報構成部104は、ステップS303で取得した輝度値と、ステップS304で取得した輝度値との差の絶対値を算出する。
(ステップS306)差分画像情報構成部104は、ステップS305において算出した差の絶対値が、予め設定した所定の閾値以下であるか否かを判断する。閾値以下である場合、ステップS307に進み、閾値より大きい場合、ステップS308に進む。
(Step S304) The difference image information configuration unit 104 acquires the luminance value of the pixel located at the coordinates (n, m) of the first image indicated by the first image information stored in the image information storage unit 101.
(Step S305) The difference image information configuration unit 104 calculates the absolute value of the difference between the luminance value acquired in step S303 and the luminance value acquired in step S304.
(Step S306) The difference image information configuration unit 104 determines whether or not the absolute value of the difference calculated in step S305 is equal to or less than a predetermined threshold value set in advance. If it is less than or equal to the threshold value, the process proceeds to step S307, and if it is greater than the threshold value, the process proceeds to step S308.

(ステップS307)差分画像情報構成部104は、第二領域画像の(n、m)の画素を、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像の(n、m)の画素に一致する画素であると判断する。そして、この判断結果をメモリ等に一時記憶し、ステップS309に進む。
(ステップS308)差分画像情報構成部104は、第二領域画像の(n、m)の画素を、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像の(n、m)の画素に一致しない画素であると判断する。そして、この判断結果をメモリ等に一時記憶し、ステップS309に進む。
(Step S307) The difference image information configuration unit 104 selects (n, m) pixels of the second region image as (n, m) of the first image indicated by the first image information stored in the image information storage unit 101. It is determined that the pixel matches the pixel m). Then, the determination result is temporarily stored in a memory or the like, and the process proceeds to step S309.
(Step S <b> 308) The difference image information configuration unit 104 sets the (n, m) pixels of the second region image to (n, m) of the first image indicated by the first image information stored in the image information storage unit 101. It is determined that the pixel does not match the pixel of m). Then, the determination result is temporarily stored in a memory or the like, and the process proceeds to step S309.

(ステップS309)差分画像情報構成部104は、カウンタnの値を1インクリメントする。
(ステップS310)差分画像情報構成部104は、カウンタnの値がpより大きいか否かを判断する。pより大きい場合、ステップS311に進み、大きくない場合、ステップS303に戻る。
(ステップS311)差分画像情報構成部104は、カウンタmの値を1インクリメントする。
(ステップS312)差分画像情報構成部104は、カウンタmの値がqより大きいか否かを判断する。qより大きい場合、ステップS311に進み、大きくない場合、ステップS302に戻る。
(Step S309) The difference image information configuration unit 104 increments the value of the counter n by 1.
(Step S310) The difference image information configuration unit 104 determines whether or not the value of the counter n is greater than p. If larger than p, the process proceeds to step S311. If not larger, the process returns to step S303.
(Step S311) The difference image information configuration unit 104 increments the value of the counter m by 1.
(Step S312) The difference image information configuration unit 104 determines whether or not the value of the counter m is greater than q. If larger than q, the process proceeds to step S311, and if not larger, the process returns to step S302.

(ステップS313)差分画像情報構成部104は、ステップS307の判断結果を用いて、第二領域画像内の第一の画像と一致する領域を決定する。例えば、ステップS307において一致していると判断された画素のうちの、連続して隣接している領域を判断し、その領域の縁となる画素の座標情報等を、第二領域画像内の、第一画像情報が示す第一の画像と一致する領域を定義する情報としてメモリ等に蓄積してもよい。また、ステップS307において一致していると判断された全ての画素の座標情報を、第二領域画像内の第一の画像と一致する領域を定義する情報としてメモリ等に蓄積してもよい。また、領域を決定する際に、ステップS308により一致しないと判断された画素を用いて、ステップS307において一致していると判断された画素を含む領域を補正してもよい。そして、上位関数にリターンする。   (Step S313) The difference image information configuration unit 104 determines a region that matches the first image in the second region image, using the determination result in step S307. For example, among the pixels determined to match in step S307, a region that is continuously adjacent is determined, and the coordinate information and the like of the pixel that is the edge of the region is stored in the second region image. You may accumulate | store in memory etc. as information which defines the area | region which corresponds to the 1st image which 1st image information shows. In addition, the coordinate information of all the pixels determined to match in step S307 may be stored in a memory or the like as information defining a region that matches the first image in the second region image. Further, when determining the region, the region including the pixel determined to be matched in step S307 may be corrected using the pixel determined not to match in step S308. Then, the process returns to the upper function.

上記図2および図3のフローチャートにおいては、画素間の輝度情報を比較して、第二領域画像の画素と、第一画像情報が示す第一の画像の画素とが一致するか否かを判断する場合を例に挙げて説明したが、画素間の他の色の情報、例えばRGBチャンネルの値を用いて、画素同士が一致するか否かを判断してもよい。具体例としては、RGBの各チャンネル毎の値の差を求め、その差の絶対値が全て、それぞれのチャンネル別に設定された閾値以下である場合に、画素同士が一致していると判断するようにしてもよい。このような画素間の比較としては、公知の技術が利用可能である。RGBチャンネルの値等を用いる場合、第二領域画像に対する色の補正は、RGBの各チャンネルの値について行われるようにする。   In the flowcharts of FIGS. 2 and 3 described above, luminance information between pixels is compared to determine whether or not the pixels of the second region image match the pixels of the first image indicated by the first image information. However, the information on other colors between pixels, for example, RGB channel values may be used to determine whether or not the pixels match each other. As a specific example, a difference in values for each channel of RGB is obtained, and when the absolute values of the differences are all equal to or less than a threshold value set for each channel, it is determined that the pixels match each other. It may be. A known technique can be used for such comparison between pixels. When the RGB channel values are used, the color correction for the second region image is performed for the RGB channel values.

次に、上記画像処理装置を用いたテレビ会議システムの実施の形態を説明する。
図4は、本実施の形態によるテレビ会議システムのブロック図である。テレビ会議システムは、第一テレビ会議端末20と第二テレビ会議端末30とを具備している。第一テレビ 会議端末20と第二テレビ会議端末30とは、例えばネットワークや通信回線等を介して通信可能に接続されている。第一テレビ会議端末20と第二テレビ会議端末30とは、例えば、2つの離れた会議室間で、双方向の対話ができるように、それぞれの会議室に設置される。
Next, an embodiment of a video conference system using the image processing apparatus will be described.
FIG. 4 is a block diagram of the video conference system according to the present embodiment. The video conference system includes a first video conference terminal 20 and a second video conference terminal 30. The first video conference terminal 20 and the second video conference terminal 30 are communicably connected via, for example, a network or a communication line. The first video conference terminal 20 and the second video conference terminal 30 are installed in each conference room so that, for example, a two-way dialogue can be performed between two separate conference rooms.

第一テレビ会議端末20は、ここでは例として、本発明による画像処理装置100とほぼ同様の画像処理装置を6台備えているものとする。ここでは、6台の画像処理装置をそれぞれ画像処理装置200a〜200fとし、全て同様の構成を有するものとする。ただし、画像処理装置の台数は、6台に限定されるものでなく、1台以上であればよい。
画像処理装置200a〜200fは、それぞれ、第一画像情報記憶部201と、第一表示部202と、第一撮影部203と、第一画像受付部207と、第一差分画像情報構成部 204と、第一出力部205と、第一受信部206とを具備している。
Here, as an example, the first video conference terminal 20 is assumed to include six image processing apparatuses substantially similar to the image processing apparatus 100 according to the present invention. Here, it is assumed that the six image processing apparatuses are image processing apparatuses 200a to 200f, respectively, and all have the same configuration. However, the number of image processing apparatuses is not limited to six, and may be one or more.
The image processing apparatuses 200a to 200f include a first image information storage unit 201, a first display unit 202, a first imaging unit 203, a first image reception unit 207, and a first difference image information configuration unit 204, respectively. The first output unit 205 and the first receiving unit 206 are provided.

第一受信部206は、第二テレビ会議端末30が、通信回線等を介して送信する第一画像情報を受信する。第一受信部206が受信した第一画像情報が、第一画像情報記憶部201に一時記憶される。第一受信部206は、通信手段のデバイスドライバや、記録媒体等から情報を読み出す装置の制御ソフトウェア等で実現され得る。
第一画像情報記憶部201、第一表示部202、第一撮影部203、第一画像受付部207、第一差分画像情報構成部204、および第一出力部205は、それぞれ図1において説明した画像情報記憶部101、表示部102、撮影部103、画像受付部107、差分画像情報構成部104、および出力部105と同様の構成を備えているため、詳細な説明は省略する。
このように、画像処理装置200a〜200fの内部の構成はそれぞれ、第一受信部206を新たに備えている点を除けば、図1に示した画像処理装置100と同様の構成を有している。
The first receiving unit 206 receives first image information transmitted from the second video conference terminal 30 via a communication line or the like. The first image information received by the first receiving unit 206 is temporarily stored in the first image information storage unit 201. The first receiving unit 206 can be realized by a device driver of communication means, control software of a device that reads information from a recording medium, or the like.
The first image information storage unit 201, the first display unit 202, the first imaging unit 203, the first image reception unit 207, the first difference image information configuration unit 204, and the first output unit 205 have been described with reference to FIG. Since the image information storage unit 101, the display unit 102, the photographing unit 103, the image receiving unit 107, the difference image information configuration unit 104, and the output unit 105 have the same configuration, detailed description thereof is omitted.
As described above, each of the internal configurations of the image processing apparatuses 200a to 200f has the same configuration as that of the image processing apparatus 100 shown in FIG. 1 except that the first receiving unit 206 is newly provided. Yes.

第二テレビ会議端末30は、ここでは例として、前記画像処理装置100とほぼ同様の画像処理装置を6台備えているものとする。ここでは、6台の画像処理装置をそれぞれ画像処理装置300a〜300fとし、全て同様の構成を有するものとする。ただし、画像処理装置の台数は、6台に限定されるものでなく、1台以上であればよい。
画像処理装置300a〜300fは、それぞれ、第二画像情報記憶部301と、第二表示部302と、第二撮影部303と、第二画像受付部307と、第二差分画像情報構成部304と、第二出力部305と、第二受信部306とを具備している。
Here, as an example, the second video conference terminal 30 is assumed to include six image processing apparatuses substantially the same as the image processing apparatus 100. Here, it is assumed that the six image processing apparatuses are image processing apparatuses 300a to 300f, respectively, and all have the same configuration. However, the number of image processing apparatuses is not limited to six, and may be one or more.
The image processing apparatuses 300a to 300f include a second image information storage unit 301, a second display unit 302, a second imaging unit 303, a second image reception unit 307, and a second difference image information configuration unit 304, respectively. , A second output unit 305 and a second receiving unit 306.

第二受信部306は、第一テレビ会議端末20が、通信回線等を介して送信する差分画像情報を受信する。第二受信部306が受信した差分画像情報が、第二画像情報記憶部301に一時記憶される。第二受信部306は、通信手段のデバイスドライバや、記録媒体等から情報を読み出す装置の制御ソフトウェア等で実現され得る。
第二画像情報記憶部301、第二表示部302、第二撮影部303、第二画像受付部307、第二差分画像情報構成部304、および第二出力部305は、それぞれ、図1において説明した画像情報記憶部101、表示部102、撮影部103、画像受付部107、差分画像情報構成部104、および出力部105と同様の構成を備えているため、詳細な説明は省略する。
The second receiving unit 306 receives the difference image information transmitted from the first video conference terminal 20 via a communication line or the like. The difference image information received by the second receiving unit 306 is temporarily stored in the second image information storage unit 301. The second receiving unit 306 can be realized by a device driver of communication means, control software of a device that reads information from a recording medium, or the like.
The second image information storage unit 301, the second display unit 302, the second imaging unit 303, the second image reception unit 307, the second difference image information configuration unit 304, and the second output unit 305 are described with reference to FIG. Since the image information storage unit 101, the display unit 102, the photographing unit 103, the image reception unit 107, the difference image information configuration unit 104, and the output unit 105 have the same configuration, detailed description thereof is omitted.

ただし、この画像処理装置300a〜300fにおいては、第一の画像、および第二の画像をそれぞれ、第二受信部306が受信した差分画像情報が示す差分画像、および第三の画像と読み替えるものとする。さらに、第二差分画像情報構成部304が出力する差分画像情報が、第一画像情報として、第二出力部305から、第二テレビ会議端末20に出力されるものとする。
このように、画像処理装置300a〜300fの内部の構成はそれぞれ、第二受信部306を新たに備えている点を除けば、図1に示した画像処理装置100と同様の構成を有している。
However, in the image processing apparatuses 300a to 300f, the first image and the second image are respectively read as the difference image and the third image indicated by the difference image information received by the second reception unit 306. To do. Furthermore, the difference image information output by the second difference image information configuration unit 304 is output from the second output unit 305 to the second video conference terminal 20 as the first image information.
As described above, the internal configurations of the image processing apparatuses 300a to 300f have the same configuration as that of the image processing apparatus 100 illustrated in FIG. 1 except that the second receiving unit 306 is newly provided. Yes.

図5は、本実施の形態によるテレビ会議システムの具体的な構成を示す図である。テレビ会議システムは、第一テレビ会議端末20と第二テレビ会議端末30とを具備している。ここで、第一テレビ会議端末20が配置されている会議室を第一会議室2、第二テレビ会議端末30が配置されている会議室を第二会議室3とする。
また、図6は、本具体例にかかるテレビ会議システムにおける第一会議室2の第一テレビ会議端末20の概略図である。
FIG. 5 is a diagram showing a specific configuration of the video conference system according to the present embodiment. The video conference system includes a first video conference terminal 20 and a second video conference terminal 30. Here, the conference room in which the first video conference terminal 20 is arranged is referred to as the first conference room 2, and the conference room in which the second video conference terminal 30 is arranged is referred to as the second conference room 3.
FIG. 6 is a schematic diagram of the first video conference terminal 20 in the first conference room 2 in the video conference system according to this example.

第一テレビ会議端末20は、6台の第一表示部202と、6台の第一撮影部203と、1台の情報処理装置2000を備えている。ここでは、画像処理装置200a〜200fにそれぞれ対応する各第一表示部202を、第一表示部202a〜202fとし、画像処理装置200a〜200fにそれぞれ対応する各第一撮影部203を、第一撮影部203a〜203fとする。第一表示部202a〜202fはディスプレイであるとし、第一撮影部203a〜203fはそれぞれカメラであるとする。このカメラの撮影する画像は、例として、カラー画像であるとする。また、このカラー画像は輝度情報、例えば輝度チャンネルの情報を有しているものとする。   The first video conference terminal 20 includes six first display units 202, six first imaging units 203, and one information processing device 2000. Here, each first display unit 202 corresponding to each of the image processing devices 200a to 200f is referred to as a first display unit 202a to 202f, and each first imaging unit 203 corresponding to each of the image processing devices 200a to 200f is referred to as the first display unit 202a to 202f. The imaging units 203a to 203f are assumed. The first display units 202a to 202f are assumed to be displays, and the first photographing units 203a to 203f are assumed to be cameras. As an example, it is assumed that an image captured by this camera is a color image. Further, it is assumed that this color image has luminance information, for example, luminance channel information.

情報処理装置2000は、画像処理装置200a〜200fのそれぞれに対応する、第一画像情報記憶部201と、第一表示部202と、第一撮影部203と、第一画像受付部207と、第一差分画像情報構成部204と、第一出力部205と、第一受信部206とを全て備えているものとする。なお、図5において、第一表示部202a〜202fと、第一撮影部203a〜203fと、情報処理装置2000との接続の図示は省略している。   The information processing apparatus 2000 includes a first image information storage unit 201, a first display unit 202, a first imaging unit 203, a first image reception unit 207, and a first image processing unit 200a to 200f. It is assumed that the one-difference image information configuration unit 204, the first output unit 205, and the first reception unit 206 are all provided. Note that, in FIG. 5, illustrations of connections between the first display units 202a to 202f, the first imaging units 203a to 203f, and the information processing apparatus 2000 are omitted.

第一テレビ会議端末20が設置されている第一会議室2には、例えば円形のテーブル501が設置されており、円形のテーブル501を囲んで、1以上の会議の参加者が着席する6つの座席502a〜502fが配置されている。この1以上の会議の参加者は、撮影部203a〜202fのいずれかの被写体となる。   In the first conference room 2 in which the first video conference terminal 20 is installed, for example, a circular table 501 is installed. Six circular conference members 501 surround the circular table 501 and seat six or more conference participants. Seats 502a to 502f are arranged. Participants in the one or more conferences are subjects in any of the imaging units 203a to 202f.

第一テレビ会議端末20の各第一表示部202a〜202fは、円形のテーブル501をほぼ中心とした、6つの辺が各座席502a〜502fの正面に対向する仮想的な略正八角形503の6つの辺のほぼ中心上に、それぞれ配置されている。また、第一表示部202a〜202fは、画像の表示面が、仮想的な八角形の領域503の6つの辺にそれぞれ平行となるよう、領域503のほぼ中央方向に向けて配置されている。   Each of the first display sections 202a to 202f of the first video conference terminal 20 is a virtual substantially regular octagon 503 having six sides facing the front of each of the seats 502a to 502f, with the circular table 501 being the center. They are placed almost on the center of each side. The first display portions 202a to 202f are arranged toward the substantially central direction of the region 503 so that the image display surface is parallel to each of the six sides of the virtual octagonal region 503.

第一テレビ会議端末20の各第一撮影部203a〜203fは、上述した略正八角形の領域503の、6つの辺のほぼ中心上に、各座席502a〜502fに対向するように、それぞれ配置されている。ここでは例として、各第一撮影部203a〜203fは、各表示部202a〜202fの上方に配置され、撮影方向、具体的にはカメラの光輪が、それぞれ、6つの座席502a〜502fの正面に向くようにそれぞれ配置されている。通常、座席の正面は、当該座席に着席した人間の正面と同じ向きとなる。   The first photographing units 203a to 203f of the first video conference terminal 20 are respectively arranged on the substantially center of the six sides of the above-described substantially regular octagonal region 503 so as to face the seats 502a to 502f. ing. Here, as an example, each of the first photographing units 203a to 203f is arranged above each of the display units 202a to 202f, and the photographing direction, specifically the halo of the camera, is respectively in front of the six seats 502a to 502f. Each is arranged to face. Usually, the front of the seat is in the same direction as the front of the person seated in the seat.

第二テレビ会議端末30は、6台の第二表示部302と、6台の第二撮影部303と、1台の情報処理装置3000を備えている。ここでは、画像処理装置300a〜300fにそれぞれ対応する各第二表示部302を、第二表示部302a〜302fとし、画像処理装置300a〜300fにそれぞれ対応する各第二撮影部303を、第二撮影部303a〜303fとする。ここでは、第二表示部302a〜302fはディスプレイであるとし、第二撮影部303a〜303fはそれぞれカメラであるとする。このカメラの撮影する画像は、例えば、カラー画像であるとする。また、このカラー画像は輝度情報、例えば輝度チャンネルの情報を有しているものとする。   The second video conference terminal 30 includes six second display units 302, six second imaging units 303, and one information processing device 3000. Here, the second display units 302 corresponding to the image processing devices 300a to 300f are referred to as second display units 302a to 302f, and the second imaging units 303 respectively corresponding to the image processing devices 300a to 300f are set to the second display units 302a to 302f. Assume that the imaging units 303a to 303f. Here, the second display units 302a to 302f are assumed to be displays, and the second photographing units 303a to 303f are assumed to be cameras. Assume that an image captured by this camera is a color image, for example. Further, it is assumed that this color image has luminance information, for example, luminance channel information.

情報処理装置3000は、画像処理装置300a〜300fのそれぞれに対応する第二画像情報記憶部301と、第二表示部302と、第二撮影部303と、第二画像受付部307と、第二差分画像情報構成部304と、第二出力部305と、第二受信部306とを全て備えているものとする。なお、図5において、第二表示部302a〜302fと、第二撮影部303a〜303fと、情報処理装置3000との接続の図示は省略している。
情報処理装置2000と情報処理装置3000とはネットワーク等を介して接続され、第一テレビ会議端末20と第二テレビ会議端末30間の通信を行う。
The information processing device 3000 includes a second image information storage unit 301, a second display unit 302, a second imaging unit 303, a second image reception unit 307, a second image information storage unit 301 corresponding to each of the image processing devices 300a to 300f. It is assumed that the difference image information configuration unit 304, the second output unit 305, and the second reception unit 306 are all provided. Note that, in FIG. 5, illustrations of connections between the second display units 302a to 302f, the second photographing units 303a to 303f, and the information processing device 3000 are omitted.
The information processing device 2000 and the information processing device 3000 are connected via a network or the like, and perform communication between the first video conference terminal 20 and the second video conference terminal 30.

第二テレビ会議端末30が設置されている第二会議室2には、例えば円形のテーブル601が設置されており、円形のテーブル601を囲んで、1以上の会議の参加者が着席する6つの座席602a〜602fが配置されている。この1以上の会議の参加者は、撮影部303a〜302fのいずれかの被写体となる。   In the second conference room 2 in which the second video conference terminal 30 is installed, for example, a circular table 601 is installed. Six round conference tables 601 surround the circular table 601 and seat six or more conference participants. Seats 602a to 602f are arranged. Participants in the one or more conferences are subjects in any of the imaging units 303a to 302f.

第二テレビ会議端末30の各第二表示部302a〜302fは、円形のテーブル601をほぼ中心とした、6つの辺が各座席602a〜602fの正面に対向する仮想的な略正八角形603の6つの辺のほぼ中心上に、それぞれ配置されている。また、第二表示部302a〜302fは、画像の表示面が、仮想的な八角形の領域603の6つの辺にそれぞれ平行となるよう、領域603のほぼ中央方向に向けて配置されている。   Each of the second display units 302a to 302f of the second video conference terminal 30 has a virtual substantially regular octagon 603 having six sides opposed to the front of the seats 602a to 602f, with the circular table 601 as the center. They are placed almost on the center of each side. The second display units 302 a to 302 f are arranged toward the substantially central direction of the region 603 so that the image display surface is parallel to each of the six sides of the virtual octagonal region 603.

第二テレビ会議端末30の各第二撮影部303a〜303fは、上述した略正八角形の領域603の、6つの辺のほぼ中心上に、各座席502a〜502fに対向するように、それぞれ配置されている。ここでは例として、各第二撮影部303a〜303fは、各表示部302a〜302fの上方に配置され、撮影方向、具体的にはカメラの光輪が、それぞれ、6つの座席502a〜502fの正面に向くようにそれぞれ配置されている。通常、座席の正面は、当該座席に着席した人間の正面と同じ向きとなる。   Each of the second photographing units 303a to 303f of the second video conference terminal 30 is disposed on the substantially center of the six sides of the above-described substantially regular octagonal region 603 so as to face the seats 502a to 502f. ing. Here, as an example, each of the second photographing units 303a to 303f is arranged above each of the display units 302a to 302f, and the photographing direction, specifically, the halo of the camera, is respectively in front of the six seats 502a to 502f. Each is arranged to face. Usually, the front of the seat is in the same direction as the front of the person seated in the seat.

各第一撮影部203a〜203fで撮影された画像は、情報処理装置2000と情報処理装置3000とを経て、第二表示部302a〜302fのいずれか一つに表示されるように設定されており、各第二撮影部303a〜303fで撮影された画像は、情報処理装置3000と情報処理装置2000とを経て、第一表示部202a〜202fのいずれか一つに表示されるように設定されているものとする。例えば、各画像処理装置200a〜200fのメモリ等に、それぞれ予め画像処理装置300a〜300fの一つを画像情報の送信先として指定する情報、例えば、IPアドレス等のネットワーク上のアドレス情報等を格納させておき、各画像処理装置200a〜200fの第一出力部205が、それぞれ、画像情報を出力する際に、この送信先を指定する情報を画像情報に付加して送信することで、所定の画像処理装置300a〜300fに画像情報を送信するようにすればよい。   Images captured by the first imaging units 203a to 203f are set to be displayed on any one of the second display units 302a to 302f via the information processing device 2000 and the information processing device 3000. Images captured by the second imaging units 303a to 303f are set to be displayed on any one of the first display units 202a to 202f via the information processing device 3000 and the information processing device 2000. It shall be. For example, information that designates one of the image processing apparatuses 300a to 300f as a destination of image information in advance, for example, address information on the network such as an IP address, is stored in the memory of each of the image processing apparatuses 200a to 200f. In addition, when the first output unit 205 of each of the image processing apparatuses 200a to 200f outputs the image information, the information specifying the transmission destination is added to the image information and transmitted. The image information may be transmitted to the image processing apparatuses 300a to 300f.

同様に、各画像処理装置300a〜300fのメモリ等にも、それぞれ予め画像処理装置200a〜200fの一つを画像情報の送信先として指定する情報を格納させておき、各画像処理装置300a〜300fの第二出力部305が、それぞれ、画像情報を出力する際に、この送信先を指定する情報を画像情報に付加して送信することで、所定の画像処理装置200a〜200fに画像情報を送信するようにすればよい。   Similarly, information that designates one of the image processing devices 200a to 200f as the transmission destination of the image information is stored in advance in the memory or the like of each of the image processing devices 300a to 300f. When the second output unit 305 outputs image information, the image information is transmitted to the predetermined image processing apparatuses 200a to 200f by adding the information specifying the transmission destination to the image information and transmitting the image information. You just have to do it.

ここでは、特に、第一表示部202bと第一表示部202fとが、八角形領域503の、互いに対向する辺上に、表示面同士が対向するように配置されているものとする。また、第一撮影部203bは、第一表示部202bに対向する位置に配置されており、第一撮影部203bの撮影領域には、第一表示部202bの表示する画像全体が含まれるように第一撮影部203bの向きや画角等が設定され固定されているものとする。また、第一撮影部203fは、第一表示部202fに対向する位置に配置されており、第一撮影部203fの撮影領域には、第一表示部202fの表示する画像全体が含まれるように第一撮影部203fの向きや画角等が設定され固定されているものとする。   Here, in particular, it is assumed that the first display portion 202b and the first display portion 202f are arranged on the sides of the octagonal region 503 that face each other so that the display surfaces face each other. The first imaging unit 203b is disposed at a position facing the first display unit 202b, and the imaging area of the first imaging unit 203b includes the entire image displayed by the first display unit 202b. It is assumed that the orientation and the angle of view of the first photographing unit 203b are set and fixed. The first imaging unit 203f is disposed at a position facing the first display unit 202f, and the imaging area of the first imaging unit 203f includes the entire image displayed by the first display unit 202f. It is assumed that the orientation, the angle of view, and the like of the first photographing unit 203f are set and fixed.

同様に、第二表示部302bと第二表示部302fとが、八角形領域603の、互いに対向する辺上に、表示面同士が対向するように配置されているものとする。また、第二撮影部303bは、第二表示部302bに対向する位置に配置されており、第二撮影部303bの撮影領域には、第二表示部302bの表示する画像全体が含まれるように第二撮影部303bの向きや画角等が設定され固定されているものとする。また、第二撮影部303fは、第二表示部302fに対向する位置に配置されており、第二撮影部303fの撮影領域には、第二表示部302fの表示する画像全体が含まれるように第二撮影部303fの向きや画角等が設定され固定されているものとする。   Similarly, it is assumed that the second display portion 302b and the second display portion 302f are arranged on the sides of the octagonal region 603 that face each other so that the display surfaces face each other. The second imaging unit 303b is disposed at a position facing the second display unit 302b, and the entire image displayed on the second display unit 302b is included in the imaging area of the second imaging unit 303b. It is assumed that the orientation, the angle of view, and the like of the second imaging unit 303b are set and fixed. The second imaging unit 303f is disposed at a position facing the second display unit 302f, and the imaging area of the second imaging unit 303f includes the entire image displayed by the second display unit 302f. It is assumed that the direction and the angle of view of the second imaging unit 303f are set and fixed.

また、第一撮影部203bで撮影された画像は、画像処理装置300bに送信されて、第二表示部302bで表示され、第二撮影部303bで撮影された画像が、画像処理装置200bに送信されて、第一表示部202bで表示されるように予め設定されているものとする。同様に、第一撮影部203fで撮影された画像は、画像処理装置300fに送信されて、第二表示部302fで表示され、第二撮影部303fで撮影された画像が、画像処理装置200fに送信されて、第一表示部202fで表示されるように予め設定されているものとする。   Further, the image photographed by the first photographing unit 203b is transmitted to the image processing device 300b, displayed on the second display unit 302b, and the image photographed by the second photographing unit 303b is transmitted to the image processing device 200b. It is assumed that it is set in advance to be displayed on the first display unit 202b. Similarly, an image photographed by the first photographing unit 203f is transmitted to the image processing device 300f, displayed on the second display unit 302f, and an image photographed by the second photographing unit 303f is displayed on the image processing device 200f. It is assumed that it is set in advance to be transmitted and displayed on the first display unit 202f.

図7は、第一表示部202b、第一表示部202f、第一撮影部203b、第一撮影部203f、第二表示部302b、第二表示部302f、第二撮影部303b、第二撮影部303fの配置関係および接続関係と、座席502b、502f、602b、602fとの配置関係の概略を説明するための模式図である。   7 illustrates a first display unit 202b, a first display unit 202f, a first imaging unit 203b, a first imaging unit 203f, a second display unit 302b, a second display unit 302f, a second imaging unit 303b, and a second imaging unit. It is a schematic diagram for demonstrating the outline of the arrangement | positioning relationship and connection relation of 303f, and the arrangement | positioning relationship between seats 502b, 502f, 602b, and 602f.

予め第一撮影部203bおよび第一撮影部203fが撮影する第二の画像内における、第一表示部202bおよび第一表示部202fが表示される領域を予め調べておき、各第一の画像内におけるこれらの領域を指定する情報を、予めメモリ等に設定しておく。この情報が、第一撮影部203bおよび第一撮影部203fが撮影する第二の画像内における第一表示部202bおよび第一表示部202fが第一の画像を表示する領域を示す情報となる。例えば、第一撮影部203bが撮影する第二の画像を、他のディスプレイ等に表示させた場合に、図8に示すような画像が得られたとする。   The areas where the first display unit 202b and the first display unit 202f are displayed in the second image captured by the first imaging unit 203b and the first imaging unit 203f are examined in advance, and each first image Information for specifying these areas is set in advance in a memory or the like. This information is information indicating an area in which the first display unit 202b and the first display unit 202f display the first image in the second image captured by the first imaging unit 203b and the first imaging unit 203f. For example, when the second image captured by the first capturing unit 203b is displayed on another display or the like, it is assumed that an image as shown in FIG. 8 is obtained.

ここでは、この第二の画像内において、第一表示部202bの表示面2021bが矩形で表示されていたとすると、この画像を利用して、第二の画像内の第一表示部202bの表示面が表示されている領域を指定する情報として、例えば、第一会議室2に人がいない状況で、第二の画像内の第一表示部202bの表示面の左上の座標(x1,y1)と、右下の座標(x2,y2)とをメモリ等に設定しておく。この座標の単位は、第二の画像内の画素単位とする。同様に、予め、第二撮影部303bおよび第二撮影部303fの撮影する第二画像内における、第二表示部302bおよび第二表示部302fが表示される領域を予め調べておき、各第二の画像内におけるこれらの領域を指定する情報を予めメモリ等に設定しておく。   Here, if the display surface 2021b of the first display unit 202b is displayed as a rectangle in the second image, the display surface of the first display unit 202b in the second image is used using this image. For example, in the situation where there is no person in the first conference room 2, the upper left coordinates (x1, y1) of the display surface of the first display unit 202b in the second image The lower right coordinates (x2, y2) are set in a memory or the like. The unit of this coordinate is a pixel unit in the second image. Similarly, the areas where the second display unit 302b and the second display unit 302f are displayed in the second images captured by the second imaging unit 303b and the second imaging unit 303f are examined in advance, and each second Information for specifying these areas in the image is previously set in a memory or the like.

次に、上記構成によるテレビ会議システムの動作について説明する。
まず、図7のように、第一会議室2においては、座席502bに会議の参加者A、座席502fに参加者Bが、また、第二会議室3においては、座席602bに参加者C、座席602fに参加者Dが、それぞれ着席してテレビ会議を開始したとする。
Next, the operation of the video conference system having the above configuration will be described.
First, as shown in FIG. 7, in the first conference room 2, the participant A is in the seat 502 b and the participant B is in the seat 502 f, and in the second conference room 3, the participant C It is assumed that the participant D sits on the seat 602f and starts a video conference.

まず、座席602bに着席している参加者Cを撮影部303bで撮影すると、図9に示すような、参加者Cと表示部302bおよびその表示領域3021bを含む1フレームの画像情報が得られる。この画像情報は、順次画像処理装置300bから、画像処理装置200bに送信され、画像処理装置200bの第一受信部206により受信される。受信された画像情報は、第一画像情報記憶部201に第一画像情報として一時記憶された後、この第一画像情報を用いて第一の画像が、第一表示部202bにより順次表示される。この画像の画素数は、1920×1080ピクセルであるとする。   First, when the participant C sitting on the seat 602b is photographed by the photographing unit 303b, one frame of image information including the participant C, the display unit 302b, and the display area 3021b is obtained as shown in FIG. The image information is sequentially transmitted from the image processing apparatus 300b to the image processing apparatus 200b, and is received by the first receiving unit 206 of the image processing apparatus 200b. The received image information is temporarily stored as first image information in the first image information storage unit 201, and then the first image is sequentially displayed on the first display unit 202b using the first image information. . It is assumed that the number of pixels of this image is 1920 × 1080 pixels.

次に、第一撮影部203bが1フレームの第二の画像を撮影する。第一撮影部203bが撮影した第二の画像は、図10に示すように、第一表示部202bとその表示領域2021bの画像と、座席502bに着席している参加者Aの上半身の画像とを含むものとなる。この第一の画像の画素数は、1920×1080ピクセルであるとする。画像処理装置200bの第一画像受付部207は、第一撮影部203bが撮影した第二の画像の情報を受け付け、図示しないメモリ等に一時記憶する。   Next, the first imaging unit 203b captures a second image of one frame. As shown in FIG. 10, the second image captured by the first imaging unit 203b includes an image of the first display unit 202b and its display area 2021b, and an image of the upper body of the participant A seated on the seat 502b. Will be included. The number of pixels of the first image is assumed to be 1920 × 1080 pixels. The first image receiving unit 207 of the image processing apparatus 200b receives information on the second image captured by the first imaging unit 203b and temporarily stores it in a memory (not shown) or the like.

ここで、表示領域2021bに表示されている、画像情報記憶部101に記憶されている第一画像情報が示す第一の画像には、上述したように、第二撮影部303bで撮影された参加者Cの画像と表示部302bおよびその表示領域3021bの画像が表示されていることから、第二の画像の表示部202b内の画像にも参加者Cや表示領域3021bの画像が含まれる。従って、この第一撮影部203bが撮影した第二の画像を、そのまま第一出力部205から第二会議端末30に送信して第二表示部302bに表示させた場合、第二表示部302bは、第二会議室3に在室している参加者Cの画像もフィードバックされて表示されることとなる。このため、テレビ会議としては適切な画像が表示されているとはいえない状況となり、会議のスムーズな進行に支障をきたす恐れがある。   Here, the first image displayed in the display area 2021b and indicated by the first image information stored in the image information storage unit 101 is a participation image captured by the second imaging unit 303b as described above. Since the image of the person C and the display part 302b and the image of the display area 3021b are displayed, the image in the display part 202b of the second image also includes the image of the participant C and the display area 3021b. Therefore, when the second image captured by the first imaging unit 203b is transmitted as it is from the first output unit 205 to the second conference terminal 30 and displayed on the second display unit 302b, the second display unit 302b The image of the participant C who is present in the second conference room 3 is also fed back and displayed. For this reason, it cannot be said that an appropriate image is displayed for a video conference, and there is a risk of hindering smooth progress of the conference.

このため、本実施の形態においては、このようなフィードバックされる画像を除去した画像を、他の会議室に送信する処理を行う。すなわち、第一差分画像情報構成部204は、予めメモリ等に格納されている第一撮影部203bが撮影する第二の画像内における第一表示部202bが第一の画像を表示する領域を指定する情報、ここでは、(x1,y1)、(x2,y2)を読み出して、第二撮影部303bが撮影し、第一画像受付部207が受け付けた第二の画像から、この情報が示す領域内の画像である第二領域画像を切り出して取得する。取得した画像の例を図11に示す。   For this reason, in the present embodiment, processing for transmitting an image from which such an image to be fed back is removed to another conference room is performed. That is, the first difference image information configuration unit 204 designates an area in which the first display unit 202b displays the first image in the second image captured by the first imaging unit 203b stored in advance in a memory or the like. Information indicated here, (x1, y1), (x2, y2) are read out, the second image capturing unit 303b captures the image, and the region indicated by this information from the second image received by the first image receiving unit 207 A second region image which is an image inside is cut out and acquired. An example of the acquired image is shown in FIG.

次に、取得した第一撮影部203bが撮影する第二の画像内における第一表示部202bが第一の画像を表示する領域内の画像の輝度値をレベル補正する。また、第一差分画像情報構成部204は、第一画像情報記憶部201に記憶されている現在、第一表示部202bが表示中の1フレームの第一画像情報を読み出す。そして読み出した第一画像情報の示す第一の画像の画素数を、上述した第二領域画像の画素数と同じとなるように、画素数を補正する。例えば、第二の画像内の図8に示したような座標(x1,y1)と座標(x2,y2)とに囲まれた矩形の領域の画素数が、1400×800ピクセルであったとすると、画素数が1920×1080ピクセルである第一の画像を、第二領域画像の画素数と同じ1400×800ピクセルとなるように画素数を変更する。この変更の際の画素数の補間方法等は問わない。   Next, the first display unit 202b in the second image captured by the acquired first imaging unit 203b performs level correction on the luminance value of the image in the area where the first image is displayed. The first difference image information configuration unit 204 reads the first image information of one frame currently displayed on the first display unit 202b stored in the first image information storage unit 201. Then, the number of pixels is corrected so that the number of pixels of the first image indicated by the read first image information is the same as the number of pixels of the second region image described above. For example, if the number of pixels in a rectangular area surrounded by coordinates (x1, y1) and coordinates (x2, y2) as shown in FIG. 8 in the second image is 1400 × 800 pixels, The number of pixels of the first image having 1920 × 1080 pixels is changed so as to be 1400 × 800 pixels, which is the same as the number of pixels of the second region image. The method of interpolating the number of pixels at the time of this change does not matter.

次に、第一差分画像情報構成部204は、画素数を補正した第一画像情報が示す第一の画像と、輝度情報を補正した第二領域画像とを比較して、第一の画像と一致している画像を有する領域を決定する。ここでは具体的には、第二領域画像を構成する各画素と、画素数を補正した第一の画像内の同じ座標に位置する画素との輝度情報である輝度値同士の差を算出し、差の絶対値が予め設定した所定の閾値以下であるか否かを、各画素毎に順次判断する。差の絶対値が所定の閾値以下であるか否かを判断する代りに、差が所定の範囲内の値であるか否かを判断してもよい。   Next, the first difference image information configuration unit 204 compares the first image indicated by the first image information with the corrected number of pixels with the second region image with the corrected luminance information, An area having a matching image is determined. Specifically, here, the difference between the luminance values, which are the luminance information, between each pixel constituting the second region image and the pixel located at the same coordinate in the first image with the corrected number of pixels, It is sequentially determined for each pixel whether or not the absolute value of the difference is equal to or less than a predetermined threshold value set in advance. Instead of determining whether or not the absolute value of the difference is equal to or less than a predetermined threshold value, it may be determined whether or not the difference is a value within a predetermined range.

次に、閾値以下である画素により構成される領域を決定する。ここでは、図11に示した第二領域画像と、図9に示した第一の画像の画素数を補正した画像とを比較して、第一の画像に一致する画像を有する領域を、第二領域画像内において決定することとなり、この比較の結果、図12の点線で示した領域1000が、第二領域画像内の、第一の画像と一致している画像を有する領域に決定される。この領域1000には、参加者Aは含まれていない。   Next, an area composed of pixels that are equal to or less than the threshold is determined. Here, the second region image shown in FIG. 11 is compared with the image obtained by correcting the number of pixels of the first image shown in FIG. As a result of this comparison, a region 1000 indicated by a dotted line in FIG. 12 is determined as a region having an image that matches the first image in the second region image. . Participant A is not included in this area 1000.

次に、第二の画像内において、この領域1000内の画素を全て除去して、グレーの画素に置換する。これにより、例えば、図13に示すような第二領域画像の、第一の画像に一致する画像を有する領域を、グレーの画像に変更した差分画像が得られる。この第二領域画像の第一の画像に一致する画像を除いた領域は、具体的には、第二の画像内における第一表示部202bが第一の画像を表示する領域において、表示部202bが表示している第一の画像に対して重なっている参加者Aを示す画像である。従って、このように、グレーの画像に置換することで、図13に示すように、第二の画像内における第二表示部202bが第一の画像を表示する領域においては、グレーの背景画像と、参加者Aの画像だけが表示されることとなる。   Next, in the second image, all the pixels in the region 1000 are removed and replaced with gray pixels. Thereby, for example, a difference image in which a region having an image matching the first image in the second region image as shown in FIG. 13 is changed to a gray image is obtained. Specifically, the area excluding the image that matches the first image of the second area image is the area where the first display section 202b displays the first image in the second image. Is an image showing the participant A overlapping the first image displayed. Therefore, by replacing with the gray image in this way, as shown in FIG. 13, in the area where the second display unit 202b in the second image displays the first image, Only the image of the participant A is displayed.

このようにして得られた差分画像を示す差分画像情報を、第一出力部205が、第二会議端末30の画像処理装置300bに対して、ネットワーク経由で送信される。第一出力部205は、例えば、予め格納されている画像処理装置300bのネットワーク上のアドレス情報、例えばIPアドレス等を、差分画像情報に付加して、差分画像情報を送信する。これにより、差分画像情報は、IPアドレス等により指定される画像処理装置300bの第二受信部306により受信される。第二受信部306により受信された図13に示すような1フレームの差分画像情報は、第二画像情報記憶部301に一旦記憶された後、第二表示部302bにより表示される。これにより第二表示部302には、図13に示すような参加者Aを撮影した画像が表示される。   The first output unit 205 transmits the difference image information indicating the difference image obtained in this way to the image processing device 300b of the second conference terminal 30 via the network. The first output unit 205 adds, for example, address information on the network of the image processing apparatus 300b stored in advance, such as an IP address, to the difference image information, and transmits the difference image information. Thereby, the difference image information is received by the second receiving unit 306 of the image processing apparatus 300b specified by the IP address or the like. The difference image information of one frame as shown in FIG. 13 received by the second receiving unit 306 is temporarily stored in the second image information storage unit 301 and then displayed by the second display unit 302b. As a result, the second display unit 302 displays an image of the participant A as shown in FIG.

第二撮影部303bは、この第二表示部302bに表示された差分画像と、第二表示部302bの前の座席602に着席している参加者Cの上半身の画像とを含む第三の画像を撮影する。第二画像受付部307は、第二撮影部303bが出力する第三の画像を示す情報を受け付け、メモリ等に一時記憶する。そして、第二差分画像情報構成部304は、上記の第一差分画像情報構成部204と同様に、第二撮影部303bが撮影し、第二画像受付部307が受け付けた第三の画像から、第二表示部302bが現在表示中の差分画像に一致する画像を除去し、その除去した領域をグレーの画像に変換した第一の画像を構成する。この第一の画像は、第三の画像中の、第二表示部302bが表示していた画像を撮影した領域を、グレーの画像に置換した画像であり、参加者Cと、表示領域内がグレーの画像に置換された第二表示部302とを含む画像となる。   The second imaging unit 303b is a third image that includes the difference image displayed on the second display unit 302b and the image of the upper body of the participant C sitting on the seat 602 in front of the second display unit 302b. Shoot. The second image receiving unit 307 receives information indicating the third image output from the second imaging unit 303b and temporarily stores it in a memory or the like. Then, similarly to the first difference image information configuration unit 204 described above, the second difference image information configuration unit 304 captures images from the third image captured by the second imaging unit 303b and received by the second image reception unit 307. The second display unit 302b removes an image that matches the currently displayed difference image, and configures a first image obtained by converting the removed area into a gray image. The first image is an image obtained by replacing the area in which the image displayed by the second display unit 302b in the third image is captured with a gray image. The image includes the second display unit 302 replaced with a gray image.

次に、第二差分画像情報構成部304が取得した1フレームの第一の画像を示す第一画像情報を、第二出力部305が、第一出力部205と同様に、第一会議端末20の画像処理装置200bに対して送信する。そして、画像処理装置200bの第一受信部206が第一画像情報を受信すると、この第一画像情報は、一旦、第一画像情報記憶部201に蓄積され、第一表示部202bにより表示される。以上のようにして、上記と同様の処理が繰り返される。また、第一表示部202fと、第一撮影部203fと、第二表示部302fと、第二撮影部303fとの間においても、上記と同様の処理が行われる。   Next, as with the first output unit 205, the second output unit 305 sends the first image information indicating the first image of one frame acquired by the second difference image information configuration unit 304 to the first conference terminal 20. To the image processing apparatus 200b. When the first receiving unit 206 of the image processing apparatus 200b receives the first image information, the first image information is temporarily stored in the first image information storage unit 201 and displayed by the first display unit 202b. . As described above, the same processing as described above is repeated. In addition, the same processing as described above is performed between the first display unit 202f, the first imaging unit 203f, the second display unit 302f, and the second imaging unit 303f.

以上、本実施の形態によれば、第一差分画像情報構成部204および第二差分画像情報 構成部304により、第一撮影部203および第二撮影部303が撮影した画像から、第一表示部202および第二表示部302が表示している画像と一致する画像を除去するようにしたことにより、第一表示部202および第二表示部302が表示している画像が、第一撮影部203および第二撮影部303が撮影した画像に含まれて出力されることを防ぐことができる。   As described above, according to the present embodiment, the first display unit 203 and the second difference image information configuration unit 304 use the first display unit from the images captured by the first imaging unit 203 and the second imaging unit 303. By removing the image that matches the image displayed on the second display unit 202 and the second display unit 302, the image displayed on the first display unit 202 and the second display unit 302 is changed to the first photographing unit 203. In addition, it can be prevented that the image is captured and output by the second image capturing unit 303.

これにより、例えば、第一撮影部203および第二撮影部303がテレビ会議等の参加者を撮影した画像から、参加者の背景において、第一表示部202または第二表示部302に表示している他の会議室における会議の参加者の画像を除去した画像を、他の会議室のテレビ会議端末に送信することができる。この結果、それぞれの会議室で撮影された画像が、フィードバックされて、同じ会議室内のディスプレイ等に表示されることを防ぐことができ、フィードバックされた画像による混乱を抑えて、会議を効率的に行うことが可能となる。   Thereby, for example, the first image capturing unit 203 and the second image capturing unit 303 display the images on the first display unit 202 or the second display unit 302 in the background of the participants from the images of the participants such as the video conference. An image obtained by removing the image of the participant in the conference in another conference room can be transmitted to the video conference terminal in the other conference room. As a result, images taken in each conference room can be prevented from being fed back and displayed on a display or the like in the same conference room. Can be done.

なお、上記具体例においては、説明のため、1フレーム単位の差分画像を示す差分画像情報を、第一テレビ会議端末20とテレビ会議端末30間で送受信するようにしたが、複数フレーム単位の差分画像を示す差分画像情報を送受信してもよい。
また、上記具体例のテレビ会議システムにおいて、第一テレビ会議端末20の各画像処理装置200a〜200f毎に設けられている第一画像情報記憶部201と、第一表示部202と、第一撮影部203と、第一画像受付部207と、第一差分画像情報構成部204と、第一出力部205と、第一受信部206とを、それぞれ1つの第一画像情報記憶部201と、第一表示部202と、第一撮影部203と、第一画像受付部207と、第一差分画像情報構成部204と、第一出力部205と、第一受信部206とで実現してもよい。
また、上記具体例のテレビ会議システムにおいて、第二テレビ会議端末30の各画像処理装置300a〜300f毎に設けられている、第二画像情報記憶部301と、第二表示部302と、第二撮影部303と、第二画像受付部307と、第二差分画像情報構成部304と、第二出力部305と、第二受信部306とを、それぞれ1つの第二画像情報記憶部301と、第二表示部302と、第二撮影部303と、第二画像受付部307と、第二差分画像情報構成部304と、第二出力部305と、第二受信部306とで実現してもよい。
In the above specific example, for the sake of explanation, the difference image information indicating the difference image in units of one frame is transmitted and received between the first video conference terminal 20 and the video conference terminal 30. Difference image information indicating an image may be transmitted and received.
In the video conference system of the above specific example, the first image information storage unit 201, the first display unit 202, and the first photographing provided for each of the image processing devices 200 a to 200 f of the first video conference terminal 20. Unit 203, first image reception unit 207, first difference image information configuration unit 204, first output unit 205, and first reception unit 206, respectively, one first image information storage unit 201, The display unit 202, the first photographing unit 203, the first image receiving unit 207, the first difference image information configuring unit 204, the first output unit 205, and the first receiving unit 206 may be realized. .
In the video conference system of the above specific example, a second image information storage unit 301, a second display unit 302, and a second display unit provided for each of the image processing devices 300a to 300f of the second video conference terminal 30 are provided. The imaging unit 303, the second image reception unit 307, the second difference image information configuration unit 304, the second output unit 305, and the second reception unit 306, respectively, one second image information storage unit 301, The second display unit 302, the second imaging unit 303, the second image reception unit 307, the second difference image information configuration unit 304, the second output unit 305, and the second reception unit 306 may be realized. Good.

なお、上記実施の形態では、画像処理装置がスタンドアロンである場合について説明したが、画像処理装置は、サーバ・クライアントシステムにおけるサーバ装置であってもよい。サーバ装置の場合には、画像受付部や表示部等は、通信回線を介して第二の画像を示す情報の入力を受け付けたり、画像を出力したりすることになる。従って、例えば、図4および図5に示した具体例においては、情報処理装置2000の構成を、第二テレビ会議端末30内に設けるようにして、第一テレビ会議端末20からネットワーク等を経由して送信される第二画像を用いて、第二テレビ会議端末30内において差分画像を作成して、第二テレビ会議端末30の第二表示部302に表示するようにしてもよい。   In the above embodiment, the case where the image processing apparatus is a stand-alone has been described. However, the image processing apparatus may be a server apparatus in a server / client system. In the case of the server device, the image receiving unit, the display unit, etc. receive input of information indicating the second image or output the image via the communication line. Therefore, for example, in the specific examples shown in FIGS. 4 and 5, the configuration of the information processing apparatus 2000 is provided in the second video conference terminal 30 so that the first video conference terminal 20 passes through the network or the like. Using the second image transmitted in this manner, a difference image may be created in the second video conference terminal 30 and displayed on the second display unit 302 of the second video conference terminal 30.

また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
また、上記各実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。
In each of the above embodiments, each process (each function) may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.
In each of the above embodiments, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

上記各実施の形態における画像処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、記憶されている第一の画像を示す情報である第一画像情報を用いて、前記第一の画像を表示する表示部と、前記表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付部と、前記記憶されている第一画像情報を用いて、前記画像受付部が受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する差分画像情報構成部と、前記差分画像情報構成部が構成した差分画像情報を出力する出力部として機能させるためのプログラムである。
なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
The software that realizes the image processing apparatus in each of the above embodiments is the following program. That is, this program uses a first image information that is information indicating a first image stored in the computer, a display unit that displays the first image, and a first unit that displays the first image. An image receiving unit that receives a second image that is an image obtained by capturing an area including the image of the image, and a second image received by the image receiving unit using the stored first image information. A difference image information constituting unit constituting difference image information which is information indicating a difference image which is an image obtained by removing the first image included in the second image, and difference image information constituted by the difference image information constituting unit. It is a program for functioning as an output unit for outputting.
In the above program, in a transmission step for transmitting information, a reception step for receiving information, etc., processing performed by hardware, for example, processing performed by a modem or an interface card in the transmission step (only performed by hardware). Not included) is not included.

また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
また、上記各実施の形態において、一の装置に存在する2以上の通信手段(情報送信部など)は、物理的に一の媒体で実現されてもよいことは言うまでもない。
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by
Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
Further, in each of the above embodiments, it goes without saying that two or more communication means (such as an information transmission unit) existing in one apparatus may be physically realized by one medium.
The present invention is not limited to the above-described embodiments, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上のように、本発明にかかる画像処理装置等は、表示されている画像を含む領域の画像を処理する画像処理装置等として適しており、テレビ会議等に用いられる画像処理装置等として有用である。   As described above, the image processing apparatus according to the present invention is suitable as an image processing apparatus that processes an image of a region including a displayed image, and is useful as an image processing apparatus used in a video conference or the like. is there.

本発明の実施の形態による画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 同画像処理装置の動作について説明するフローチャートである。It is a flowchart explaining operation | movement of the image processing apparatus. 同画像処理装置の動作について説明するフローチャートである。It is a flowchart explaining operation | movement of the image processing apparatus. 同テレビ会議システムのブロック図である。It is a block diagram of the video conference system. 同テレビ会議システムの構成図である。It is a block diagram of the video conference system. 同テレビ会議システムの概略的な構成図である。It is a schematic block diagram of the video conference system. 同テレビ会議システムの模式的な構成図である。It is a typical block diagram of the video conference system. 同テレビ会議システムの表示例を示す構成図である。It is a block diagram which shows the example of a display of the video conference system. 同テレビ会議システムの表示例を示す構成図である。It is a block diagram which shows the example of a display of the video conference system. 同テレビ会議システムの表示例を示す構成図である。It is a block diagram which shows the example of a display of the video conference system. 同テレビ会議システムの表示例を示す構成図である。It is a block diagram which shows the example of a display of the video conference system. 同テレビ会議システムの表示例を示す構成図である。It is a block diagram which shows the example of a display of the video conference system. 同テレビ会議システムの表示例を示す構成図である。It is a block diagram which shows the example of a display of the video conference system.

符号の説明Explanation of symbols

100、200、300 画像処理装置
103、203、303 撮影部
101 画像情報記憶部
102、105、17 出力部
102、12、202、2021、203、302 表示部
104 差分画像情報構成部
107 画像受付部
200、200a〜200f、300、300a〜300f 画像処理装置
201 第一画像情報記憶部
202、202a〜202f 第一表示部
203、203a〜203f 第一撮影部
204 第一差分画像情報構成部
205 第一出力部
206 第一受信部
207 第一画像受付部
301 第二画像情報記憶部
302、302a〜302f 第二表示部
303、303a〜303f 第二撮影部
304 第二差分画像情報構成部
305 第二出力部
306 第二受信部
307 第二画像受付部
502a〜502f、602a〜602f 座席
2000、3000 情報処理装置

100, 200, 300 Image processing apparatus 103, 203, 303 Imaging unit 101 Image information storage unit 102, 105, 17 Output unit 102, 12, 202, 2021, 203, 302 Display unit 104 Differential image information configuration unit 107 Image reception unit 200, 200a to 200f, 300, 300a to 300f Image processing device 201 First image information storage unit 202, 202a to 202f First display unit 203, 203a to 203f First imaging unit 204 First difference image information configuration unit 205 First Output unit 206 First reception unit 207 First image reception unit 301 Second image information storage unit 302, 302a to 302f Second display unit 303, 303a to 303f Second imaging unit 304 Second difference image information configuration unit 305 Second output Unit 306 second receiving unit 307 second image receiving unit 502a to 502f 602a~602f seat 2000 and 3000 the information processing apparatus

Claims (12)

第一の画像を示す情報である第一画像情報が記憶される画像情報記憶部と、
前記第一画像情報を用いて前記第一の画像を表示する表示部と、
前記表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付部と、
前記画像情報記憶部に記憶されている前記第一画像情報を用いて、前記画像受付部が受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する差分画像情報構成部と、
前記差分画像情報構成部が構成した差分画像情報を出力する出力部とを具備することを特徴とする画像処理装置。
An image information storage unit that stores first image information that is information indicating the first image;
A display unit for displaying the first image using the first image information;
An image receiving unit that receives a second image that is an image of an area including the first image displayed by the display unit;
An image obtained by removing the first image included in the second image from the second image received by the image receiving unit using the first image information stored in the image information storage unit. A difference image information constituting unit constituting difference image information which is information indicating a difference image;
An image processing apparatus comprising: an output unit configured to output difference image information configured by the difference image information configuration unit.
前記差分画像情報構成部は、
前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像を、前記画像情報記憶部に記憶されている前記第一画像情報が示す第一の画像と比較して、前記第一の画像に一致する画像を有する領域を決定し、前記第二の画像から、当該決定した領域内の画像を除去した差分画像を示す差分画像情報を構成することを特徴とする請求項1記載の画像処理装置。
The difference image information configuration unit includes:
In the second image, the display unit compares the image on the area where the first image is displayed with the first image indicated by the first image information stored in the image information storage unit. Determining a region having an image that matches the first image, and constructing difference image information indicating a difference image obtained by removing an image in the determined region from the second image. Item 6. The image processing apparatus according to Item 1.
前記差分画像情報構成部は、
前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の画素数を変換して前記比較を行うことを特徴とする請求項2記載の画像処理装置。
The difference image information configuration unit includes:
The comparison is performed by converting the number of pixels of at least one of the images on an area where the display unit in the first image or the second image displays the first image. 2. The image processing apparatus according to 2.
前記差分画像情報構成部は、
前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の色を変換して前記比較を行うことを特徴とする請求項2または請求項3記載の画像処理装置。
The difference image information configuration unit includes:
3. The comparison is performed by converting at least one color of an image on an area where the first image is displayed by the display unit in the first image or the second image. The image processing apparatus according to claim 3.
第一画像処理装置と、第二画像処理装置とを具備するテレビ会議システムであって、
前記第一画像処理装置は、
前記第二画像処理装置が出力する第一の画像を示す情報である第一画像情報を受信する第一受信部と、
前記第一受信部が受信した第一画像情報が記憶される第一画像情報記憶部と、
前記第一画像情報を用いて前記第一の画像を表示する第一表示部と、
前記第一表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける第一画像受付部と、
前記第一画像情報記憶部に記憶されている前記第一画像情報を用いて、前記第一画像受付部が受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する第一差分画像情報構成部と、
前記第一差分画像情報構成部が構成した差分画像情報を出力する第一出力部とを具備し、前記第二画像処理装置は、
前記第二画像処理装置が出力する前記差分画像情報を受信する第二受信部と、
前記第二受信部が受信した差分画像情報が記憶される第二画像情報記憶部と、
前記差分画像情報を用いて前記差分画像を表示する第二表示部と、
前記第二表示部が表示する差分画像を含む領域を撮影した画像である第三の画像を受け付ける第二画像受付部と、
前記第二画像情報記憶部に記憶されている前記差分画像情報を用いて、前記第二画像受付部が受け付けた第三の画像から、当該第三の画像に含まれる前記差分画像を除去した画像である前記第一の画像を示す情報である第一画像情報を構成する第二差分画像情報構成部と、
前記第二差分画像情報構成部が構成した第一画像情報を出力する第二出力部とを具備することを特徴とするテレビ会議システム。
A video conference system comprising a first image processing device and a second image processing device,
The first image processing apparatus includes:
A first receiving unit that receives first image information that is information indicating a first image output by the second image processing device;
A first image information storage unit for storing first image information received by the first reception unit;
A first display unit that displays the first image using the first image information;
A first image receiving unit that receives a second image that is an image of a region including the first image displayed by the first display unit;
Using the first image information stored in the first image information storage unit, the first image included in the second image is selected from the second image received by the first image reception unit. A first difference image information constituting unit constituting difference image information which is information indicating a difference image which is a removed image;
A first output unit that outputs the difference image information configured by the first difference image information configuration unit, and the second image processing device includes:
A second receiver that receives the difference image information output by the second image processing device;
A second image information storage unit for storing the difference image information received by the second reception unit;
A second display unit that displays the difference image using the difference image information;
A second image receiving unit that receives a third image that is an image of an area including the difference image displayed by the second display unit;
An image obtained by removing the difference image included in the third image from the third image received by the second image receiving unit using the difference image information stored in the second image information storage unit. A second difference image information constituting unit constituting first image information which is information indicating the first image, and
A video conference system, comprising: a second output unit configured to output first image information configured by the second difference image information configuration unit.
前記第一差分画像情報構成部は、
前記第二の画像内における前記第一表示部が前記第一の画像を表示する領域上の画像を、
前記第一画像情報記憶部に記憶されている前記第一画像情報が示す第一の画像と比較して、前記第一の画像に一致する画像を有する領域を決定し、前記第二の画像から当該決定した領域内の画像を除去した前記差分画像を示す前記差分画像情報を構成し、
前記第二差分画像情報構成部は、
前記第三の画像内における前記第二表示部が前記差分画像を表示する領域上の画像を、前記第二画像情報記憶部に記憶されている前記差分画像情報が示す差分画像と比較して、前記差分画像に一致する画像を有する領域を決定し、前記第三の画像から当該決定した領域内の画像を除去した前記第一の画像を示す前記第一画像情報を構成することを特徴とする請求項5記載のテレビ会議システム。
The first difference image information configuration unit includes:
The image on the area where the first display unit in the second image displays the first image,
Compared with the first image indicated by the first image information stored in the first image information storage unit, an area having an image that matches the first image is determined, and the second image Configuring the difference image information indicating the difference image from which the image in the determined region has been removed;
The second difference image information configuration unit includes:
Compare the image on the area where the second display unit in the third image displays the difference image with the difference image indicated by the difference image information stored in the second image information storage unit, A region having an image that matches the difference image is determined, and the first image information indicating the first image obtained by removing the image in the determined region from the third image is configured. The video conference system according to claim 5.
前記第一差分画像情報構成部は、
前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の画素数を変換して前記比較を行い、
前記第二差分画像情報構成部は、
前記差分画像または前記第三の画像内における前記表示部が前記差分画像を表示する領域上の画像の少なくとも一方の画素数を変換して前記比較を行うことを特徴とする請求項6記載のテレビ会議システム。
The first difference image information configuration unit includes:
The display unit in the first image or the second image converts the number of pixels of at least one of the images on the area where the first image is displayed, and performs the comparison,
The second difference image information configuration unit includes:
7. The television according to claim 6, wherein the display unit in the difference image or the third image converts the number of pixels of at least one of the images on an area where the difference image is displayed, and performs the comparison. Conference system.
前記第一差分画像情報構成部は、
前記第一の画像または前記第二の画像内における前記表示部が前記第一の画像を表示する領域上の画像の少なくとも一方の色を変換して前記比較を行い、
前記第二差分画像情報構成部は、
前記差分画像または前記第三の画像内における前記表示部が前記差分画像を表示する領域上の画像の少なくとも一方の色を変換して前記比較を行うことを特徴とする請求項6または請求項7記載のテレビ会議システム。
The first difference image information configuration unit includes:
The display unit in the first image or the second image converts the color of at least one of the images on the area where the first image is displayed, and performs the comparison.
The second difference image information configuration unit includes:
8. The comparison is performed by converting at least one color of an image on an area where the difference image is displayed by the display unit in the difference image or the third image. The described video conference system.
第一の画像を示す情報である第一画像情報が記憶される画像情報記憶部と、表示部と、画像受付部と、差分画像情報構成部と、出力部とを備えた画像処理装置の画像処理方法であって、
前記表示部が、前記第一画像情報を用いて前記第一の画像を表示する表示ステップと、
前記画像受付部が、前記表示ステップで表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付ステップと、
前記差分画像情報構成部が、前記画像情報記憶部に記憶されている前記第一画像情報を用いて、前記画像受付ステップで受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する差分画像情報構成ステップと、
前記出力部が、前記差分画像情報構成ステップで構成した差分画像情報を出力する出力ステップとを具備することを特徴とする画像処理方法。
An image of an image processing apparatus including an image information storage unit that stores first image information that is information indicating a first image, a display unit, an image reception unit, a difference image information configuration unit, and an output unit A processing method,
A display step in which the display unit displays the first image using the first image information;
An image receiving step in which the image receiving unit receives a second image that is an image of an area including the first image displayed in the display step;
The difference image information configuration unit uses the first image information stored in the image information storage unit, and from the second image received in the image reception step, the second image included in the second image. A difference image information constituting step constituting difference image information which is information indicating a difference image which is an image obtained by removing one image;
An image processing method comprising: an output step in which the output unit outputs difference image information configured in the difference image information configuration step.
第一受信部、第一表示部、第一画像受付部、第一差分画像情報構成部、第一出力部、第二受信部、第二画像情報記憶部、第二表示部、第二画像受付部、第二差分画像情報構成部、および第二出力部とを有するテレビ会議システムにおいて処理されるテレビ会議方法であって、
前記第一受信部が、前記第二出力部が出力する第一の画像を示す情報である第一画像情報を受信する第一受信ステップと、
前記第一表示部が、前記第一画像情報を用いて前記第一の画像を表示する第一表示ステップと、
前記第一画像受付部が、前記第一表示ステップで表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける第一画像受付ステップと、
前記第一差分画像情報構成部が、前記第一画像情報を用いて、前記第一画像受付ステップで受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する第一差分画像情報構成ステップと、
前記第一出力部が、前記第一差分画像情報構成ステップで構成した差分画像情報を出力する第一出力ステップと、
前記第二受信部が、前記第一出力ステップで出力された前記差分画像情報を受信する第二受信ステップと、
前記第二表示部が、前記差分画像情報を用いて前記差分画像を表示する第二表示ステップと、
前記第二画像受付部が、前記第二表示ステップで表示する差分画像を含む領域を撮影した画像である第三の画像を受け付ける第二画像受付ステップと、
前記第二差分画像情報構成部が、前記差分画像情報を用いて、前記第二画像受付ステップで受け付けた第三の画像から、当該第三の画像に含まれる前記差分画像を除去した画像である前記第一の画像を示す情報である第一画像情報を構成する第二差分画像情報構成ステップと、
前記第二出力部が、前記第二差分画像情報構成ステップで構成した第一画像情報を出力する第二出力ステップとを具備することを特徴とするテレビ会議方法。
1st receiving part, 1st display part, 1st image reception part, 1st difference image information composition part, 1st output part, 2nd receiving part, 2nd image information storage part, 2nd display part, 2nd image reception A video conference method to be processed in a video conference system having a first difference image information configuration unit, and a second output unit,
A first receiving step in which the first receiving unit receives first image information which is information indicating a first image output by the second output unit;
A first display step in which the first display unit displays the first image using the first image information;
A first image receiving step in which the first image receiving unit receives a second image that is an image of a region including the first image displayed in the first display step;
The first difference image information configuration unit uses the first image information to remove the first image included in the second image from the second image received in the first image reception step. A first difference image information constituting step constituting difference image information which is information indicating a difference image which is an image;
A first output step in which the first output unit outputs the difference image information configured in the first difference image information configuration step;
A second receiving step in which the second receiving unit receives the difference image information output in the first output step;
A second display step in which the second display unit displays the difference image using the difference image information;
A second image receiving step in which the second image receiving unit receives a third image that is an image of an area including the difference image displayed in the second display step;
The second difference image information configuration unit is an image obtained by removing the difference image included in the third image from the third image received in the second image reception step using the difference image information. A second difference image information constituting step constituting first image information which is information indicating the first image;
The video conference method, wherein the second output unit includes a second output step of outputting the first image information configured in the second difference image information configuration step.
コンピュータを、
記憶されている第一の画像を示す情報である第一画像情報を用いて、前記第一の画像を表示する表示部と、
前記表示部が表示する第一の画像を含む領域を撮影した画像である第二の画像を受け付ける画像受付部と、
前記記憶されている第一画像情報を用いて、前記画像受付部が受け付けた第二の画像から、当該第二の画像に含まれる前記第一の画像を除去した画像である差分画像を示す情報である差分画像情報を構成する差分画像情報構成部と、
前記差分画像情報構成部が構成した差分画像情報を出力する出力部として機能させるためのプログラム。
Computer
A display unit for displaying the first image using first image information which is information indicating the first image stored;
An image receiving unit that receives a second image that is an image of an area including the first image displayed by the display unit;
Information indicating a differential image that is an image obtained by removing the first image included in the second image from the second image received by the image receiving unit using the stored first image information. A difference image information constituting unit constituting difference image information,
The program for functioning as an output part which outputs the difference image information which the said difference image information structure part comprised.
請求項11記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。

The computer-readable recording medium which recorded the program of Claim 11.

JP2007149128A 2007-06-05 2007-06-05 Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium Expired - Fee Related JP5004680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007149128A JP5004680B2 (en) 2007-06-05 2007-06-05 Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007149128A JP5004680B2 (en) 2007-06-05 2007-06-05 Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2008306265A true JP2008306265A (en) 2008-12-18
JP5004680B2 JP5004680B2 (en) 2012-08-22

Family

ID=40234628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007149128A Expired - Fee Related JP5004680B2 (en) 2007-06-05 2007-06-05 Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5004680B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013123108A (en) * 2011-12-09 2013-06-20 Dowango:Kk Video transmission system, video transmission method and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04310086A (en) * 1991-04-08 1992-11-02 Sharp Corp Video telephone set
JP2000122767A (en) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for creating common space giving room sharing feeling, and communication system
JP2006042066A (en) * 2004-07-28 2006-02-09 Toshiba Corp Dynamic image information transmission apparatus and transmission image generation method
JP2006339832A (en) * 2005-05-31 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> Television conference system and television conference terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04310086A (en) * 1991-04-08 1992-11-02 Sharp Corp Video telephone set
JP2000122767A (en) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for creating common space giving room sharing feeling, and communication system
JP2006042066A (en) * 2004-07-28 2006-02-09 Toshiba Corp Dynamic image information transmission apparatus and transmission image generation method
JP2006339832A (en) * 2005-05-31 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> Television conference system and television conference terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013123108A (en) * 2011-12-09 2013-06-20 Dowango:Kk Video transmission system, video transmission method and computer program

Also Published As

Publication number Publication date
JP5004680B2 (en) 2012-08-22

Similar Documents

Publication Publication Date Title
US9088694B2 (en) Adjusting video layout
US9774896B2 (en) Network synchronized camera settings
US5757424A (en) High-resolution video conferencing system
KR101231518B1 (en) Camera control apparatus, camera system, electronic conference system, and camera control method
CN106600548B (en) Fisheye camera image processing method and system
JP2006235307A (en) Display device and method of controlling display for the same
JP2016208306A (en) Image processing device, imaging system having the same and image processing method
JP2009071478A (en) Information communication terminal and information communication system
US12119025B2 (en) Image processing device, image processing method, and image processing program
JP2002112215A (en) Vide conference system
JP2018186514A (en) Image processing device, imaging system having the same and image processing method
JP2009239762A (en) Video conference system and video conference method
US20190306462A1 (en) Image processing apparatus, videoconference system, image processing method, and recording medium
JP2010171690A (en) Television conference system and video communication method
JP2009141508A (en) Television conference device, television conference method, program, and recording medium
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP5004680B2 (en) Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium
JP4999559B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2008301399A (en) Television conference apparatus, television conference method, television conference system, computer program and recording medium
KR20190122692A (en) Image processing apparatus and image processing method
WO2021192096A1 (en) Image processing device, image processing method, and image processing program
JP2008250366A (en) Person extraction method, its device, its program, and recording medium with same program recorded
JP2005110160A (en) Imaging apparatus
JP2002262138A (en) Image pickup system, video conference system, monitoring system, and information terminal with image pickup function
JP2004193661A (en) Two-way communication system, video communication apparatus, and photographing processing control method for video communication apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees