JP2009232290A - Image communication system and image communication method - Google Patents

Image communication system and image communication method Download PDF

Info

Publication number
JP2009232290A
JP2009232290A JP2008076889A JP2008076889A JP2009232290A JP 2009232290 A JP2009232290 A JP 2009232290A JP 2008076889 A JP2008076889 A JP 2008076889A JP 2008076889 A JP2008076889 A JP 2008076889A JP 2009232290 A JP2009232290 A JP 2009232290A
Authority
JP
Japan
Prior art keywords
video
image communication
communication device
image
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008076889A
Other languages
Japanese (ja)
Other versions
JP5058042B2 (en
Inventor
Daisuke Akiba
大介 秋葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008076889A priority Critical patent/JP5058042B2/en
Publication of JP2009232290A publication Critical patent/JP2009232290A/en
Application granted granted Critical
Publication of JP5058042B2 publication Critical patent/JP5058042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image communication system and image communication method in which a target can be clearly grasped at an opposite side in simple configuration. <P>SOLUTION: When an operator of a first image communication apparatus 100 uses a touch pen 104 to input a designation area displaying a target 330 through a first touch panel 103 in a state where an image transmitted from a second image communication apparatus 200 is being displayed on a first display 102, information about an image of a portion displaying the target 300 being displayed within the inputted designation area 105 is transmitted to the second image communication apparatus 200. At the second image communication apparatus 200, on the basis of the received information, the image being displayed within the designation area 105 is displayed on a second display 202 of the apparatus itself. At such a time, a photographed image sent from the first image communication apparatus 100 and the image displaying the target 300 are displayed on the second display 202 while being superimposed. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムおよび画像通信方法に関する。   The present invention relates to an image communication system and an image communication method for displaying received images on each other's screen by transmitting and receiving captured images both on the first and second image communication apparatuses.

データ通信の通信帯域の増加に伴い、電話通信と同時に画像通信を行う、いわゆるテレビ電話通信が容易に実現可能となっている。   With an increase in data communication bandwidth, so-called videophone communication, in which image communication is performed simultaneously with telephone communication, can be easily realized.

テレビ電話通信を実現するテレビ電話通信装置(以下では単に「通信装置」と略称する。)は、通話者の画像を撮像するための撮像手段、音声データおよび画像データを送受信するための通信手段、画像を表示する表示手段、音声の入出力を行う送受話器などを備えている。   A videophone communication device (hereinafter simply abbreviated as “communication device”) that realizes a videophone communication includes an imaging unit for capturing an image of a caller, a communication unit for transmitting and receiving audio data and image data, It includes display means for displaying images, a handset for inputting and outputting audio, and the like.

撮像手段によって撮像された画像は、画像データとして相手側通信装置に送信されるとともに、通話者の確認用に表示手段の一部に表示される。   The image picked up by the image pickup means is transmitted as image data to the counterpart communication device and displayed on a part of the display means for confirmation of the caller.

このような通信システムは、たとえば遠隔地を結んでのテレビ会議やプレゼンテーションなどに利用される。   Such a communication system is used, for example, for video conferences and presentations connecting remote locations.

会議やプレゼンテーション中には、相手側から送られてくる画像に表示されている物を指定して説明を求めたり、質問する場合が想定されるが、そのときは、口頭でその対象物を指定する必要がある。対象物が明確なものであれば、口頭での説明であっても十分に伝わるかもしれないが、対象物が不明確なものもあり、口頭で正確に対象物を指定することが困難なときがある。対象物を指定するだけで長時間を要することになったり、相手側で対象物とは別の物を対象物として誤って認識してしまうと、意思の疎通ができずに会議やプレゼンテーションがスムーズに進まなくなってしまう。   During meetings and presentations, it may be possible to ask for explanations or ask questions by specifying what is displayed in the image sent from the other party. In that case, specify the object verbally. There is a need to. If the object is clear, even verbal explanations may be sufficiently communicated, but there is also an object that is unclear and it is difficult to specify the object accurately orally There is. If it only takes a long time to specify an object, or if the other party mistakenly recognizes an object that is different from the object, the meeting and presentation will be smooth without communication. It will not proceed to.

特許文献1記載の画像入出力システムでは、プレゼンテーション側で自機器の表示タブレットの位置情報入力部を用いて原稿画像上の特定の箇所を示す位置情報を入力すると、その位置情報が送信部を介して相手装置に送られ、相手装置ではその送られてきた位置情報に基づき、表示タブレットの原稿画像表示部に表示された原稿画像の対応する位置にカーソルを表示させる。   In the image input / output system described in Patent Literature 1, when position information indicating a specific location on a document image is input on the presentation side using the position information input unit of the display tablet of the own device, the position information is transmitted via the transmission unit. The partner apparatus displays a cursor at the corresponding position of the document image displayed on the document image display unit of the display tablet based on the position information sent to the partner apparatus.

特許文献2記載の情報入力装置は、ポインタの位置を認識するカメラ装置とディスプレイ装置とが、それぞれ異なる偏光を通過させる偏光フィルタを有し、カメラパラメータなどを相手側に伝送することで、情報を表示した画面に、通信相手の映像を一致するように表示する。   In the information input device described in Patent Document 2, the camera device that recognizes the position of the pointer and the display device each have a polarization filter that transmits different polarized light, and transmits information by transmitting camera parameters and the like to the other side. Display the other party's video to match the displayed screen.

特開平8−9075号公報JP-A-8-9075 特開2005−117285号公報JP 2005-117285 A

特許文献1記載の発明では、原稿画像の特定位置を指定することができるが、プレゼンテーション側が自らの原稿の位置を指定できることに留まっており、プレゼンテーションを受ける側からは何ら指定することができない。特許文献2記載の発明では、指定位置を相手側に伝えるために伝送すべきデータ量が多く、さらにカメラ装置とディスプレイ装置とで異なる偏光フィルタの貼り付けを行う必要があるなどハードウェア構成を追加する必要がある。   In the invention described in Patent Document 1, a specific position of a document image can be specified, but the presentation side can only specify the position of its own document and cannot be specified from the side receiving the presentation. In the invention described in Patent Document 2, the amount of data to be transmitted is large in order to transmit the designated position to the other party, and a hardware configuration is added such that it is necessary to attach different polarization filters between the camera device and the display device. There is a need to.

本発明の目的は、簡単な構成で、相手側に対象物を明確に把握させることができる画像通信システムおよび画像通信方法を提供することである。   An object of the present invention is to provide an image communication system and an image communication method that allow a partner to clearly grasp an object with a simple configuration.

本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムにおいて、
前記第1画像通信装置は、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定手段と、
前記映像位置指定手段にて指定された範囲に表示されている映像を副映像として抽出する映像抽出手段と、
前記映像抽出手段にて抽出した副映像を前記第2画像通信装置に送信する送信手段とを備え、
前記第2画像通信装置は、
第2主映像を撮像する第2撮像手段と、
前記第1画像通信装置から送られてくる副映像を受信する受信手段と、
前記受信手段にて受信した副映像を表示する表示手段とを備えることを特徴とする画像通信システムである。
The present invention provides an image communication system in which both the first and second image communication devices transmit and receive a captured video to display the received video on each other's screen.
The first image communication device includes:
Video position designating means for designating an arbitrary range of the second main video sent from the second image communication device;
Video extraction means for extracting the video displayed in the range designated by the video position designation means as a sub-video;
Transmission means for transmitting the sub-picture extracted by the video extraction means to the second image communication device,
The second image communication device includes:
A second imaging means for imaging the second main video;
Receiving means for receiving a sub-picture sent from the first image communication device;
An image communication system comprising: display means for displaying the sub-picture received by the receiving means.

また本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムにおいて、
前記第1画像通信装置は、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定手段と、
前記映像位置指定手段にて指定した範囲を示す範囲情報を前記第2画像通信装置に送信する送信手段を備え、
前記第2画像通信装置は、
第2主映像を撮像する第2撮像手段と、
前記第1画像通信装置から送られてくる範囲情報を受信する受信手段と、
第1画像通信装置に送信した第2主映像から、前記受信手段にて受信した範囲情報に基づいて、副映像を抽出する抽出手段と、
前記抽出手段にて抽出した副映像を表示する表示手段とを備えることを特徴とする画像通信システムである。
Further, the present invention provides an image communication system for displaying received images on each other's screen by transmitting and receiving the captured images by both the first and second image communication apparatuses.
The first image communication device includes:
Video position designating means for designating an arbitrary range of the second main video sent from the second image communication device;
Transmission means for transmitting range information indicating the range designated by the video position designation means to the second image communication device;
The second image communication device includes:
A second imaging means for imaging the second main video;
Receiving means for receiving range information sent from the first image communication device;
Extracting means for extracting a sub-video from the second main video transmitted to the first image communication device based on the range information received by the receiving means;
An image communication system comprising display means for displaying the sub-picture extracted by the extraction means.

また本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムにおいて、
前記第1画像通信装置は、
第1主映像を撮像する第1撮像手段と、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定手段と、
前記映像位置指定手段にて指定された範囲に表示されている映像を副映像として抽出する映像抽出手段と、
前記第1撮像手段で撮像した第1主映像と前記映像抽出手段にて抽出した副映像と合成して合成画像を生成する合成手段と、
前記合成手段にて合成された合成画像を前記第2画像通信装置に送信する送信手段とを備え、
前記第2画像通信装置は、
第2主映像を撮像する第2撮像手段と、
前記第1画像通信装置から送られてくる前記合成画像を受信する受信手段と、
前記受信手段にて受信した前記合成画像を表示する表示手段とを備えることを特徴とする画像通信システムである。
Further, the present invention provides an image communication system for displaying received images on each other's screen by transmitting and receiving the captured images by both the first and second image communication apparatuses.
The first image communication device includes:
First imaging means for imaging a first main video;
Video position designating means for designating an arbitrary range of the second main video sent from the second image communication device;
Video extraction means for extracting the video displayed in the range designated by the video position designation means as a sub-video;
Synthesizing means for generating a synthesized image by synthesizing the first main video imaged by the first imaging means and the sub-video extracted by the video extracting means;
Transmission means for transmitting the synthesized image synthesized by the synthesizing means to the second image communication device,
The second image communication device includes:
A second imaging means for imaging the second main video;
Receiving means for receiving the composite image sent from the first image communication device;
An image communication system comprising: display means for displaying the composite image received by the receiving means.

また本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信方法において、
前記第1画像通信装置では、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定工程と、
指定された範囲に表示されている映像を副映像として抽出する映像抽出工程と、
抽出した副映像を前記第2画像通信装置に送信する送信工程とを実行し、
前記第2画像通信装置では、
前記第1画像通信装置から送られてくる副映像を受信する受信工程と、
受信した副映像を表示する表示工程とを実行することを特徴とする画像通信方法である。
Further, the present invention provides an image communication method for displaying received images on each other's screen by both the first and second image communication devices transmitting and receiving captured images.
In the first image communication device,
A video position designating step of designating an arbitrary range of the second main video sent from the second image communication device;
A video extraction process for extracting video displayed in a specified range as a sub-video;
Transmitting the extracted sub-video to the second image communication device;
In the second image communication device,
A receiving step of receiving a sub-picture sent from the first image communication device;
And a display step of displaying the received sub-video.

また本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信方法において、
前記第1画像通信装置では、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定工程と、
指定した範囲を示す範囲情報を前記第2画像通信装置に送信する送信工程を実行し、
前記第2画像通信装置では、
前記第1画像通信装置から送られてくる範囲情報を受信する受信工程と、
第1画像通信装置に送信した第2主映像から、受信した範囲情報に基づいて、副映像を抽出する抽出工程と、
抽出した副映像を表示する表示工程とを実行することを特徴とする画像通信方法である。
Further, the present invention provides an image communication method for displaying received images on each other's screen by both the first and second image communication devices transmitting and receiving captured images.
In the first image communication device,
A video position designating step of designating an arbitrary range of the second main video sent from the second image communication device;
Performing a transmission step of transmitting range information indicating the specified range to the second image communication device;
In the second image communication device,
A receiving step of receiving range information sent from the first image communication device;
An extraction step of extracting a sub-video from the second main video transmitted to the first image communication device based on the received range information;
And a display step of displaying the extracted sub-video.

また本発明は、撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信方法において、
前記第1画像通信装置では、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定工程と、
指定された範囲に表示されている映像を副映像として抽出する映像抽出工程と、
撮像した第1主映像と抽出した副映像と合成して合成画像を生成する合成工程と、
合成された合成画像を前記第2画像通信装置に送信する送信工程とを実行し、
前記第2画像通信装置では、
前記第1画像通信装置から送られてくる前記合成画像を受信する受信工程と、
受信した前記合成画像を表示する表示工程とを実行することを特徴とする画像通信方法である。
Further, the present invention provides an image communication method for displaying received images on each other's screen by both the first and second image communication devices transmitting and receiving captured images.
In the first image communication device,
A video position designating step of designating an arbitrary range of the second main video sent from the second image communication device;
A video extraction process for extracting video displayed in a specified range as a sub-video;
A synthesis step of generating a composite image by combining the captured first main video and the extracted sub-video;
Transmitting the synthesized image to the second image communication device, and
In the second image communication device,
A receiving step of receiving the composite image sent from the first image communication device;
And a display step of displaying the received composite image.

本発明によれば、前記第1画像通信装置では、映像位置指定手段が、第2画像通信装置から送られてきた第2主映像の任意の範囲を指定すると、映像抽出手段が、前記映像位置指定手段にて指定された範囲に表示されている映像を副映像として抽出する。送信手段は、前記映像抽出手段にて抽出した副映像を前記第2画像通信装置に送信する。   According to the present invention, in the first image communication apparatus, when the video position specifying means specifies an arbitrary range of the second main video sent from the second image communication apparatus, the video extracting means The video displayed in the range specified by the specifying means is extracted as a sub-video. The transmission unit transmits the sub-video extracted by the video extraction unit to the second image communication apparatus.

前記第2画像通信装置では、受信手段が、前記第1画像通信装置から送られてくる副映像を受信すると、表示手段が、前記受信手段にて受信した副映像を表示する。   In the second image communication device, when the receiving unit receives the sub-video transmitted from the first image communication device, the display unit displays the sub-video received by the receiving unit.

第1画像通信装置の操作者は、相手側に知らせたい対象物が表示されている範囲を指定するだけでよく、第1画像通信装置の操作者は、表示された副映像を見るだけでよい。   The operator of the first image communication apparatus only needs to specify the range in which the object to be notified to the other party is displayed, and the operator of the first image communication apparatus only needs to see the displayed sub-video. .

したがって、簡単な構成で、相手側に対象物を明確に把握させることができる。
また本発明によれば、前記第1画像通信装置では、映像位置指定手段が、第2画像通信装置から送られてきた第2主映像の任意の範囲を指定すると、送信手段が、第1撮像手段で撮像した第1主映像および前記映像位置指定手段にて指定した範囲を示す範囲情報を前記第2画像通信装置に送信する。
Therefore, the object can be clearly grasped by the other party with a simple configuration.
According to the present invention, in the first image communication apparatus, when the video position specifying unit specifies an arbitrary range of the second main video transmitted from the second image communication apparatus, the transmission unit performs the first imaging. The first main video imaged by the means and range information indicating the range designated by the video position designation means are transmitted to the second image communication device.

前記第2画像通信装置は、受信手段が、前記第1画像通信装置から送られてくる第1主映像および範囲情報を受信すると、抽出手段が、第1画像通信装置に送信した第2主映像から、前記受信手段にて受信した範囲情報に基づいて、副映像を抽出し、表示手段が、前記受信手段にて受信した前記抽出手段にて抽出した副映像を表示する。   In the second image communication device, when the receiving unit receives the first main video and the range information transmitted from the first image communication device, the second main video transmitted from the extraction unit to the first image communication device. Then, the sub-picture is extracted based on the range information received by the receiving means, and the display means displays the sub-picture extracted by the extracting means received by the receiving means.

第1画像通信装置の操作者は、相手側に知らせたい対象物が表示されている範囲を指定するだけでよく、第1画像通信装置の操作者は、表示された副映像を見るだけでよい。   The operator of the first image communication apparatus only needs to specify the range in which the object to be notified to the other party is displayed, and the operator of the first image communication apparatus only needs to see the displayed sub-video. .

したがって、簡単な構成で、相手側に対象物を明確に把握させることができる。さらに、画像データそのものではなく範囲情報、たとえば座標などを送信すればよいので、送信するデータ量も少なくて済む。   Therefore, the object can be clearly grasped by the other party with a simple configuration. Furthermore, since it is only necessary to transmit range information such as coordinates instead of the image data itself, the amount of data to be transmitted can be reduced.

また本発明によれば、前記第1画像通信装置では、映像位置指定手段が、第2画像通信装置から送られてきた第2主映像の任意の範囲を指定すると、映像抽出手段が、前記映像位置指定手段にて指定された範囲に表示されている映像を副映像として抽出する。合成手段は、第1撮像手段で撮像した第1主映像と前記映像抽出手段にて抽出した副映像と合成して合成画像を生成し、送信手段が、前記合成手段にて合成された合成画像を前記第2画像通信装置に送信する。   According to the present invention, in the first image communication device, when the video position specifying means specifies an arbitrary range of the second main video sent from the second image communication device, the video extracting means The video displayed in the range specified by the position specifying means is extracted as a sub video. The synthesizing unit generates a synthesized image by synthesizing the first main video imaged by the first imaging unit and the sub-video extracted by the video extracting unit, and the transmitting unit synthesized the synthesized image synthesized by the synthesizing unit. Is transmitted to the second image communication apparatus.

前記第2画像通信装置では、受信手段が、前記第1画像通信装置から送られてくる前記合成画像を受信すると、表示手段が、前記受信手段にて受信した前記合成画像を表示する。   In the second image communication device, when the reception unit receives the composite image sent from the first image communication device, the display unit displays the composite image received by the reception unit.

第1画像通信装置の操作者は、相手側に知らせたい対象物が表示されている範囲を指定するだけでよく、第1画像通信装置の操作者は、表示された副映像を見るだけでよい。   The operator of the first image communication apparatus only needs to specify the range in which the object to be notified to the other party is displayed, and the operator of the first image communication apparatus only needs to see the displayed sub-video. .

したがって、簡単な構成で、相手側に対象物を明確に把握させることができる。さらに、第2画像通信装置は、受信した画像を表示するだけでよいので、より簡単な構成、たとえば従来の画像通信装置であっても副映像を表示させることができる。   Therefore, the object can be clearly grasped by the other party with a simple configuration. Furthermore, since the second image communication device only needs to display the received image, even a simpler configuration, such as a conventional image communication device, can display the sub-picture.

また本発明によれば、前記第1画像通信装置では、映像位置指定工程で、第2画像通信装置から送られてきた第2主映像の任意の範囲を指定すると、映像抽出工程では、前記映像位置指定工程にて指定された範囲に表示されている映像を副映像として抽出する。送信工程では、予め撮像された第1主映像および前記映像抽出工程にて抽出した副映像を前記第2画像通信装置に送信する。   According to the invention, in the first image communication device, when an arbitrary range of the second main video sent from the second image communication device is designated in the video position designation step, the video extraction step The video displayed in the range specified in the position specifying step is extracted as a sub video. In the transmission step, the first main video imaged in advance and the sub-video extracted in the video extraction step are transmitted to the second image communication device.

前記第2画像通信装置では、受信工程で、前記第1画像通信装置から送られてくる副映像を受信すると、表示工程で、前記受信工程にて受信した副映像を表示する。   In the second image communication apparatus, when the sub-picture sent from the first image communication apparatus is received in the reception process, the sub-picture received in the reception process is displayed in the display process.

第1画像通信装置の操作者は、相手側に知らせたい対象物が表示されている範囲を指定するだけでよく、第1画像通信装置の操作者は、表示された副映像を見るだけでよい。   The operator of the first image communication apparatus only needs to specify the range in which the object to be notified to the other party is displayed, and the operator of the first image communication apparatus only needs to see the displayed sub-video. .

したがって、簡単な構成で、相手側に対象物を明確に把握させることができる。
また本発明によれば、前記第1画像通信装置では、映像位置指定工程で、第2画像通信装置から送られてきた第2主映像の任意の範囲を指定すると、送信工程で、予め撮像された第1主映像および前記映像位置指定工程にて指定した範囲を示す範囲情報を前記第2画像通信装置に送信する。
Therefore, the object can be clearly grasped by the other party with a simple configuration.
According to the invention, in the first image communication device, when an arbitrary range of the second main video sent from the second image communication device is designated in the video position designation step, the first image communication device captures an image in advance in the transmission step. The first main video and range information indicating the range specified in the video position specifying step are transmitted to the second image communication device.

前記第2画像通信装置では、受信工程で、前記第1画像通信装置から送られてくる第1主映像および範囲情報を受信すると、抽出工程で、第1画像通信装置に送信した第2主映像から、前記受信工程にて受信した範囲情報に基づいて、副映像を抽出し、表示工程で、前記受信工程にて受信した第1主映像および前記抽出工程にて抽出した副映像を表示する。   In the second image communication device, when receiving the first main video and the range information sent from the first image communication device in the reception step, the second main video transmitted to the first image communication device in the extraction step Then, the sub video is extracted based on the range information received in the reception step, and the first main video received in the reception step and the sub video extracted in the extraction step are displayed in the display step.

第1画像通信装置の操作者は、相手側に知らせたい対象物が表示されている範囲を指定するだけでよく、第1画像通信装置の操作者は、表示された副映像を見るだけでよい。   The operator of the first image communication apparatus only needs to specify the range in which the object to be notified to the other party is displayed, and the operator of the first image communication apparatus only needs to see the displayed sub-video. .

したがって、簡単な構成で、相手側に対象物を明確に把握させることができる。さらに、画像データそのものではなく範囲情報、たとえば座標などを送信すればよいので、送信するデータ量も少なくて済む。   Therefore, the object can be clearly grasped by the other party with a simple configuration. Furthermore, since it is only necessary to transmit range information such as coordinates instead of the image data itself, the amount of data to be transmitted can be reduced.

また本発明によれば、前記第1画像通信装置では、映像位置指定工程で、第2画像通信装置から送られてきた第2主映像の任意の範囲を指定すると、映像抽出工程で、前記映像位置指定工程にて指定された範囲に表示されている映像を副映像として抽出する。合成工程では、予め撮像された第1主映像と前記映像抽出工程にて抽出した副映像と合成して合成画像を生成し、送信工程で、前記合成工程にて合成された合成画像を前記第2画像通信装置に送信する。   According to the invention, in the first image communication device, when an arbitrary range of the second main video sent from the second image communication device is designated in the video position designation step, the video extraction step The video displayed in the range specified in the position specifying step is extracted as a sub video. In the synthesizing step, a synthesized image is generated by synthesizing the first main video imaged in advance with the sub-video extracted in the video extracting step, and the synthesized image synthesized in the synthesizing step is generated in the transmitting step. Transmit to the two-image communication device.

前記第2画像通信装置では、受信工程で、前記第1画像通信装置から送られてくる前記合成画像を受信すると、表示工程で、前記受信工程にて受信した前記合成画像を表示する。   In the second image communication device, when the composite image sent from the first image communication device is received in the reception step, the composite image received in the reception step is displayed in the display step.

第1画像通信装置の操作者は、相手側に知らせたい対象物が表示されている範囲を指定するだけでよく、第1画像通信装置の操作者は、表示された副映像を見るだけでよい。   The operator of the first image communication apparatus only needs to specify the range in which the object to be notified to the other party is displayed, and the operator of the first image communication apparatus only needs to see the displayed sub-video. .

したがって、簡単な構成で、相手側に対象物を明確に把握させることができる。さらに、第2画像通信装置は、受信した画像を表示するだけでよいので、より簡単な構成、たとえば従来の画像通信装置であっても副映像を表示させることができる。   Therefore, the object can be clearly grasped by the other party with a simple configuration. Furthermore, since the second image communication device only needs to display the received image, even a simpler configuration, such as a conventional image communication device, can display the sub-picture.

図1は、本発明の実施の一形態である画像通信システム1の概略を示す模式図である。
本発明の画像通信システム1は、2つの画像通信装置、第1画像通信装置100と第2画像通信装置200とで構成され、第1画像通信装置100のカメラ101で撮像された映像が画像通信によって第2画像通信装置200に送信され、第2画像通信装置の第2ディスプレイ202では、受信した画像を表示する。これと並行して第2画像通信装置200のカメラ201で撮像された映像が画像通信によって第1画像通信装置100に送信され、第1画像通信装置の第1ディスプレイ102では、受信した画像を表示する。
FIG. 1 is a schematic diagram showing an outline of an image communication system 1 according to an embodiment of the present invention.
The image communication system 1 of the present invention includes two image communication apparatuses, a first image communication apparatus 100 and a second image communication apparatus 200, and images captured by the camera 101 of the first image communication apparatus 100 are image communication. Is transmitted to the second image communication apparatus 200, and the received image is displayed on the second display 202 of the second image communication apparatus. In parallel with this, the video imaged by the camera 201 of the second image communication device 200 is transmitted to the first image communication device 100 by image communication, and the received image is displayed on the first display 102 of the first image communication device. To do.

さらに、第1画像通信装置100は、第1タッチパネル103を第1ディスプレイ102に重ねて設け、第1ディスプレイ102に表示されている画像に対して、特定の領域を指定することが可能となっている。具体的には、第2カメラ201により撮影された画像の中で、第1画像通信装置100の操作者が対象物300を指定したいとする。   Further, the first image communication apparatus 100 is provided with the first touch panel 103 overlaid on the first display 102, and can designate a specific area for the image displayed on the first display 102. Yes. Specifically, it is assumed that the operator of the first image communication apparatus 100 wants to specify the object 300 in the image captured by the second camera 201.

第1画像通信装置100の操作者は、第1ディスプレイ102に第2画像通信装置200から送信されてきた画像が表示されている状態で、タッチペン104により、第1タッチパネル103を介して対象物330が表示されている指定領域105を入力すると、入力された指定領域105に表示されていた対象物300の部分の画像についての情報が、第2画像通信装置200へと送信される。   The operator of the first image communication apparatus 100 is the object 330 via the first touch panel 103 with the touch pen 104 while the image transmitted from the second image communication apparatus 200 is displayed on the first display 102. Is input to the second image communication apparatus 200, the information about the image of the portion of the object 300 displayed in the input specified area 105 is input.

第2画像通信装置200では、受信した情報に基づいて、指定領域105内に表示されていた画像を、自機の第2ディスプレイ202に表示する。このとき、第1画像通信装置100から送られてくる撮影画像と、対象物300が表示されている画像とは、第2ディスプレイ202に重畳されて表示される。   The second image communication apparatus 200 displays the image displayed in the designated area 105 on the second display 202 of its own device based on the received information. At this time, the captured image sent from the first image communication apparatus 100 and the image on which the object 300 is displayed are displayed superimposed on the second display 202.

第2画像通信装置200の操作者は、第2ディスプレイ202に表示された画像を見ることで、第1画像通信装置100の操作者が指定する対象物300を明確に、かつ迅速に把握することができる。   The operator of the second image communication apparatus 200 can clearly and quickly grasp the object 300 designated by the operator of the first image communication apparatus 100 by looking at the image displayed on the second display 202. Can do.

指定領域105の中の一部をさらに指定するために、第1タッチパネル103を介して指定領域内の指定部分をポインタ(カーソル、矢印など)で指定すると、その指定部分の情報が第2画像通信装置200に送信され、第2画像通信装置200では、指定領域内の画像に指定部分のポインタを加えて表示する。   In order to further designate a part of the designated area 105, if a designated part in the designated area is designated with a pointer (cursor, arrow, etc.) via the first touch panel 103, the information of the designated part is transferred to the second image communication. The image is transmitted to the apparatus 200, and the second image communication apparatus 200 adds the pointer of the designated portion to the image in the designated area and displays it.

また、第1ディスプレイ102に表示されている対象物300が小さい場合や、指定部分を明確にしたい場合などには、指定領域105の画像を拡大するように指示を入力すると、拡大指示が第2画像通信装置200へと送信され、第2画像通信装置200では、第2ディスプレイ202に、指定領域105の画像が拡大されて表示される。   In addition, when the object 300 displayed on the first display 102 is small or when it is desired to clarify the designated portion, the instruction for enlarging the image in the designated area 105 is input, and the enlargement instruction is then displayed. The image is transmitted to the image communication apparatus 200, and the image of the designated area 105 is enlarged and displayed on the second display 202 in the second image communication apparatus 200.

なお、第2画像通信装置200にも、第2タッチパネル203が備えられており、第1画像通信装置100と同様に、指定領域の入力などを行える。すなわち、第1画像通信装置100と第2画像通信装置200とは同一の構成を有しており、指定領域を入力する側の装置が、第1画像通信装置100であっても第2画像通信装置200であってもよい。   Note that the second image communication apparatus 200 is also provided with a second touch panel 203, and a designated area can be input as in the first image communication apparatus 100. That is, the first image communication device 100 and the second image communication device 200 have the same configuration, and even if the device on the input side of the designated area is the first image communication device 100, the second image communication device The apparatus 200 may be used.

図2は、画像通信システム1の構成を示すブロック図である。
本実施形態では、画像通信システム1は、2つの画像通信装置、第1画像通信装置100と第2画像通信装置200とで構成される。
FIG. 2 is a block diagram illustrating a configuration of the image communication system 1.
In the present embodiment, the image communication system 1 includes two image communication devices, a first image communication device 100 and a second image communication device 200.

第1画像通信装置(以下では「第1装置」と略称する)100は、第1撮像部10、第1画像処理部11とで構成され、第1画像処理部11は、さらに第1映像処理部12、第1通信部13、第1記憶部14、第1ポインタ制御部15、第1座標検出部16、第1表示部17、第1タブレット18を含んで構成される。   A first image communication device (hereinafter abbreviated as “first device”) 100 includes a first imaging unit 10 and a first image processing unit 11, and the first image processing unit 11 further includes first video processing. Unit 12, first communication unit 13, first storage unit 14, first pointer control unit 15, first coordinate detection unit 16, first display unit 17, and first tablet 18.

また、第1映像処理部12は、共有映像生成部12a、画像拡大処理部12b、PIP処理部12c、映像合成部12dを含む。   The first video processing unit 12 includes a shared video generation unit 12a, an image enlargement processing unit 12b, a PIP processing unit 12c, and a video composition unit 12d.

第2画像通信装置(以下では「第2装置」と略称する)200は、第2撮像部20、第2画像処理部21とで構成され、第2画像処理部21は、さらに第2映像処理部22、第2通信部23、第2記憶部24、第2ポインタ制御部25、第2座標検出部26、第2表示部27、第2タブレット28を含んで構成される。   A second image communication device (hereinafter abbreviated as “second device”) 200 includes a second imaging unit 20 and a second image processing unit 21, and the second image processing unit 21 further includes second video processing. Unit 22, second communication unit 23, second storage unit 24, second pointer control unit 25, second coordinate detection unit 26, second display unit 27, and second tablet 28.

また、第2映像処理部22は、共有映像生成部22a、画像拡大処理部22b、PIP処理部22c、映像合成部22dを含む。   The second video processing unit 22 includes a shared video generation unit 22a, an image enlargement processing unit 22b, a PIP processing unit 22c, and a video composition unit 22d.

上記のように、第1装置100と第2装置200とは、同一の構成であるので、以下では、第1装置100の構成について説明する。また、図1に示したように、指定領域105を指定する側が第1装置100であり、指定された画像を表示する側が第2装置200であるものとする。   Since the first device 100 and the second device 200 have the same configuration as described above, the configuration of the first device 100 will be described below. Also, as shown in FIG. 1, the side that designates the designated area 105 is the first device 100, and the side that displays the designated image is the second device 200.

第1撮像部10は、たとえば、たとえば、CCD(電荷結合素子)カメラなどで実現され、被写体からの反射光を受光し、その受光量をアナログ映像信号として出力する第1カメラ101である。   The first imaging unit 10 is realized by, for example, a CCD (Charge Coupled Device) camera, for example, and is a first camera 101 that receives reflected light from a subject and outputs the received light amount as an analog video signal.

第1画像処理部11は、第1撮像部10から出力される映像信号をデジタル映像データに変換し、必要な画像処理を施して、第2装置200へと送信する。また、第1タブレット18で入力された指定領域内の画像についても必要な画像処理を施して、第2装置200へと送信する。   The first image processing unit 11 converts the video signal output from the first imaging unit 10 into digital video data, performs necessary image processing, and transmits the digital image data to the second device 200. In addition, necessary image processing is also performed on the image in the designated area input by the first tablet 18 and transmitted to the second device 200.

共有映像生成部12aは、副映像である共有映像に関する情報として共有映像座標情報30を取得して記憶する。共有映像とは、図1で示したように、指定領域105を入力したときに、指定領域105内に表示されている画像のことで、第2装置200で撮像されて送られてくる画像(主映像)の一部を切り出したものに相当する。   The shared video generation unit 12a acquires and stores the shared video coordinate information 30 as information related to the shared video that is the sub-video. As shown in FIG. 1, the shared video is an image displayed in the designated area 105 when the designated area 105 is input, and is an image captured and sent by the second device 200 ( This corresponds to a part of the main video).

画像拡大処理部12bは、共有映像または主映像の拡大処理を行い、入力された拡大サイズ(拡大倍率、拡大後の寸法など)31を記憶しておく。   The image enlargement processing unit 12b performs enlargement processing of the shared video or the main video, and stores the inputted enlargement size (enlargement magnification, dimensions after enlargement, etc.) 31.

PIP処理部12cは、ピクチャインピクチャ(PIP)処理により、主映像に共有映像を重畳して表示させる。   The PIP processing unit 12c superimposes and displays the shared video on the main video by picture-in-picture (PIP) processing.

主映像に重畳させて表示させる共有映像いついては、指定領域を指定する側の装置と指定された共有映像を受信する側の装置では異なっている。   The shared video to be displayed superimposed on the main video is different between the device that designates the designated area and the device that receives the designated shared video.

指定領域105を指定する側の第1装置100では、第2装置200から受信した画像データに基づく主映像と、自装置で指定された指定領域105内の共有映像を重畳して第1表示部17に表示する。   In the first device 100 that designates the designated area 105, the first display unit superimposes the main video based on the image data received from the second device 200 and the shared video in the designated area 105 designated by the own device. 17 is displayed.

指定された共有映像を受信する側の第2装置200では、第1装置100から受信した画像データに基づく主映像と、第1装置100で指定された指定領域105内の共有映像を重畳して第2表示部27に表示する。   In the second device 200 that receives the designated shared video, the main video based on the image data received from the first device 100 and the shared video in the designated area 105 designated by the first device 100 are superimposed. Displayed on the second display unit 27.

PIP処理部12cは、PIP処理、すなわち指定領域を入力して共有映像を表示するか、指定された共有映像を表示するかいずれにしても共有映像の表示を行うかどうかを示すPIP ON/OFF情報を記憶する。共有映像を第1表示部17に表示するときはPIP ONであり、表示しないときはPIP OFFである。PIP位置情報33およびPIPサイズ情報34は、PIP表示を行うときに、共有映像を第1表示部17に表示させる位置座標と、そのサイズを示す情報である。これらの情報は、装置の操作者が任意に変更できるように、第1タブレット18から変更値が入力可能で、入力されると記憶しているそれぞれの情報を更新するように構成される。また、変更されない場合には、予め与えられる初期値に基づいてPIP処理を行う。   The PIP processing unit 12c performs PIP processing, that is, PIP ON / OFF indicating whether to display the shared video regardless of whether the specified region is input and the shared video is displayed or the specified shared video is displayed. Store information. When the shared video is displayed on the first display unit 17, PIP is ON, and when not displayed, the PIP is OFF. The PIP position information 33 and the PIP size information 34 are information indicating the position coordinates at which the shared video is displayed on the first display unit 17 and the size thereof when performing PIP display. These pieces of information are configured so that change values can be input from the first tablet 18 so that the operator of the apparatus can arbitrarily change the information, and the stored information is updated when the information is input. If not changed, PIP processing is performed based on an initial value given in advance.

映像合成部12dは、PIP処理において、共有映像を主映像に重ね合わせるのではなく、主映像と共有映像とを合成して1つの画像データを作成し、合成後の画像データを第2装置200へ送信する。   In the PIP process, the video composition unit 12d does not superimpose the shared video on the main video, but creates one image data by synthesizing the main video and the shared video, and the synthesized image data is stored in the second device 200. Send to.

第1通信部13は、第2装置200と画像通信、電話通信およびデータ通信可能に構成されており、公衆電話通信網を介する通信、LAN(Local Area network)を介する通信などが可能で特に通信インフラには限定されない。   The first communication unit 13 is configured to be capable of image communication, telephone communication, and data communication with the second device 200, and can perform communication via a public telephone communication network, communication via a LAN (Local Area Network), and the like. It is not limited to infrastructure.

第1通信部13は、接続先情報35として接続先の通信装置、本実施形態では第2装置200の通信に関する情報、たとえば、電話番号、IPアドレス、使用する通信プロトコルなどを参照して第2装置200との通信を行う。   The first communication unit 13 refers to information related to communication of the connection destination communication device as the connection destination information 35, in this embodiment the second device 200, for example, a telephone number, an IP address, a communication protocol to be used, and the like. Communication with the apparatus 200 is performed.

第1記憶部14は、第2装置200から送られてきた主映像を記憶する主映像記憶部14aと、第1撮像部10で撮像し、第2装置200へと送信する映像および主映像の一部である指定領域内の共有映像を記憶する送信映像記憶部14bを有し、さらにPIP処理部12cがPIP処理を行う際に主映像に重畳するための映像であるPIP映像36も記憶される。   The first storage unit 14 is a main video storage unit 14 a that stores the main video transmitted from the second device 200, and the video and main video that are captured by the first imaging unit 10 and transmitted to the second device 200. A PIP video 36 that is a video to be superimposed on the main video when the PIP processing unit 12c performs PIP processing is also stored. The

第1ポインタ制御部15は、第1タブレット18により入力されたポインタの位置を制御する。第1座標検出部16は、第1タブレット18により入力された座標を検出し、必要に応じて検出した座標情報を第1ポインタ制御部15および第1映像処理部12に受け渡す。第1表示部17は、第2装置200から送られてきた主映像および指定領域内の共有映像を主に表示する第1ディスプレイ102である。   The first pointer control unit 15 controls the position of the pointer input by the first tablet 18. The first coordinate detection unit 16 detects the coordinates input by the first tablet 18, and passes the detected coordinate information to the first pointer control unit 15 and the first video processing unit 12 as necessary. The first display unit 17 is the first display 102 that mainly displays the main video sent from the second device 200 and the shared video in the designated area.

第1タブレット18は、第1タッチパネル103とペン104などの入力デバイスで構成され、操作者がペン104を用いて、第1タッチパネル103が重ねて設けられた第1ディスプレイ102の上をなぞることで該当箇所の座標が入力されるので、直感的な操作が可能となる。   The first tablet 18 is composed of an input device such as a first touch panel 103 and a pen 104, and an operator uses the pen 104 to trace over the first display 102 provided with the first touch panel 103 overlaid. Since the coordinates of the corresponding part are input, an intuitive operation is possible.

以下では、フローチャートを用いて画像通信システム1による画像通信処理について詳細に説明する。   Below, the image communication process by the image communication system 1 is demonstrated in detail using a flowchart.

第2装置200において共有映像を表示させるにあたっては、第1装置100から共有映像に関する情報を第2装置200へ送信し、第2装置200では、その関連情報に基づいて共有映像を第2表示部27に表示する。   When the shared video is displayed on the second device 200, information related to the shared video is transmitted from the first device 100 to the second device 200, and the second device 200 displays the shared video on the second display unit based on the related information. 27.

共有映像に関する情報については、指定領域105内の画像データを情報として送信する第1形態、指定領域の座標を情報として送信する第2形態、指定領域105内の共有映像と、第1撮像部で撮像した主映像とを合成し、合成映像を情報として送信する第3形態とがある。   As for information related to the shared video, the first mode in which image data in the designated area 105 is transmitted as information, the second mode in which the coordinates of the designated area are transmitted as information, the shared video in the designated area 105, and the first imaging unit. There is a third mode in which the captured main video is synthesized and the synthesized video is transmitted as information.

図3は、第1形態の画像通信処理を示すフローチャートである。図3A(a)は、共有映像を指定する側の第1装置100のフローを示し、図3B(b)は、指定された共有映像を表示する側の第2装置200のフローを示す。   FIG. 3 is a flowchart showing the image communication processing of the first form. FIG. 3A (a) shows the flow of the first device 100 on the side that designates the shared video, and FIG. 3B (b) shows the flow of the second device 200 on the side that displays the designated shared video.

第1装置100では、ステップA1で、第1通信部13が相手側通信装置である第2装置200から主映像となる画像データを受信し、ステップA2で第1表示部17に主映像を表示させる。   In the first device 100, in step A1, the first communication unit 13 receives image data serving as the main video from the second device 200, which is the counterpart communication device, and displays the main video on the first display unit 17 in step A2. Let

ステップA3では、第1タブレット18を介して指定領域105が入力されたかどうかを判断し、入力されればステップA4に進み、入力されなければステップA1に戻って主映像の受信と表示を繰り返す。   In step A3, it is determined whether or not the designated area 105 has been input via the first tablet 18. If input, the process proceeds to step A4. If not input, the process returns to step A1 to repeat reception and display of the main video.

ステップA4では、第1座標検出部16の検出結果に基づいて、入力された領域の座標を抽出し、共有映像生成部12aに記憶する。ステップA5では、記憶された共有映像座標情報30に基づいて、第2装置200から受信した主映像のうち、指定領域105に相当する部分の画像を共有映像とし、指定された領域部分の画像データを関連情報として記憶する。   In step A4, the coordinates of the input area are extracted based on the detection result of the first coordinate detector 16, and stored in the shared video generator 12a. In step A5, based on the stored shared video coordinate information 30, the image corresponding to the designated area 105 of the main video received from the second device 200 is used as the shared video, and the image data of the designated area portion is stored. Is stored as related information.

ステップA6では、主映像と重ねて表示したときに区別しやすいように共有映像に縁取りを行い、ステップA7で、表示サイズを読み込む。   In step A6, the shared video is trimmed so that it can be easily distinguished when displayed superimposed on the main video, and the display size is read in step A7.

ステップA8では、PIP処理部12cによって、第1表示部17に読み込まれた表示サイズおよび表示位置に共有画像をPIP表示させる。第1装置100では、操作者が自ら指定した共有映像を第1表示部17にPIP表示された画像を見て確認することができる。   In step A8, the shared image is PIP-displayed at the display size and display position read by the first display unit 17 by the PIP processing unit 12c. In the first device 100, the shared video that the operator has specified can be confirmed by looking at the image PIP-displayed on the first display unit 17.

ステップA9で、所定の入力手順により共有映像のサイズが変更されると、ステップA10で第2装置200へ送信する共有映像のサイズ情報34を更新する。また、ステップA11で、所定の入力手順により共有映像内にポインタが追加されると、ステップA12で、第2装置200へ送信する共有映像にポインタ画像を追加して送信映像記憶部14bに記憶する。   In step A9, when the size of the shared video is changed by a predetermined input procedure, the size information 34 of the shared video to be transmitted to the second device 200 is updated in step A10. In step A11, when a pointer is added to the shared video by a predetermined input procedure, in step A12, a pointer image is added to the shared video to be transmitted to the second device 200 and stored in the transmission video storage unit 14b. .

なお、サイズの変更はたとえば、第1タブレット18を介して現在表示されている共有映像の縁をドラッグ操作することにより変更できる。ポインタの追加も、第1タブレット18を介して現在表示されている共有映像のいずれかをポインティング操作することにより追加できる。   Note that the size can be changed by dragging the edge of the shared video currently displayed via the first tablet 18, for example. The addition of the pointer can also be performed by performing a pointing operation on any of the shared images currently displayed via the first tablet 18.

ステップA13では、共有映像を第2装置200の第2表示部27に表示させるために共有映像表示コマンドを第2装置200へ送信する。共有映像表示コマンドは、第2装置200において、PIP処理部22cを起動させて、送信した共有映像をPIP表示させるためのコマンドである。   In step A <b> 13, a shared video display command is transmitted to the second device 200 in order to display the shared video on the second display unit 27 of the second device 200. The shared video display command is a command for activating the PIP processing unit 22c in the second device 200 to display the transmitted shared video in PIP.

ステップA14では、送信映像記憶部14bに記憶された共有映像となる部分画像データを第2装置200へ送信する。   In step A14, the partial image data to be the shared video stored in the transmission video storage unit 14b is transmitted to the second device 200.

図示はしていないが、第1装置100は、第1撮像部10で主映像を撮影し、第2装置200へ送信している。主映像の送信のタイミングは、共有映像の送信ステップで同時に送信してもよいし、異なるステップで送信してもよい。   Although not shown, the first device 100 captures the main video with the first imaging unit 10 and transmits it to the second device 200. The transmission timing of the main video may be transmitted simultaneously in the shared video transmission step, or may be transmitted in different steps.

第2装置200では、ステップB1で、第2撮像部20が主映像を撮影し、ステップB2では、第1装置100へ主映像となる画像データを送信する。   In the second device 200, the second imaging unit 20 captures the main video in Step B1, and transmits the image data serving as the main video to the first device 100 in Step B2.

ステップB3で共有映像表示コマンドを受信したかどうかを判断し、受信していればステップB4に進み、受信していなければステップB1に戻って主映像の撮影と送信とを繰り返す。   In step B3, it is determined whether a shared video display command has been received. If it has been received, the process proceeds to step B4. If not received, the process returns to step B1 to repeat the shooting and transmission of the main video.

ステップB4では、共有映像となる部分画像データを受信し、ステップB5では、PIP処理部22が起動してステップB5で表示位置の読み込みとステップB6で表示サイズの読み込みを行う。   In step B4, partial image data to be shared video is received. In step B5, the PIP processing unit 22 is activated, and the display position is read in step B5 and the display size is read in step B6.

ステップB7では、PIP処理部22が、第1装置100から送られてくる主映像に共有映像を重ね合わせて、第2表示部27にPIP表示させる。ステップB8では、所定の入力手順により共有映像の表示位置が変更されると、ステップB9で表示されている共有映像の表示位置を変更する。   In step B <b> 7, the PIP processing unit 22 superimposes the shared video on the main video sent from the first device 100 and causes the second display unit 27 to perform PIP display. In step B8, when the display position of the shared video is changed by a predetermined input procedure, the display position of the shared video displayed in step B9 is changed.

ステップB10で所定の入力手順により共有映像のサイズが変更されると、ステップB11で表示されている共有映像のサイズを変更する。   When the size of the shared video is changed by a predetermined input procedure in step B10, the size of the shared video displayed in step B11 is changed.

なお、表示位置の変更は、たとえば、第2タブレット28を介して現在表示されている共有映像の縁以外の部分をドラッグ操作することにより変更できる。サイズの変更は、たとえば、第2タブレット28を介して現在表示されている共有映像の縁をドラッグ操作することにより変更できる。   The display position can be changed, for example, by dragging a portion other than the edge of the shared video currently displayed via the second tablet 28. The size can be changed by dragging the edge of the shared video currently displayed via the second tablet 28, for example.

ステップB12で、共有映像の表示を終了する指示が入力されると共有映像を消して処理を終了する。終了の指示が入力されなければステップB7に戻って表示を継続する。   In step B12, when an instruction to end the display of the shared video is input, the shared video is deleted and the process ends. If no end instruction is input, the process returns to step B7 to continue the display.

図4は、第2形態の画像通信処理を示すフローチャートである。図4A(a)は、共有映像を指定する側の第1装置100のフローを示し、図4B(b)は、指定された共有映像を表示する側の第2装置200のフローを示す。   FIG. 4 is a flowchart showing the image communication processing of the second form. 4A (a) shows the flow of the first device 100 on the side that specifies the shared video, and FIG. 4B (b) shows the flow of the second device 200 on the side that displays the specified shared video.

第1装置100では、ステップC1で、第1通信部13が相手側通信装置である第2装置200から主映像となる画像データを受信し、ステップC2で第1表示部17に主映像を表示させる。   In the first device 100, in step C1, the first communication unit 13 receives image data as a main video from the second device 200, which is the counterpart communication device, and displays the main video on the first display unit 17 in step C2. Let

ステップC3では、第1タブレット18を介して指定領域105が入力されたかどうかを判断し、入力されればステップC4に進み、入力されなければステップC1に戻って主映像の受信と表示を繰り返す。   In Step C3, it is determined whether or not the designated area 105 has been input via the first tablet 18, and if it is input, the process proceeds to Step C4, and if not input, the process returns to Step C1 to repeat the reception and display of the main video.

ステップC4では、第1座標検出部16の検出結果に基づいて、入力された領域の座標を抽出し、共有映像生成部12aに記憶する。ステップC5では、記憶された共有映像座標情報30に基づいて、第2装置200から受信した主映像のうち、指定領域105に相当する部分の画像を共有映像とし、指定領域の座標情報を第2装置200に送信する関連情報として記憶する。   In step C4, based on the detection result of the first coordinate detection unit 16, the coordinates of the input region are extracted and stored in the shared video generation unit 12a. In step C5, based on the stored shared video coordinate information 30, a portion of the main video received from the second device 200 corresponding to the designated area 105 is set as a shared video, and the coordinate information of the designated area is set to the second coordinate information. Stored as related information to be transmitted to the apparatus 200.

ステップC6では、主映像と重ねて表示したときに区別しやすいように共有映像に縁取りを行い、ステップC7で、表示サイズを読み込む。   In step C6, the shared video is trimmed so that it can be easily distinguished from the main video, and the display size is read in step C7.

ステップC8では、PIP処理部12cによって、第1表示部17に読み込まれた表示サイズおよび表示位置に共有画像をPIP表示させる。第1装置100では、操作者が自ら指定した共有映像を第1表示部17にPIP表示された画像を見て確認することができる。   In step C8, the PIP processing unit 12c causes the shared image to be PIP-displayed at the display size and display position read into the first display unit 17. In the first device 100, the shared video that the operator has specified can be confirmed by looking at the image PIP-displayed on the first display unit 17.

ステップC9で、所定の入力手順により共有映像のサイズが変更されると、ステップC10で第2装置200へ送信する共有映像のサイズ情報34を更新する。また、ステップC11で、所定の入力手順により共有映像内にポインタが追加されると、ステップC12で、第2装置200へ送信する共有映像にポインタ画像を追加して送信映像記憶部14bに記憶する。   In step C9, when the size of the shared video is changed by a predetermined input procedure, the size information 34 of the shared video to be transmitted to the second device 200 is updated in step C10. In step C11, when a pointer is added to the shared video by a predetermined input procedure, in step C12, a pointer image is added to the shared video to be transmitted to the second device 200 and stored in the transmission video storage unit 14b. .

ステップC13では、共有映像を第2装置200の第2表示部27に表示させるために共有映像表示コマンドを第2装置200へ送信する。共有映像表示コマンドは、第2装置200において、PIP処理部22cを起動させて、送信した共有映像の座標情報を基に、共有映像をPIP表示させるためのコマンドである。   In step C <b> 13, a shared video display command is transmitted to the second device 200 in order to display the shared video on the second display unit 27 of the second device 200. The shared video display command is a command for causing the PIP processing unit 22c to be activated in the second device 200 and causing the shared video to be PIP-displayed based on the coordinate information of the transmitted shared video.

ステップC14では、送信映像記憶部14bに記憶された共有映像となる指定領域を示す座標情報を第2装置200へ送信する。   In step C14, coordinate information indicating the designated area to be the shared video stored in the transmission video storage unit 14b is transmitted to the second device 200.

座標情報に続けてステップC15では、共有映像の表示サイズを示す情報を第2装置200へ送信し、ステップC16では、共有映像に追加されたポインタ位置を示す情報を第2装置200へ送信する。   Following the coordinate information, in step C15, information indicating the display size of the shared video is transmitted to the second device 200, and in step C16, information indicating the pointer position added to the shared video is transmitted to the second device 200.

図示はしていないが、第1装置100は、第1撮像部10で主映像を撮影し、第2装置200へ送信している。主映像の送信のタイミングは、共有映像の送信ステップで同時に送信してもよいし、異なるステップで送信してもよい。   Although not shown, the first device 100 captures the main video with the first imaging unit 10 and transmits it to the second device 200. The transmission timing of the main video may be transmitted simultaneously in the shared video transmission step, or may be transmitted in different steps.

第2装置200では、ステップD1で、第2撮像部20が主映像を撮影し、ステップD2では、第1装置100へ主映像となる画像データを送信する。   In the second device 200, the second imaging unit 20 captures the main video in Step D1, and transmits the image data serving as the main video to the first device 100 in Step D2.

ステップD3で共有映像表示コマンドを受信したかどうかを判断し、受信していればステップD4に進み、受信していなければステップD1に戻って主映像の撮影と送信とを繰り返す。   In step D3, it is determined whether or not a shared video display command has been received. If it has been received, the process proceeds to step D4. If not received, the process returns to step D1 to repeat the shooting and transmission of the main video.

ステップD4では、共有映像をとなる部分を示す座標情報を受信し、続いてステップD5では、共有映像の表示サイズ情報を受信し、ステップD6では、ポインタ位置を示す情報を受信する。   In step D4, coordinate information indicating a portion that becomes a shared video is received. Subsequently, in step D5, display size information of the shared video is received, and in step D6, information indicating a pointer position is received.

ステップD7では、第1表示部100へ送信した撮像映像に、座標情報を適用し、該当部分の画像を共有映像として抽出する。ステップD8では、受信した表示サイズに基づいて共有映像の表示サイズを変更する。   In step D7, coordinate information is applied to the captured video transmitted to the first display unit 100, and the image of the corresponding part is extracted as a shared video. In step D8, the display size of the shared video is changed based on the received display size.

ステップD9では、ポインタ表示追加情報を受信したかどうかを判断し、受信していればステップD10で共有映像にポインタを追加する。   In step D9, it is determined whether pointer display additional information has been received. If it has been received, a pointer is added to the shared video in step D10.

ステップD11では、PIP処理部22cが、第1装置100から送られてくる主映像に抽出された共有映像を重ね合わせて、第2表示部27にPIP表示する。ステップD12では、所定の入力手順により共有映像の表示位置が変更されると、ステップD13で表示されている共有映像の表示位置を変更する。   In step D <b> 11, the PIP processing unit 22 c superimposes the extracted shared video on the main video sent from the first device 100 and displays the PIP on the second display unit 27. In step D12, when the display position of the shared video is changed by a predetermined input procedure, the display position of the shared video displayed in step D13 is changed.

ステップD14で所定の入力手順により共有映像のサイズが変更されると、ステップD15で表示されている共有映像のサイズを変更する。   When the size of the shared video is changed by a predetermined input procedure in step D14, the size of the shared video displayed in step D15 is changed.

ステップD16で、共有映像の表示を終了する指示が入力されると共有映像を消して処理を終了する。終了の指示が入力されなければステップD11に戻って表示を継続する。   In step D16, when an instruction to end the display of the shared video is input, the shared video is deleted and the process ends. If no end instruction is input, the process returns to step D11 to continue the display.

図5は、第3形態の画像通信処理を示すフローチャートである。図5A(a)は、共有映像を指定する側の第1装置100のフローを示し、図5B(b)は、指定された共有映像を表示する側の第2装置200のフローを示す。   FIG. 5 is a flowchart showing image communication processing of the third form. FIG. 5A (a) shows the flow of the first device 100 on the side that specifies the shared video, and FIG. 5B (b) shows the flow of the second device 200 on the side that displays the specified shared video.

第1装置100では、ステップE1で、第1通信部13が相手側通信装置である第2装置200から主映像となる画像データを受信し、ステップE2で第1表示部17に主映像を表示させる。   In the first device 100, in step E1, the first communication unit 13 receives image data serving as a main video from the second device 200, which is the counterpart communication device, and displays the main video on the first display unit 17 in step E2. Let

ステップE3では、第1タブレット18を介して指定領域105が入力されたかどうかを判断し、入力されればステップE4に進み、入力されなければステップE1に戻って主映像の受信と表示を繰り返す。   In step E3, it is determined whether or not the designated area 105 has been input via the first tablet 18. If input, the process proceeds to step E4. If not input, the process returns to step E1 to repeat the reception and display of the main video.

ステップE4では、第1座標検出部16の検出結果に基づいて、入力された領域の座標を抽出し、共有映像生成部12aに記憶する。ステップE5では、記憶された共有映像座標情報30に基づいて、第2装置200から受信した主映像のうち、指定領域105に相当する部分の画像を共有映像とし、指定された領域部分の画像データを記憶する。   In step E4, based on the detection result of the first coordinate detector 16, the coordinates of the input area are extracted and stored in the shared video generator 12a. In step E5, based on the stored shared video coordinate information 30, a portion of the main video received from the second device 200 is taken as a shared video image corresponding to the designated area 105, and image data of the designated area portion is stored. Remember.

ステップE6では、主映像と重ねて表示したときに区別しやすいように共有映像に縁取りを行い、ステップE7で、表示サイズを読み込む。   In step E6, the shared video is trimmed so that it can be easily distinguished when displayed superimposed on the main video, and in step E7, the display size is read.

ステップE8では、PIP処理部12cによって、第1表示部17に読み込まれた表示サイズおよび表示位置に共有画像をPIP表示させる。第1装置100では、操作者が自ら指定した共有映像を第1表示部17にPIP表示された画像を見て確認することができる。   In step E8, the PIP processing unit 12c causes the shared image to be PIP-displayed at the display size and display position read into the first display unit 17. In the first device 100, the shared video that the operator has specified can be confirmed by looking at the image PIP-displayed on the first display unit 17.

ステップE9で、所定の入力手順により共有映像のサイズが変更されると、ステップE10で第2装置200へ送信する共有映像のサイズ情報34を更新する。また、ステップE11で、所定の入力手順により共有映像内にポインタが追加されると、ステップE12で、共有映像にポインタ画像を追加して送信映像記憶部14bに記憶する。   In step E9, when the size of the shared video is changed by a predetermined input procedure, the size information 34 of the shared video to be transmitted to the second device 200 is updated in step E10. In step E11, when a pointer is added to the shared video by a predetermined input procedure, a pointer image is added to the shared video and stored in the transmission video storage unit 14b in step E12.

ステップE13では、第1撮像部10が主映像を撮影し、ステップE14で、主映像となる画像データと共有映像となる部分画像データとを合成する。ステップE15では、合成画像データを関連情報として第2装置200へ送信する。   In step E13, the first imaging unit 10 captures the main video, and in step E14, the image data serving as the main video and the partial image data serving as the shared video are synthesized. In step E15, the composite image data is transmitted to the second device 200 as related information.

第1装置100による主映像の撮影について、本実施形態では、撮影していることが明確になるように、ステップE13として説明したが、撮影のタイミングはこれに限らず、ステップE14で共有映像と合成するまでに撮影しておけばよい。   In the present embodiment, the shooting of the main video by the first device 100 has been described as step E13 so that it is clear that the video is being shot. However, the shooting timing is not limited to this, and the shared video is recorded in step E14. Just take a picture before compositing.

第2装置200では、ステップF1で、第2撮像部20が主映像を撮影し、ステップF2では、第1装置100へ主映像となる画像データを送信する。   In the second device 200, the second imaging unit 20 captures the main video in step F1, and in step F2, the image data serving as the main video is transmitted to the first device 100.

ステップF3で第1装置100から主映像と共有映像が合成された合成映像となる合成画像データを受信し、ステップF4で合成画像を表示する。   In step F3, composite image data that is a composite video obtained by combining the main video and the shared video is received from the first apparatus 100, and the composite image is displayed in step F4.

以上のように、第1装置100側で領域を指定し、相手側の第2装置200に指定した領域の画像を表示させることで、第2装置200の操作者は第1装置1
00の操作者が対象としている物を容易にかつ明確に把握することができる。
As described above, by specifying the area on the first device 100 side and displaying the image of the specified area on the second device 200 on the other side, the operator of the second device 200 can display the first device 1.
The object targeted by the 00 operator can be easily and clearly grasped.

なお、上記の説明では、第1形態では、1度指定領域を指定すると該当する画像データを相手側に送信しているが、第1装置100において、共有映像の指定取り止めの指示が入力されるまでは、第2通信装置100から主映像が送られてくるたびに、共有映像となる画像データを生成して第2装置200に送り続けることも可能である。また、第2形態では、座標の変更や、共有映像の指定取り止めの指示が入力されるまでは、第2通信装置100において、共有映像となる画像データを生成して表示し続けることも可能である。   In the above description, in the first embodiment, once the designated area is designated, the corresponding image data is transmitted to the other party. However, in the first device 100, an instruction to cancel the designation of the shared video is input. Until this time, every time the main video is sent from the second communication device 100, it is also possible to generate image data to be a shared video and continue to send it to the second device 200. In the second mode, it is also possible to continue to generate and display image data to be shared video in the second communication device 100 until a coordinate change or an instruction to cancel the designation of shared video is input. is there.

本発明の実施の一形態である画像通信システム1の概略を示す模式図である。It is a schematic diagram which shows the outline of the image communication system 1 which is one Embodiment of this invention. 画像通信システム1の構成を示すブロック図である。1 is a block diagram showing a configuration of an image communication system 1. FIG. 第1形態の画像通信処理を示すフローチャートである。It is a flowchart which shows the image communication process of a 1st form. 第1形態の画像通信処理を示すフローチャートである。It is a flowchart which shows the image communication process of a 1st form. 第2形態の画像通信処理を示すフローチャートである。It is a flowchart which shows the image communication process of a 2nd form. 第2形態の画像通信処理を示すフローチャートである。It is a flowchart which shows the image communication process of a 2nd form. 第3形態の画像通信処理を示すフローチャートである。It is a flowchart which shows the image communication process of a 3rd form. 第3形態の画像通信処理を示すフローチャートである。It is a flowchart which shows the image communication process of a 3rd form.

符号の説明Explanation of symbols

1 画像通信システム
100 第1画像通信装置
101,201 カメラ
102 第1ディスプレイ
103 第1タッチパネル
104 ペン
105 指定領域
200 第2画像通信装置
202 第2ディスプレイ
203 第2タッチパネル
300 対象物
DESCRIPTION OF SYMBOLS 1 Image communication system 100 1st image communication apparatus 101,201 Camera 102 1st display 103 1st touch panel 104 Pen 105 Designated area 200 2nd image communication apparatus 202 2nd display 203 2nd touch panel 300 Target object

Claims (6)

撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムにおいて、
前記第1画像通信装置は、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定手段と、
前記映像位置指定手段にて指定された範囲に表示されている映像を副映像として抽出する映像抽出手段と、
前記映像抽出手段にて抽出した副映像を前記第2画像通信装置に送信する送信手段とを備え、
前記第2画像通信装置は、
第2主映像を撮像する第2撮像手段と、
前記第1画像通信装置から送られてくる副映像を受信する受信手段と、
前記受信手段にて受信した副映像を表示する表示手段とを備えることを特徴とする画像通信システム。
In the image communication system in which both the first and second image communication devices transmit and receive the captured video to display the received video on each other's screen,
The first image communication device includes:
Video position designating means for designating an arbitrary range of the second main video sent from the second image communication device;
Video extraction means for extracting the video displayed in the range designated by the video position designation means as a sub-video;
Transmission means for transmitting the sub-picture extracted by the video extraction means to the second image communication device,
The second image communication device includes:
A second imaging means for imaging the second main video;
Receiving means for receiving a sub-picture sent from the first image communication device;
An image communication system comprising: display means for displaying the sub-picture received by the receiving means.
撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムにおいて、
前記第1画像通信装置は、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定手段と、
前記映像位置指定手段にて指定した範囲を示す範囲情報を前記第2画像通信装置に送信する送信手段を備え、
前記第2画像通信装置は、
第2主映像を撮像する第2撮像手段と、
前記第1画像通信装置から送られてくる範囲情報を受信する受信手段と、
第1画像通信装置に送信した第2主映像から、前記受信手段にて受信した範囲情報に基づいて、副映像を抽出する抽出手段と、
前記抽出手段にて抽出した副映像を表示する表示手段とを備えることを特徴とする画像通信システム。
In the image communication system in which both the first and second image communication devices transmit and receive the captured video to display the received video on each other's screen,
The first image communication device includes:
Video position designating means for designating an arbitrary range of the second main video sent from the second image communication device;
Transmission means for transmitting range information indicating the range designated by the video position designation means to the second image communication device;
The second image communication device includes:
A second imaging means for imaging the second main video;
Receiving means for receiving range information sent from the first image communication device;
Extracting means for extracting a sub-video from the second main video transmitted to the first image communication device based on the range information received by the receiving means;
An image communication system comprising: display means for displaying the sub-picture extracted by the extraction means.
撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信システムにおいて、
前記第1画像通信装置は、
第1主映像を撮像する第1撮像手段と、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定手段と、
前記映像位置指定手段にて指定された範囲に表示されている映像を副映像として抽出する映像抽出手段と、
前記第1撮像手段で撮像した第1主映像と前記映像抽出手段にて抽出した副映像と合成して合成画像を生成する合成手段と、
前記合成手段にて合成された合成画像を前記第2画像通信装置に送信する送信手段とを備え、
前記第2画像通信装置は、
第2主映像を撮像する第2撮像手段と、
前記第1画像通信装置から送られてくる前記合成画像を受信する受信手段と、
前記受信手段にて受信した前記合成画像を表示する表示手段とを備えることを特徴とする画像通信システム。
In the image communication system in which both the first and second image communication devices transmit and receive the captured video to display the received video on each other's screen,
The first image communication device includes:
First imaging means for imaging a first main video;
Video position designating means for designating an arbitrary range of the second main video sent from the second image communication device;
Video extraction means for extracting the video displayed in the range designated by the video position designation means as a sub-video;
Synthesizing means for generating a synthesized image by synthesizing the first main video imaged by the first imaging means and the sub-video extracted by the video extracting means;
Transmission means for transmitting the synthesized image synthesized by the synthesizing means to the second image communication device,
The second image communication device includes:
A second imaging means for imaging the second main video;
Receiving means for receiving the composite image sent from the first image communication device;
An image communication system comprising: display means for displaying the composite image received by the receiving means.
撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信方法において、
前記第1画像通信装置では、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定工程と、
指定された範囲に表示されている映像を副映像として抽出する映像抽出工程と、
抽出した副映像を前記第2画像通信装置に送信する送信工程とを実行し、
前記第2画像通信装置では、
前記第1画像通信装置から送られてくる副映像を受信する受信工程と、
受信した副映像を表示する表示工程とを実行することを特徴とする画像通信方法。
In the image communication method of displaying the received video on each other's screen by both the first and second image communication devices transmitting and receiving the captured video,
In the first image communication device,
A video position designating step of designating an arbitrary range of the second main video sent from the second image communication device;
A video extraction process for extracting video displayed in a specified range as a sub-video;
Transmitting the extracted sub-video to the second image communication device;
In the second image communication device,
A receiving step of receiving a sub-picture sent from the first image communication device;
And a display step of displaying the received sub-picture.
撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信方法において、
前記第1画像通信装置では、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定工程と、
指定した範囲を示す範囲情報を前記第2画像通信装置に送信する送信工程を実行し、
前記第2画像通信装置では、
前記第1画像通信装置から送られてくる範囲情報を受信する受信工程と、
第1画像通信装置に送信した第2主映像から、受信した範囲情報に基づいて、副映像を抽出する抽出工程と、
抽出した副映像を表示する表示工程とを実行することを特徴とする画像通信方法。
In the image communication method of displaying the received video on each other's screen by both the first and second image communication devices transmitting and receiving the captured video,
In the first image communication device,
A video position designating step of designating an arbitrary range of the second main video sent from the second image communication device;
Performing a transmission step of transmitting range information indicating the specified range to the second image communication device;
In the second image communication device,
A receiving step of receiving range information sent from the first image communication device;
An extraction step of extracting a sub-video from the second main video transmitted to the first image communication device based on the received range information;
And a display step of displaying the extracted sub-video.
撮影した映像を第1、第2画像通信装置の双方が送受信することにより、受信した映像を互いの画面に表示する画像通信方法において、
前記第1画像通信装置では、
第2画像通信装置から送られてきた第2主映像の任意の範囲を指定する映像位置指定工程と、
指定された範囲に表示されている映像を副映像として抽出する映像抽出工程と、
撮像した第1主映像と抽出した副映像と合成して合成画像を生成する合成工程と、
合成された合成画像を前記第2画像通信装置に送信する送信工程とを実行し、
前記第2画像通信装置では、
前記第1画像通信装置から送られてくる前記合成画像を受信する受信工程と、
受信した前記合成画像を表示する表示工程とを実行することを特徴とする画像通信方法。
In the image communication method of displaying the received video on each other's screen by both the first and second image communication devices transmitting and receiving the captured video,
In the first image communication device,
A video position designating step of designating an arbitrary range of the second main video sent from the second image communication device;
A video extraction process for extracting video displayed in a specified range as a sub-video;
A synthesis step of generating a composite image by combining the captured first main video and the extracted sub-video;
Transmitting the synthesized image to the second image communication device, and
In the second image communication device,
A receiving step of receiving the composite image sent from the first image communication device;
And a display step of displaying the received composite image.
JP2008076889A 2008-03-24 2008-03-24 Image communication system and image communication method Active JP5058042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008076889A JP5058042B2 (en) 2008-03-24 2008-03-24 Image communication system and image communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008076889A JP5058042B2 (en) 2008-03-24 2008-03-24 Image communication system and image communication method

Publications (2)

Publication Number Publication Date
JP2009232290A true JP2009232290A (en) 2009-10-08
JP5058042B2 JP5058042B2 (en) 2012-10-24

Family

ID=41247154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008076889A Active JP5058042B2 (en) 2008-03-24 2008-03-24 Image communication system and image communication method

Country Status (1)

Country Link
JP (1) JP5058042B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005736A (en) * 2010-04-07 2017-01-05 アップル インコーポレイテッド Establishing video conference during phone call

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163336A (en) * 1995-12-08 1997-06-20 Ricoh Co Ltd Video conference system
JPH10191287A (en) * 1996-12-26 1998-07-21 Nec Shizuoka Ltd Image communication system
JP2002165196A (en) * 2000-11-27 2002-06-07 Sumitomo Electric Ind Ltd Apparatus and method of interactive information exchange
JP2003158727A (en) * 2001-09-07 2003-05-30 Canon Inc Electronic apparatus, imaging apparatus, portable communications apparatus, method and program for controlling display of video
JP2006352497A (en) * 2005-06-16 2006-12-28 Fuji Xerox Co Ltd Remote instruction system and method thereof
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09163336A (en) * 1995-12-08 1997-06-20 Ricoh Co Ltd Video conference system
JPH10191287A (en) * 1996-12-26 1998-07-21 Nec Shizuoka Ltd Image communication system
JP2002165196A (en) * 2000-11-27 2002-06-07 Sumitomo Electric Ind Ltd Apparatus and method of interactive information exchange
JP2003158727A (en) * 2001-09-07 2003-05-30 Canon Inc Electronic apparatus, imaging apparatus, portable communications apparatus, method and program for controlling display of video
JP2006352497A (en) * 2005-06-16 2006-12-28 Fuji Xerox Co Ltd Remote instruction system and method thereof
JP2007208741A (en) * 2006-02-02 2007-08-16 Fuji Xerox Co Ltd Remote indication system and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005736A (en) * 2010-04-07 2017-01-05 アップル インコーポレイテッド Establishing video conference during phone call
JP2018191307A (en) * 2010-04-07 2018-11-29 アップル インコーポレイテッドApple Inc. Establishing video conference during phone call
US10462420B2 (en) 2010-04-07 2019-10-29 Apple Inc. Establishing a video conference during a phone call

Also Published As

Publication number Publication date
JP5058042B2 (en) 2012-10-24

Similar Documents

Publication Publication Date Title
JP6171263B2 (en) Remote conference system and remote conference terminal
US20090059094A1 (en) Apparatus and method for overlaying image in video presentation system having embedded operating system
JP5317630B2 (en) Image distribution apparatus, method and program
JP2006262484A (en) Method and apparatus for composing images during video communication
JP7086552B2 (en) Information processing equipment, imaging equipment, information processing methods and programs
JP2002305732A (en) Visual terminal apparatus having virtual background function and method of obtaining the same
WO2016065918A1 (en) Method and device for adjusting and controlling sub-frames in multiple frames, and multipoint control unit
WO2012019517A1 (en) Method, device and system for processing video in video communication
JP2009071478A (en) Information communication terminal and information communication system
JP2009267999A (en) Live delivery system, motion picture shooting system and motion picture delivery method
JP2018117312A (en) Video distribution system, user terminal and video distribution method
JP2000299851A (en) Instruction information transmitter
JP2013115527A (en) Video conference system and video conference method
JP2008005358A (en) Remote support apparatus, remote support system, and remote support method
JP2011035638A (en) Virtual reality space video production system
KR101265613B1 (en) Appratus for of photographing image and Method for production of panorama image thereof
US10440260B2 (en) Display control apparatus to enable a user to check a captured image after image processing
JP2008124830A (en) Imaging apparatus
JP5058042B2 (en) Image communication system and image communication method
TWI538519B (en) Capture apparatuses of video images
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
JP7190594B1 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, IMAGE PROCESSING DEVICE AND IMAGE PROCESSING SYSTEM
JP2009103908A (en) Image display and image display method
JP2011120165A (en) Imaging apparatus
JP2000299852A (en) Instruction information transmitter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120731

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5058042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150