JP2010213133A - Conference terminal device, display control method, and display control program - Google Patents

Conference terminal device, display control method, and display control program Download PDF

Info

Publication number
JP2010213133A
JP2010213133A JP2009058877A JP2009058877A JP2010213133A JP 2010213133 A JP2010213133 A JP 2010213133A JP 2009058877 A JP2009058877 A JP 2009058877A JP 2009058877 A JP2009058877 A JP 2009058877A JP 2010213133 A JP2010213133 A JP 2010213133A
Authority
JP
Japan
Prior art keywords
image
display
parameter
avatar
conference terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009058877A
Other languages
Japanese (ja)
Other versions
JP5423068B2 (en
Inventor
Satoshi Tanaka
聡史 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009058877A priority Critical patent/JP5423068B2/en
Publication of JP2010213133A publication Critical patent/JP2010213133A/en
Application granted granted Critical
Publication of JP5423068B2 publication Critical patent/JP5423068B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conference terminal device which can display a photographed image or an avatar by switching on a display according to the size of a display region, to provide a display control method, and to provide a display control program. <P>SOLUTION: In the conference terminal device, a plurality of photographed image are received from another conference terminal device. A display area (first parameter) when the received photographed images are arranged side by side on the display and a resolution thereof (second parameter) are obtained (S55, S57). When the obtained first parameter is equal to or greater than a first threshold value (S59:YES) and the second parameter is equal to or greater than a second threshold value (S61:YES), the photographed image is selected (S63). When each parameter does not meet a condition (S59:NO, S61:NO), the avatar image created based on the photographed image is selected (S65). The selected image is displayed on the display (S69). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、会議端末装置、表示制御方法、表示制御プログラムに関する。より詳細には、カメラ画像とアバター画像とを切り替えてディスプレイに表示させることが可能な会議端末装置、表示制御方法、表示制御プログラムに関する。   The present invention relates to a conference terminal device, a display control method, and a display control program. More specifically, the present invention relates to a conference terminal device, a display control method, and a display control program that can switch a camera image and an avatar image and display them on a display.

通常、テレビ会議システムでは、会議参加者がカメラにて撮影される。カメラにて撮影された撮影画像は、各拠点に設置されたテレビ会議端末に送信される。撮影画像を受信したテレビ会議端末は、受信した撮影画像をディスプレイに表示させる。テレビ会議システムの利用者は、他の拠点に設置されたテレビ会議端末にて撮影された撮影画像を、ディスプレイを介して視認可能となる。このようにしてテレビ会議が実行される。なお、複数のテレビ会議端末間でテレビ会議が行われる場合には、撮影画像はディスプレイ上に並べて表示される。   Usually, in a video conference system, a conference participant is photographed by a camera. The captured image captured by the camera is transmitted to the video conference terminal installed at each base. The video conference terminal that has received the captured image displays the received captured image on the display. A user of the video conference system can visually recognize a captured image captured by a video conference terminal installed at another base via a display. In this way, the video conference is executed. In addition, when a video conference is performed between a plurality of video conference terminals, the captured images are displayed side by side on the display.

ここで、テレビ会議に参加するテレビ会議端末の数が多くなると、多くの撮影画像をディスプレイに表示させなければならないので、一つの撮影画像を表示可能な表示領域が小さくなってしまう。このため、其々の撮影画像の視認性が悪化する。このような中、会議参加者の撮影画像に基づいて作成されたアバターを、撮影画像の代わりにディスプレイに表示させることによって、テレビ会議を行うテレビ会議システムが提案されている(例えば、特許文献1参照)。通常アバターは、限られた表示領域に表示させた場合であっても、利用者の視認性を悪化させることがない。従って、テレビ会議に参加するテレビ会議端末の数が多くなり、一つの撮影画像を表示可能な表示領域が小さくなった場合でも、利用者の視認性を良好に維持することが可能となる。   Here, when the number of video conference terminals participating in the video conference increases, a large number of captured images must be displayed on the display, so that a display area where one captured image can be displayed becomes small. For this reason, the visibility of each captured image deteriorates. Under such circumstances, there has been proposed a video conference system that performs a video conference by displaying an avatar created based on a captured image of a conference participant on a display instead of a captured image (for example, Patent Document 1). reference). Even when a normal avatar is displayed in a limited display area, it does not deteriorate the visibility of the user. Therefore, even when the number of video conference terminals participating in the video conference increases and the display area where one captured image can be displayed becomes small, the visibility of the user can be maintained well.

特開2000−244886号公報JP 2000-244886 A

しかしながら上述のテレビ会議システムでは、常にアバターがディスプレイに表示されてしまう。従って、テレビ会議に参加するテレビ会議端末の数が少なく、大きな表示領域を確保して撮影画像そのものを良好にディスプレイに表示させることが可能な場合であっても、常にアバターが表示されてしまうという問題点がある。   However, in the above video conference system, the avatar is always displayed on the display. Therefore, even if the number of video conference terminals participating in the video conference is small and a large display area can be secured and the captured image itself can be satisfactorily displayed on the display, the avatar is always displayed. There is a problem.

本発明は上述の問題点を解決するためになされたものであり、表示領域の大きさに応じて、撮影画像とアバターとを切り替えてディスプレイに表示させることが可能な会議端末装置、表示制御方法、表示制御プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and a conference terminal device and a display control method capable of switching a captured image and an avatar to be displayed on a display according to the size of a display area. An object of the present invention is to provide a display control program.

上述の問題点を解決するために、請求項1に係る発明の会議端末装置は、ネットワークに接続可能であり、前記ネットワークを介して通信を行うことによって遠隔会議を行う会議端末装置であって、他の会議端末装置の撮影手段にて撮影された画像である撮影画像を受信する第一受信制御手段と、前記第一受信制御手段によって受信された前記撮影画像に、キャラクタ画像であるアバター画像を割り当てるアバター割当手段と、前記第一受信制御手段にて受信された前記撮影画像又は前記アバター割当手段にて割り当てられた前記アバター画像を表示させる表示手段の表示領域のうち、前記撮影画像又は前記アバター画像を表示可能な領域に関連するパラメータを取得する領域パラメータ取得手段と、前記領域パラメータ取得手段にて取得された前記パラメータに基づいて、前記撮影画像及び前記アバター画像のうちいずれかを、前記表示手段に表示させる表示画像として選択する画像選択手段と、前記画像選択手段にて選択された前記表示画像を、前記表示手段の表示領域のうち表示可能な領域に表示させる表示制御手段とを備えている。   In order to solve the above-mentioned problem, the conference terminal device of the invention according to claim 1 is a conference terminal device that is connectable to a network and performs a remote conference by communicating via the network, A first reception control unit that receives a captured image that is an image captured by a capturing unit of another conference terminal device, and an avatar image that is a character image is added to the captured image received by the first reception control unit. Of the display area of the display means for displaying the avatar assignment means to be assigned and the photographed image received by the first reception control means or the avatar image assigned by the avatar assignment means, the photographed image or the avatar Region parameter acquisition means for acquiring parameters related to an area where an image can be displayed, and the area parameter acquisition means On the basis of the parameters, an image selection unit that selects any one of the captured image and the avatar image as a display image to be displayed on the display unit, and the display image selected by the image selection unit, Display control means for displaying in a displayable area of the display area of the display means.

また、請求項2に係る発明の会議端末装置は、請求項1に記載の発明の構成に加えて、前記領域パラメータ取得手段は、前記表示画像を表示可能な領域の面積のパラメータを第一パラメータとして取得し、前記画像選択手段は、前記第一パラメータに基づいて、前記表示手段に表示させる前記表示画像を選択することを特徴とする。   In addition to the configuration of the invention according to claim 1, the conference parameter device of the invention according to claim 2 is characterized in that the region parameter acquisition means sets a parameter of an area of a region where the display image can be displayed as a first parameter. And the image selection means selects the display image to be displayed on the display means based on the first parameter.

また、請求項3に係る発明の会議端末装置は、請求項2に記載の発明の構成に加えて、前記領域パラメータ取得手段は、前記表示画像を表示可能な領域の解像度のパラメータを第二パラメータとして取得し、前記画像選択手段は、前記第一パラメータと前記第二パラメータとに基づいて、前記表示手段に表示させる前記表示画像を選択することを特徴とする。   In addition to the configuration of the invention described in claim 2, the conference terminal device of the invention according to claim 3 is characterized in that the region parameter acquisition means sets a second parameter for the resolution parameter of the region in which the display image can be displayed. And the image selection means selects the display image to be displayed on the display means based on the first parameter and the second parameter.

また、請求項4に係る発明の会議端末装置は、請求項2に記載の発明の構成に加えて、前記領域パラメータ取得手段は、前記表示画像を表示可能な領域の明度及び彩度のうち少なくともいずれかのパラメータを第二パラメータとして取得し、前記画像選択手段は、前記第一パラメータと前記第二パラメータとに基づいて、前記表示手段に表示させる前記表示画像を選択することを特徴とする。   According to a fourth aspect of the present invention, there is provided the conference terminal device according to the second aspect of the invention, wherein the region parameter acquisition means includes at least one of brightness and saturation of a region in which the display image can be displayed. One of the parameters is acquired as a second parameter, and the image selection unit selects the display image to be displayed on the display unit based on the first parameter and the second parameter.

また、請求項5に係る発明の会議端末装置は、請求項2に記載の発明の構成に加えて、前記画像選択手段は、前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の閾値である第一閾値以上である場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値未満である場合に、前記アバター画像を前記表示画像として選択することを特徴とする。   According to a fifth aspect of the present invention, in the conference terminal device according to the second aspect, in addition to the configuration of the second aspect of the invention, the image selection means has the first parameter acquired by the area parameter acquisition means predetermined. Selecting the captured image as the display image when the threshold value is equal to or greater than a first threshold value, and selecting the avatar image as the display image when the first parameter is less than the first threshold value. Features.

また、請求項6に係る発明の会議端末装置は、請求項3又は4に記載の発明の構成に加えて、前記画像選択手段は、前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の閾値である第一閾値以上であり、且つ、前記第二パラメータが所定の閾値である第二閾値以上である場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値未満であるか、又は、前記第二パラメータが前記第二閾値未満である場合に、前記アバター画像を前記表示画像として選択することを特徴とする。   According to a sixth aspect of the present invention, there is provided the conference terminal device according to the third aspect, wherein the first parameter acquired by the area parameter acquisition unit is the image selection unit. When the second parameter is equal to or greater than a second threshold that is a predetermined threshold that is equal to or greater than a first threshold that is a predetermined threshold, the captured image is selected as the display image, and the first parameter is the The avatar image is selected as the display image when it is less than a first threshold value or when the second parameter is less than the second threshold value.

また、請求項7に係る発明の会議端末装置は、請求項5に記載の発明の構成に加えて、前記画像選択手段は、前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の時間である第一時間以上連続して前記第一閾値以上である場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値以上となる状態が前記第一時間以上連続しない場合に、前記撮影画像を前記アバター画像として選択することを特徴とする。   According to a seventh aspect of the present invention, in the conference terminal device according to the fifth aspect, in addition to the configuration of the fifth aspect of the invention, the first parameter acquired by the area parameter acquiring unit is a predetermined value. When the first image is equal to or greater than the first threshold value, the captured image is selected as the display image, and the state where the first parameter is equal to or greater than the first threshold value is equal to or greater than the first time. When not continuous, the photographed image is selected as the avatar image.

また、請求項8に係る発明の会議端末装置は、請求項6に記載の発明の構成に加えて、前記画像選択手段は、前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の時間である第一時間以上連続して前記第一閾値以上である場合であって、前記第二パラメータが所定の時間である第二時間以上連続して前記第二閾値以上であった場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値以上となる状態が前記第一時間以上連続せず、又は、前記第二パラメータが前記第二閾値以上となる状態が前記第二時間以上連続しない場合に、前記アバター画像を前記表示画像として選択することを特徴とする。   According to an eighth aspect of the present invention, there is provided the conference terminal device according to the sixth aspect of the invention, in addition to the configuration of the sixth aspect of the invention, wherein the first parameter acquired by the area parameter acquiring unit is a predetermined value. When the second parameter is equal to or greater than the first threshold continuously for a first time that is a time, and the second parameter is equal to or greater than the second threshold for a second time that is a predetermined time, The photographed image is selected as the display image, and the state in which the first parameter is not less than the first threshold is not continuous for the first time or the state in which the second parameter is not less than the second threshold. The avatar image is selected as the display image when it does not continue for the second time or longer.

また、請求項9に係る発明の会議端末装置は、請求項1乃至8のいずれかに記載の発明の構成に加えて、前記第一受信制御手段にて受信された前記撮影画像に含まれる顔の特徴部分を抽出することによって、前記顔の表情を特定する表情特定手段と、前記アバター割当手段によって割り当てられた前記アバター画像を、前記表情特定手段にて特定された前記表情に基づいて変換するアバター変換手段とを備え、前記画像選択手段は、前記撮影画像、及び、前記アバター変換手段によって変換された前記アバター画像のうちいずれかを、前記表示手段に表示させる表示画像として選択することを特徴とする。   In addition to the configuration of the invention according to any one of claims 1 to 8, the conference terminal device according to the invention according to claim 9 is a face included in the photographed image received by the first reception control means. The facial expression specifying means for specifying the facial expression and the avatar image assigned by the avatar assigning means are converted based on the facial expression specified by the facial expression specifying means. Avatar conversion means, wherein the image selection means selects either the photographed image or the avatar image converted by the avatar conversion means as a display image to be displayed on the display means. And

また、請求項10に係る発明の会議端末装置は、請求項1乃至9のいずれかに記載の発明の構成に加えて、前記他の会議端末装置から送信される前記アバター画像を受信する第二受信制御手段を備え、前記領域パラメータ取得手段は、前記撮影画像又は前記第二受信制御手段にて受信された前記アバター画像を表示可能な領域に関連する前記パラメータを取得し、前記画像選択手段は、前記領域パラメータ取得手段にて取得された前記パラメータに基づいて、前記撮影画像及び前記第二受信制御手段にて受信された前記アバター画像のうちいずれかを前記表示画像として選択することを特徴とする。   A conference terminal device according to a tenth aspect of the invention, in addition to the configuration of the invention according to any one of the first to ninth aspects, receives the avatar image transmitted from the other conference terminal device. A reception control unit, wherein the region parameter acquisition unit acquires the parameter related to a region in which the captured image or the avatar image received by the second reception control unit can be displayed, and the image selection unit includes: And selecting one of the captured image and the avatar image received by the second reception control unit as the display image based on the parameter acquired by the region parameter acquisition unit. To do.

また、請求項11に係る発明の会議端末装置は、請求項10に記載の発明の構成に加えて、前記他の会議端末装置に対し、前記アバター画像を要求する為の通知である要求通知を送信する送信制御手段を備え、前記第二受信制御手段は、前記送信制御手段にて送信された前記要求通知に応じ、前記他の会議端末装置から送信される前記アバター画像を受信することを特徴とする。   In addition to the configuration of the invention of claim 10, the conference terminal device of the invention according to claim 11 provides a request notification which is a notification for requesting the avatar image to the other conference terminal device. Transmission control means for transmitting, wherein the second reception control means receives the avatar image transmitted from the other conference terminal device in response to the request notification transmitted by the transmission control means. And

また、請求項12に係る発明の表示制御方法は、ネットワークに接続可能であり、前記ネットワークを介して通信を行うことによって遠隔会議を行う表示制御方法であって、他の会議端末装置の撮影手段にて撮影された画像である撮影画像を受信する第一受信制御ステップと、前記第一受信制御ステップによって受信された前記撮影画像に、キャラクタ画像であるアバター画像を割り当てるアバター割当ステップと、前記第一受信制御ステップにて受信された前記撮影画像又は前記アバター割当ステップにて割り当てられた前記アバター画像を表示させる表示手段の表示領域のうち、前記撮影画像又は前記アバター画像を表示可能な領域に関連するパラメータを取得する領域パラメータ取得ステップと、前記領域パラメータ取得ステップにて取得された前記パラメータに基づいて、前記撮影画像及び前記アバター画像のうちいずれかを、前記表示手段に表示させる表示画像として選択する画像選択ステップと、前記画像選択ステップにて選択された前記表示画像を、前記表示手段の表示領域のうち表示可能な領域に表示させる表示制御ステップとを備えている。   A display control method according to a twelfth aspect of the present invention is a display control method capable of connecting to a network and performing a remote conference by communicating via the network, and is a photographing means of another conference terminal device A first reception control step of receiving a photographed image that is a photographed image at the first reception control step, an avatar assignment step of assigning an avatar image that is a character image to the photographed image received by the first reception control step, and the first Of the display area of the display means for displaying the photographed image received in the one reception control step or the avatar image assigned in the avatar assignment step, related to the area where the photographed image or the avatar image can be displayed. Region parameter acquisition step for acquiring parameters to be performed, and region parameter acquisition step Based on the obtained parameters, an image selection step for selecting either the captured image or the avatar image as a display image to be displayed on the display means, and the display image selected in the image selection step A display control step of displaying in a displayable area of the display area of the display means.

また、請求項13に係る発明の表示制御プログラムは、請求項1乃至11のいずれかに記載の会議端末装置における各処理手段としてコンピュータを駆動させる。   A display control program according to a thirteenth aspect of the invention drives a computer as each processing means in the conference terminal device according to any of the first to eleventh aspects.

請求項1に係る発明の会議端末装置では、他の会議端末装置にて撮影され送信された撮影画像と、受信した撮影画像に割り当てられたアバター画像とのうちいずれかを、表示手段に表示させる表示画像として選択し、表示手段に表示させる。表示手段の表示領域のうち、表示画像を表示可能な領域に関連するパラメータに基づいて、撮影画像又はアバター画像のうちいずれかを選択する。これによって、利用者にとって視認性の良好な表示画像を選択し、表示手段に表示させることが可能となる。   In the conference terminal device according to the first aspect of the present invention, the display means displays either a captured image captured and transmitted by another conference terminal device or an avatar image assigned to the received captured image. It selects as a display image and displays on a display means. One of the captured image and the avatar image is selected based on the parameter related to the region where the display image can be displayed among the display regions of the display means. As a result, it is possible to select a display image with good visibility for the user and display it on the display means.

また、請求項2に係る発明の会議端末装置では、請求項1に記載の発明の効果に加えて、表示画像を表示可能な領域の面積を第一パラメータとして取得する。そして取得された面積に基づいて、撮影画像及びアバター画像のいずれかを、表示手段に表示させる表示画像として選択する。これによって、表示可能な領域の面積に最適な表示画像を、撮影画像及びアバター画像のうちいずれかから選択して表示手段に表示させることが可能となる。これによって、利用者にとって視認性の良好な表示画像を表示手段に表示させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 2, in addition to the effect of the invention of claim 1, the area of the region where the display image can be displayed is acquired as the first parameter. And based on the acquired area, either a picked-up image and an avatar image are selected as a display image displayed on a display means. As a result, a display image that is optimal for the area of the displayable region can be selected from either the photographed image or the avatar image and displayed on the display means. As a result, it is possible to display on the display means a display image having good visibility for the user.

また、請求項3に係る発明の会議端末装置では、請求項2に記載の発明の効果に加えて、表示画像を表示可能な領域の解像度を第二パラメータとして取得する。そして取得された第一パラメータと第二パラメータとに基づいて、撮影画像及びアバター画像のいずれかを、表示手段に表示させる表示画像として選択する。これによって、表示可能な領域の解像度に最適な表示画像を、撮影画像及びアバター画像のうちいずれかから選択して表示手段に表示させることが可能となる。これによって、利用者にとって視認性の良好な表示画像を表示手段に表示させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 3, in addition to the effect of the invention of claim 2, the resolution of the area where the display image can be displayed is acquired as the second parameter. And based on the acquired 1st parameter and 2nd parameter, either a picked-up image and an avatar image are selected as a display image displayed on a display means. As a result, a display image that is optimal for the resolution of the displayable region can be selected from the photographed image and the avatar image and displayed on the display means. As a result, it is possible to display on the display means a display image having good visibility for the user.

また、請求項4に係る発明の会議端末装置では、請求項2に記載の発明の効果に加えて、表示画像を表示可能な領域の明度及び彩度のうち少なくともいずれかを第二パラメータとして取得する。そして取得された第一パラメータと第二パラメータとに基づいて、撮影画像及びアバター画像のいずれかを、表示手段に表示させる表示画像として選択する。これによって、表示可能な領域の明度及び彩度のうち少なくともいずれかに最適な表示画像を、撮影画像及びアバター画像のうちいずれかから選択して表示手段に表示させることが可能となる。これによって、利用者にとって視認性の良好な表示画像を表示手段に表示させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 4, in addition to the effect of the invention of claim 2, at least one of brightness and saturation of a region where the display image can be displayed is acquired as the second parameter. To do. And based on the acquired 1st parameter and 2nd parameter, either a picked-up image and an avatar image are selected as a display image displayed on a display means. As a result, a display image that is optimal for at least one of the brightness and saturation of the displayable region can be selected from either the photographed image or the avatar image and displayed on the display means. As a result, it is possible to display on the display means a display image having good visibility for the user.

また、請求項5に係る発明の会議端末装置では、請求項2に記載の発明の効果に加えて、表示可能な領域の面積をパラメータとして取得した場合には、面積が大きい場合に撮影画像を選択し、面積が小さい場合にアバター画像を選択することが可能となる。これによって、利用者にとって視認性の良好な表示画像を表示手段に表示させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 5, in addition to the effect of the invention according to claim 2, when the area of the displayable area is acquired as a parameter, the captured image is displayed when the area is large. When an area is small, an avatar image can be selected. As a result, it is possible to display on the display means a display image having good visibility for the user.

また、請求項6に係る発明の会議端末装置では、請求項3又は4に記載の発明の効果に加えて、表示可能な領域の解像度をパラメータとして取得した場合には、解像度が大きい場合に撮影画像を選択し、解像度が小さい場合にアバター画像を選択することが可能となる。表示可能な領域の明度及び彩度のうち少なくともいずれかをパラメータとして取得した場合には、選択された値が高い場合に撮影画像を選択し、選択された値が低い場合にアバター画像を選択する。これによって、利用者にとって視認性の良好な表示画像を表示手段に表示させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 6, in addition to the effect of the invention according to claim 3 or 4, when the resolution of the displayable area is acquired as a parameter, the image is taken when the resolution is large. When an image is selected and the resolution is small, an avatar image can be selected. When at least one of brightness and saturation of the displayable area is acquired as a parameter, a captured image is selected when the selected value is high, and an avatar image is selected when the selected value is low . As a result, it is possible to display on the display means a display image having good visibility for the user.

また、請求項7に係る発明の会議端末装置では、請求項5に記載の発明の効果に加えて、第一パラメータが第一時間以上連続して第一閾値以上となった場合に、表示画像として撮影画像を選択する。これによって、パラメータの変動により、頻繁に表示画像が撮影画像とアバター画像とで切り替わってしまう状態を防止できる。   Moreover, in the conference terminal device of the invention according to claim 7, in addition to the effect of the invention according to claim 5, the display image is displayed when the first parameter continuously exceeds the first threshold for the first time or more. Select the captured image as. Accordingly, it is possible to prevent a state in which the display image is frequently switched between the captured image and the avatar image due to a change in the parameter.

また、請求項8に係る発明の会議端末装置では、請求項6に記載の発明の効果に加えて、第一パラメータが第一時間以上連続して第一閾値以上となった場合であって、第二パラメータが第二時間以上連続して第二閾値以上となった場合に、表示画像として撮影画像を選択する。これによって、パラメータの変動により、頻繁に表示画像が撮影画像とアバター画像とで切り替わってしまう状態を防止できる。   Moreover, in the conference terminal device of the invention according to claim 8, in addition to the effect of the invention of claim 6, the first parameter is continuously equal to or greater than the first threshold for the first time, When the second parameter is continuously equal to or greater than the second threshold for the second time or longer, the captured image is selected as the display image. Accordingly, it is possible to prevent a state in which the display image is frequently switched between the captured image and the avatar image due to a change in the parameter.

また、請求項9に係る発明の会議端末装置では、請求項1乃至8のいずれかに記載の発明の効果に加えて、撮影画像に含まれる顔の表情に基づいて、アバター画像を割り当てることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 9, in addition to the effect of the invention according to any one of claims 1 to 8, the avatar image can be assigned based on the facial expression included in the photographed image. It becomes possible.

また、請求項10に係る発明の会議端末装置では、請求項1乃至9のいずれかに記載の発明の効果に加えて、会議端末装置は、他の会議端末装置から撮影画像とアバター画像とを受信する。そして、領域パラメータ取得手段にて取得されたパラメータに基づいて、撮影画像及びアバター画像のうちいずれかを表示画像として選択し、表示手段に表示させる。これによって、人物画像をアバター画像に変換する処理に要する時間が不要となるので、迅速にアバター画像を表示手段に表示させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 10, in addition to the effect of the invention according to any one of claims 1 to 9, the conference terminal device receives a captured image and an avatar image from another conference terminal device. Receive. Then, based on the parameters acquired by the area parameter acquisition means, either the photographed image or the avatar image is selected as a display image and displayed on the display means. This eliminates the time required for the process of converting a person image into an avatar image, so that the avatar image can be quickly displayed on the display means.

また、請求項11に係る発明の会議端末装置では、請求項10に記載の発明の効果に加えて、会議端末装置は、他の会議端末装置に対して、アバター画像の送信を要求することが可能となる。これによって、アバター画像の必要な場合にのみ、他の会議端末装置に対して、アバター画像の変換及び送信を要求することが可能となるので、通信データ量を削減することが可能となる。また、他の会議端末装置の処理負荷を軽減させることが可能となる。   Moreover, in the conference terminal device of the invention according to claim 11, in addition to the effect of the invention of claim 10, the conference terminal device may request other conference terminal devices to transmit an avatar image. It becomes possible. This makes it possible to request conversion and transmission of an avatar image from another conference terminal device only when an avatar image is necessary, thereby reducing the amount of communication data. Moreover, it becomes possible to reduce the processing load of another conference terminal device.

また、請求項12に係る発明の表示制御方法では、他の会議端末装置にて撮影され送信された撮影画像と、受信した撮影画像に割り当てられたアバター画像とのうちいずれかを、表示手段に表示させる表示画像として選択し、表示手段に表示させる。表示手段の表示領域のうち、表示画像を表示可能な領域に関連するパラメータに基づいて、撮影画像又はアバター画像のうちいずれかを選択する。これによって、利用者にとって視認性の良好な表示画像を選択し、表示手段に表示させることが可能となる。   In the display control method of the invention according to claim 12, any one of a photographed image captured and transmitted by another conference terminal device and an avatar image assigned to the received photographed image is used as a display means. A display image to be displayed is selected and displayed on the display means. One of the captured image and the avatar image is selected based on the parameter related to the region where the display image can be displayed among the display regions of the display means. As a result, it is possible to select a display image with good visibility for the user and display it on the display means.

また、請求項13に係る発明の表示制御プログラムでは、請求項1乃至11のいずれかに記載の会議端末装置における各処理手段としてコンピュータを駆動させることができる。   In the display control program of the invention according to claim 13, a computer can be driven as each processing means in the conference terminal device according to any of claims 1 to 11.

テレビ会議システム1の構成を示す模式図である。1 is a schematic diagram showing a configuration of a video conference system 1. FIG. 会議端末装置3の電気的構成を示す模式図である。3 is a schematic diagram showing an electrical configuration of a conference terminal device 3. FIG. HDD31の各種記憶領域を示す模式図である。3 is a schematic diagram showing various storage areas of an HDD 31. FIG. ログインテーブル3111を示す模式図である。3 is a schematic diagram showing a login table 3111. FIG. 表示画像情報テーブル3121を示す模式図である。10 is a schematic diagram showing a display image information table 3121. FIG. 撮影画像送信処理を示すフローチャートである。It is a flowchart which shows a picked-up image transmission process. 撮影画像受信処理を示すフローチャートである。It is a flowchart which shows a picked-up image reception process. アバター割当処理を示すフローチャートである。It is a flowchart which shows an avatar allocation process. 表示処理を示すフローチャートである。It is a flowchart which shows a display process. 表示画面の一例である。It is an example of a display screen. 表示画面の一例である。It is an example of a display screen. 第一の変形例におけるアバター割当処理を示すフローチャートである。It is a flowchart which shows the avatar allocation process in a 1st modification. 第二の変形例における表示処理を示すフローチャートである。It is a flowchart which shows the display process in a 2nd modification. 第三の変形例におけるアバター作成指示処理を示すフローチャートである。It is a flowchart which shows the avatar preparation instruction process in a 3rd modification. 第三の変形例における撮影画像送信処理を示すフローチャートである。It is a flowchart which shows the picked-up image transmission process in a 3rd modification. 第三の変形例における撮影画像受信処理を示すフローチャートである。It is a flowchart which shows the picked-up image reception process in a 3rd modification.

以下、本発明の一実施の形態である会議端末装置3〜6について、図面を参照して説明する。なおこれらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、特に特定的な記載がない限り、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, conference terminal devices 3 to 6 according to an embodiment of the present invention will be described with reference to the drawings. These drawings are used for explaining the technical features that can be adopted by the present invention, and the configuration of the apparatus described, the flowcharts of various processes, etc., unless otherwise specified. It is not intended to be limited to that, but merely an illustrative example.

図1を参照し、会議端末装置3〜6を構成要素とするテレビ会議システム1の構成について説明する。テレビ会議システム1は、ネットワーク2と、ネットワーク2を介して相互に接続され、かつ各拠点毎に設けられる複数の会議端末装置3、4、5、6とを備えている。テレビ会議システム1では、会議端末装置3〜6間において、ネットワーク2を介して、画像、音声が互いに送受信されることでテレビ会議が実施される。   With reference to FIG. 1, the structure of the video conference system 1 which has the conference terminal devices 3-6 as a component is demonstrated. The video conference system 1 includes a network 2 and a plurality of conference terminal devices 3, 4, 5, and 6 that are connected to each other via the network 2 and are provided for each base. In the video conference system 1, a video conference is performed by transmitting and receiving images and sounds between the conference terminal devices 3 to 6 via the network 2.

テレビ会議への参加を希望する者は、会議端末装置3〜6のうちいずれかを操作してID情報を入力することによって、テレビ会議にログインする。テレビ会議に参加した状態では、例えば会議端末装置3に接続されたカメラ34(図2参照)によって会議参加者が撮影される。撮影された会議参加者の画像(以下「撮影画像」という。)は、会議端末装置3から会議端末装置4〜6に対して送信される。撮影画像を受信した会議端末装置4〜6では、受信した撮影画像をディスプレイ28に表示させる。撮影画像を複数の会議端末装置から受信している場合、受信した複数の撮影画像はディスプレイ28に並べて表示させる。これによって会議参加者は、複数の会議端末装置の其々にて撮影される他の会議参加者の撮影画像を視認しながらテレビ会議を行うことが可能となる。   A person who wishes to participate in the video conference logs in to the video conference by operating one of the conference terminal devices 3 to 6 and inputting ID information. In the state of participating in the video conference, for example, the conference participant is photographed by the camera 34 (see FIG. 2) connected to the conference terminal device 3. The captured images of the conference participants (hereinafter referred to as “captured images”) are transmitted from the conference terminal device 3 to the conference terminal devices 4 to 6. In the conference terminal devices 4 to 6 that have received the captured image, the received captured image is displayed on the display 28. When captured images are received from a plurality of conference terminal devices, the received plurality of captured images are displayed side by side on the display 28. Thereby, the conference participant can hold the video conference while visually recognizing the captured images of the other conference participants captured by each of the plurality of conference terminal devices.

上述のテレビ会議システム1において、テレビ会議にログインする会議端末装置が多くなり、受信する撮影画像が多くなると、これらの全てをディスプレイ28に並べて表示させなければならない。このため、個々の撮影画像の表示領域の大きさは小さくなってしまう。この場合、撮影画像の視認性が悪化する。本実施の形態では、撮影画像の視認性が悪化した場合、ディスプレイ28に表示させる画像を、撮影画像からアバター画像に切り替える。アバター画像は、撮影画像に基づいて作成されるキャラクタ画像である(詳細は後述する)。アバター画像は、比較的少ない画素(例えば、100×100ピクセル)にて構成される。従ってアバター画像は、撮影画像と比較して、表示領域が小さい場合でも良好に視認することが可能である。本実施の形態では、撮影画像の表示領域の大きさ等のパラメータによって、表示させる画像を撮影画像とアバター画像とに切り替えることを特徴とする。   In the video conference system 1 described above, when the number of conference terminal devices that log in to a video conference increases and the number of captured images to be received increases, all of these must be displayed side by side on the display 28. For this reason, the size of the display area of each captured image becomes small. In this case, the visibility of the captured image is deteriorated. In this embodiment, when the visibility of the captured image deteriorates, the image displayed on the display 28 is switched from the captured image to the avatar image. The avatar image is a character image created based on the captured image (details will be described later). The avatar image is composed of relatively few pixels (for example, 100 × 100 pixels). Therefore, the avatar image can be viewed well even when the display area is small compared to the captured image. The present embodiment is characterized in that an image to be displayed is switched between a captured image and an avatar image according to parameters such as the size of the display area of the captured image.

なお上述では、テレビ会議への参加を希望する者は、ID情報を入力することによってテレビ会議にログインしていた。しかしながら本発明はこの方法に限定されず、他の様々な方法が使用可能である。例えば、RFIDをリーダに読み取らせることによってログインする方法等が使用可能である。   In the above description, a person who wishes to participate in a video conference logs in to the video conference by inputting ID information. However, the present invention is not limited to this method, and various other methods can be used. For example, a method of logging in by causing the reader to read the RFID can be used.

図2を参照し、会議端末装置3の電気的構成について説明する。なお、会議端末装置3〜6は全て同じ構成であるので、ここでは会議端末装置3の構成についてのみ説明し、他の会議端末装置4〜6については説明を省略する。   The electrical configuration of the conference terminal device 3 will be described with reference to FIG. Since all the conference terminal devices 3 to 6 have the same configuration, only the configuration of the conference terminal device 3 will be described here, and the description of the other conference terminal devices 4 to 6 will be omitted.

会議端末装置3には、会議端末装置3の制御を司るコントローラとしてのCPU20が設けられている。CPU20には、BIOS等を記憶したROM21と、各種データを一時的に記憶するRAM22と、データの受け渡しの仲介を行うI/Oインタフェイス30とが接続されている。I/Oインタフェイス30には、各種記憶エリアを有するハードディスクドライブ31(以下「HDD31」という。)が接続されている。   The conference terminal device 3 is provided with a CPU 20 as a controller that controls the conference terminal device 3. Connected to the CPU 20 are a ROM 21 that stores BIOS, a RAM 22 that temporarily stores various data, and an I / O interface 30 that mediates data transfer. A hard disk drive 31 (hereinafter referred to as “HDD 31”) having various storage areas is connected to the I / O interface 30.

I/Oインタフェイス30には、ネットワーク2と通信するための通信装置25と、マウス27と、ビデオコントローラ23と、キーコントローラ24と、ユーザを撮影するためのカメラ34と、ユーザの音声を取り込むためのマイク35と、CD−ROMドライブ26とが各々接続されている。ビデオコントローラ23には、ディスプレイ28が接続されている。キーコントローラ24には、キーボード29が接続されている。CD−ROMドライブ26に挿入されるCD−ROM114には、会議端末装置3のメインプログラムや、本発明の通信制御プログラム等が記憶されている。CD−ROM114の導入時には、これら各種プログラムが、CD−ROM114からHDD31にセットアップされて、後述するプログラム記憶領域314(図3参照)に記憶される。   The I / O interface 30 captures a communication device 25 for communicating with the network 2, a mouse 27, a video controller 23, a key controller 24, a camera 34 for photographing a user, and a user's voice. A microphone 35 and a CD-ROM drive 26 are connected to each other. A display 28 is connected to the video controller 23. A keyboard 29 is connected to the key controller 24. The CD-ROM 114 inserted into the CD-ROM drive 26 stores the main program of the conference terminal device 3 and the communication control program of the present invention. When the CD-ROM 114 is introduced, these various programs are set up from the CD-ROM 114 to the HDD 31 and stored in a program storage area 314 (see FIG. 3) described later.

図3を参照し、HDD31の各種記憶領域について説明する。HDD31には、ログインテーブル記憶領域311、表示画像情報テーブル記憶領域312、画像記憶領域313、プログラム記憶領域314、その他の情報記憶領域315が少なくとも設けられている。   Various storage areas of the HDD 31 will be described with reference to FIG. The HDD 31 is provided with at least a login table storage area 311, a display image information table storage area 312, an image storage area 313, a program storage area 314, and other information storage areas 315.

ログインテーブル記憶領域311には、テレビ会議にログインしたユーザである会議参加者、及び、その会議参加者が使用する会議端末装置を管理するログインテーブル3111(図4参照)が記憶される。表示画像情報テーブル記憶領域312には、ディスプレイ28に表示させる撮影画像に関連する情報(以下「表示画像情報」という。)を記憶する表示画像情報テーブル3121(図5参照)が記憶される。画像記憶領域313には、カメラ34によって撮影された撮影画像、及び、撮影画像に基づいて作成されるアバター画像が記憶される。プログラム記憶領域314には、会議端末装置3のメインプログラムや、他の会議端末装置4〜6との間でテレビ会議を実行するための通信制御プログラム等が記憶される。その他の情報記憶領域315には、会議端末装置3で使用されるその他の情報が記憶される。なお、会議端末装置3がHDD31を備えていない専用機の場合は、ROM21に各種プログラムが記憶される。   The log-in table storage area 311 stores a log-in table 3111 (see FIG. 4) that manages conference participants who are logged-in to the video conference and conference terminal devices used by the conference participants. The display image information table storage area 312 stores a display image information table 3121 (see FIG. 5) that stores information related to a captured image to be displayed on the display 28 (hereinafter referred to as “display image information”). The image storage area 313 stores a photographed image photographed by the camera 34 and an avatar image created based on the photographed image. The program storage area 314 stores a main program of the conference terminal device 3 and a communication control program for executing a video conference with the other conference terminal devices 4 to 6. The other information storage area 315 stores other information used in the conference terminal device 3. When the conference terminal device 3 is a dedicated machine that does not include the HDD 31, various programs are stored in the ROM 21.

図4を参照し、ログインテーブル3111について説明する。ログインテーブル3111には、テレビ会議にログインした会議参加者のユーザIDと、その会議参加者によって使用される会議端末装置3の端末IDとが記憶される。   The login table 3111 will be described with reference to FIG. The login table 3111 stores the user ID of the conference participant who logged in to the video conference and the terminal ID of the conference terminal device 3 used by the conference participant.

ユーザIDとしては、ログイン時に会議端末装置3のキーボード29を介して入力されるID情報が記憶される。端末IDは、会議端末装置3〜6を特定する為の識別情報が記憶される。端末IDとしては、会議端末装置3のMACアドレスやIPアドレス等が使用可能である。ユーザID及び端末IDは、テレビ会議へのログイン時において会議端末装置3〜6から送信される端末情報に含まれる。会議端末装置3では、自身がテレビ会議にログインしている状態で、他の会議端末装置4〜6から上述の端末情報を受信した場合に、端末情報に含まれるユーザID及び端末IDを抽出する。抽出されたユーザID及び端末IDは、ログインテーブル3111に記憶される。   As the user ID, ID information input via the keyboard 29 of the conference terminal device 3 at the time of login is stored. In the terminal ID, identification information for specifying the conference terminal devices 3 to 6 is stored. As the terminal ID, the MAC address or IP address of the conference terminal device 3 can be used. The user ID and the terminal ID are included in the terminal information transmitted from the conference terminal devices 3 to 6 when logging in to the video conference. The conference terminal device 3 extracts the user ID and the terminal ID included in the terminal information when it receives the above-described terminal information from the other conference terminal devices 4 to 6 while it is logged in to the video conference. . The extracted user ID and terminal ID are stored in the login table 3111.

図4に示す例では、ユーザID「A0001」にて特定される者(端末ID:0001)、ユーザID「B0001」にて特定される者(端末ID:0002)、ユーザID「C0001」にて特定される者(端末ID:0003)、ユーザID「D0001」にて特定される者(端末ID:0004)の合計4名がテレビ会議に参加した状態におけるログインテーブル3111が示されている。なお、端末ID:0001にて特定される会議端末装置が、図1における会議端末装置3に相当する。以下同様に、端末ID:0002にて特定される会議端末装置が会議端末装置4に相当する。端末ID:0003にて特定される会議端末装置が会議端末装置5に相当する。端末ID:0004にて特定される会議端末装置が会議端末装置6に相当する。   In the example shown in FIG. 4, the person specified by the user ID “A0001” (terminal ID: 0001), the person specified by the user ID “B0001” (terminal ID: 0002), and the user ID “C0001”. A login table 3111 in a state in which a total of four persons identified by the identified person (terminal ID: 0003) and the person identified by the user ID “D0001” (terminal ID: 0004) participated in the video conference is shown. Note that the conference terminal device identified by the terminal ID: 0001 corresponds to the conference terminal device 3 in FIG. Similarly, the conference terminal device specified by the terminal ID: 0002 corresponds to the conference terminal device 4. The conference terminal device specified by the terminal ID: 0003 corresponds to the conference terminal device 5. The conference terminal device identified by the terminal ID: 0004 corresponds to the conference terminal device 6.

図5を参照し、表示画像情報テーブル3121について説明する。表示画像情報テーブル3121には、「ユーザID」、撮影画像のファイル名(図中「撮影画像」に相当)、アバター画像のファイル名(図中「アバター画像」に相当)、撮影画像及びアバター画像の内いずれがディスプレイ28に表示されているかを示す「選択フラグ」、ディスプレイ28における撮影画像又はアバター画像の表示領域の「表示面積」、ディスプレイ28における撮影画像又はアバター画像の「表示場所」、ディスプレイ28における撮影画像又はアバター画像の表示領域の解像度(図中「表示領域パラメータ(解像度)」に相当)の情報が記憶される。   The display image information table 3121 will be described with reference to FIG. The display image information table 3121 includes a “user ID”, a file name of the photographed image (corresponding to “photographed image” in the figure), a file name of the avatar image (corresponding to “avatar image” in the figure), a photographed image, and an avatar image. "Selection flag" indicating which of the images is displayed on the display 28, "display area" of the display area of the captured image or avatar image on the display 28, "display location" of the captured image or avatar image on the display 28, display Information on the resolution of the display area of the captured image or avatar image in 28 (corresponding to “display area parameter (resolution)” in the figure) is stored.

「ユーザID」としては、撮影画像が撮影された会議端末装置4〜6を利用してテレビ会議に参加している会議参加者のID情報(ログイン時に入力されたID情報)が記憶される。「撮影画像」としては、他の会議端末装置4〜6から受信した撮影画像のファイル名が記憶される。「アバター画像」としては、撮影画像に基づいて作成されたアバター画像のファイル名が記憶される。「選択フラグ」としては、撮影画像又はアバター画像のうちいずれかを特定する為のフラグ情報が記憶される。図5に示す例では、選択フラグとしてアバター画像を特定する為のフラグ情報が記憶された状態として、「アバター画像」が示されている。   As the “user ID”, ID information (ID information input at the time of login) of a conference participant who is participating in a video conference using the conference terminal devices 4 to 6 in which the captured images are captured is stored. As the “captured image”, the file name of the captured image received from the other conference terminal devices 4 to 6 is stored. As the “avatar image”, the file name of the avatar image created based on the photographed image is stored. As the “selection flag”, flag information for specifying either a photographed image or an avatar image is stored. In the example illustrated in FIG. 5, “avatar image” is shown as a state in which flag information for specifying an avatar image is stored as a selection flag.

「表示面積」としては、ディスプレイ28における撮影画像又はアバター画像の表示領域の表示面積が、「縦方向の長さ×横方向の長さ」として記憶される。「表示場所」としては、撮影画像又はアバター画像をディスプレイ28に表示させるウィンドウの左上の位置の情報が、ディスプレイ28全体の左上を原点(0,0)とした場合における原点からの長さに基づいた座標情報として記憶される。「表示領域パラメータ(解像度)」としては、撮影画像又はアバター画像の表示領域の解像度が記憶される。   As the “display area”, the display area of the display area of the captured image or the avatar image on the display 28 is stored as “length in the vertical direction × length in the horizontal direction”. As the “display location”, information on the upper left position of the window for displaying the captured image or the avatar image on the display 28 is based on the length from the origin when the upper left of the entire display 28 is the origin (0, 0). Stored as coordinate information. As the “display area parameter (resolution)”, the resolution of the display area of the captured image or the avatar image is stored.

図5に示す例では、ユーザID:B0001(会議端末装置4)、ユーザID:C0001(会議端末装置5)、ユーザID:D0001(会議端末装置6)、の合計3つの「アバター画像」をディスプレイ28に表示させた状態の会議端末装置3の表示画像情報テーブル3121が示されている。これらのうち例えば会議端末装置4から受信した撮影画像のファイル名は「BBBB.cif」である。この撮影画像に基づいて作成されたアバター画像のファイル名は「BBBB.jpg」である。アバター画像は、表示面積「10cm×10cm」の大きさでディスプレイ28に表示されている。表示されるウィンドウの左上の位置は、ディスプレイ28の左上の位置と同一である。アバター画像が表示される表示領域の解像度は「256×256」である。   In the example shown in FIG. 5, a total of three “avatar images” of user ID: B0001 (conference terminal device 4), user ID: C0001 (conference terminal device 5), and user ID: D0001 (conference terminal device 6) are displayed. 28 shows a display image information table 3121 of the conference terminal device 3 in the state displayed on the screen 28. Among these, for example, the file name of the captured image received from the conference terminal device 4 is “BBBB.cif”. The file name of the avatar image created based on this photographed image is “BBBB.jpg”. The avatar image is displayed on the display 28 with a display area of “10 cm × 10 cm”. The upper left position of the displayed window is the same as the upper left position of the display 28. The resolution of the display area where the avatar image is displayed is “256 × 256”.

図6〜図9を参照し、会議端末装置3のCPU20にて実行される各種処理(撮影画像送信処理、撮影画像受信処理)について説明する。これらの処理は、会議端末装置3においてユーザがテレビ会議にログインし、テレビ会議を実行させるためのアプリケーションが起動された場合において、CPU20によって起動され実行される。なおこれらの処理は、所定の周期又は各々の処理に予め設定される優先順位に基づいて適宜スイッチングされ実行される。これによって、一方の処理が連続して実行され続けてしまって、他方の処理が実行されない状態を回避している。一方の処理が実行されている状態で他方の処理が実行される場合には、実行状態の処理は一旦中断される。そして他方の処理が代わりに実行される。中断された処理は、次の実行タイミングで、中断時点から処理を再開する。   Various processes (captured image transmission process and captured image reception process) executed by the CPU 20 of the conference terminal device 3 will be described with reference to FIGS. These processes are started and executed by the CPU 20 when a user logs in to the video conference in the conference terminal device 3 and an application for executing the video conference is started. Note that these processes are appropriately switched and executed based on a predetermined cycle or a priority set in advance for each process. This avoids a state where one process is continuously executed and the other process is not executed. When the other process is executed while one process is being executed, the process in the execution state is temporarily interrupted. The other process is executed instead. The interrupted process is restarted from the point of interruption at the next execution timing.

図6を参照し、撮影画像送信処理について説明する。撮影画像送信処理では、カメラ34にて撮影された撮影画像を、他の会議端末装置4〜6に対して送信する為の処理が実行される。   The captured image transmission process will be described with reference to FIG. In the captured image transmission process, a process for transmitting the captured image captured by the camera 34 to the other conference terminal devices 4 to 6 is executed.

図6に示すように、撮影画像送信処理が起動されると、カメラ34が稼働して会議参加者等を撮影している状態であるかが判断される(S11)。カメラ34が稼働しておらず、会議参加者等が撮影されていない場合には(S11:NO)、特段処理を行うことなくS11に戻り、継続してカメラ34の監視が実行される。   As shown in FIG. 6, when the photographed image transmission process is activated, it is determined whether the camera 34 is operating and photographing a conference participant or the like (S11). If the camera 34 is not in operation and no conference participants are photographed (S11: NO), the process returns to S11 without performing any special processing, and the camera 34 is continuously monitored.

カメラ34が稼働しており、会議参加者等が撮影されている状態である場合(S11:YES)、稼働中のカメラ34から撮影画像が取得される(S13)。ログインテーブル記憶領域311に記憶されているログインテーブル3111が参照され、テレビ会議にログインしている他の会議端末装置4〜6が特定される。そして取得された撮影画像が、テレビ会議にログインしている他の会議端末装置4〜6に対して送信される(S15)。次いで、次の撮影画像の送信タイミングまで待機する為に、所定時間(例えば1ms)待機される(S17)。所定時間が経過した後、S11に戻り、上述の処理が繰り返し実行される。このようにして、カメラ34が稼働中である場合には、撮影画像が会議端末装置4〜6に対して一定周期で繰り返し送信される。   When the camera 34 is operating and a conference participant or the like is being captured (S11: YES), a captured image is acquired from the operating camera 34 (S13). The login table 3111 stored in the login table storage area 311 is referred to, and the other conference terminal devices 4 to 6 logged in to the video conference are specified. And the acquired picked-up image is transmitted with respect to the other conference terminal devices 4-6 which have logged in to the video conference (S15). Next, in order to wait until the transmission timing of the next photographed image, a predetermined time (for example, 1 ms) is waited (S17). After a predetermined time has elapsed, the process returns to S11 and the above-described processing is repeatedly executed. In this way, when the camera 34 is in operation, the captured image is repeatedly transmitted to the conference terminal devices 4 to 6 at a constant period.

図7を参照し、撮影画像受信処理について説明する。撮影画像受信処理では、会議端末装置4〜6から撮影画像を受信した場合に、アバター画像を作成する。そして、撮影画像とアバター画像のうちいずれかを選択し、ディスプレイ28に表示させる。   The captured image reception process will be described with reference to FIG. In the captured image reception process, an avatar image is created when a captured image is received from the conference terminal devices 4 to 6. Then, one of the photographed image and the avatar image is selected and displayed on the display 28.

図7に示すように、撮影画像受信処理が起動されると、ネットワーク2を介して他の会議端末装置4〜6から撮影画像を受信したかが判断される(S21)。撮影画像を受信していない場合(S21:NO)、特段処理を行うことなくS21に戻り、継続して撮影画像の受信監視が実行される。   As shown in FIG. 7, when the captured image reception process is started, it is determined whether captured images are received from other conference terminal devices 4 to 6 via the network 2 (S21). When the captured image has not been received (S21: NO), the process returns to S21 without performing any special processing, and reception monitoring of the captured image is continuously performed.

撮影画像を受信した場合(S21:YES)、受信した撮影画像が、画像記憶領域313に記憶される(S23)。次いで、受信した撮影画像に関連する情報が、表示画像情報テーブル3121に記憶される(S25)。具体的には、受信した撮影画像に含まれている情報であって、送信元の会議端末装置4〜6を操作してテレビ会議にログインした会議参加者のユーザIDの情報が記憶される。また、受信した撮影画像のファイル名が記憶される。   When the captured image is received (S21: YES), the received captured image is stored in the image storage area 313 (S23). Next, information related to the received captured image is stored in the display image information table 3121 (S25). Specifically, it is information included in the received captured image, and information on user IDs of conference participants who log in to the video conference by operating the conference terminal devices 4 to 6 as the transmission source is stored. In addition, the file name of the received captured image is stored.

なお、既に同一ファイル名の撮影画像が受信されており、画像記憶領域313及び表示画像情報テーブル3121に同一ファイル名の撮影画像の情報が記憶されている場合には、記憶されているこれらの情報に受信した撮影画像の情報が上書きされ更新される。   In addition, when the picked-up image of the same file name has already been received and the information of the picked-up image of the same file name is stored in the image storage area 313 and the display image information table 3121, these stored information The received captured image information is overwritten and updated.

次いで、画像記憶領域313に記憶した撮影画像のうち人物の部分の画像(以下「人物画像」という。)が特定される(S27)。画像から人物画像を特定する為の方法としては、従来周知の様々な方法が使用可能である。例えば、以下の方法を使用することが可能である。はじめに、撮影画像の色、幾何学的な形状、濃淡パターン、動きなどがパラメータとして抽出される。次いで、予めHDD31のその他の情報記憶領域315に記憶された人物画像のパラメータのデータベースが参照される。そして、抽出された上述の各パラメータと、データベースに記憶されている人物画像のパラメータとのマッチング処理が実行される。必要に応じて、複数のパラメータの組み合わせによってマッチング処理が実行される。データベースに記憶されている人物画像のパラメータと良好に一致するパラメータが抽出された撮影画像の部分が特定される。特定された部分の画像が、人物画像として認識される。   Next, an image of a person portion (hereinafter referred to as “person image”) among the captured images stored in the image storage area 313 is specified (S27). As a method for specifying a person image from an image, various conventionally known methods can be used. For example, the following method can be used. First, the color, geometric shape, shading pattern, movement, etc. of the captured image are extracted as parameters. Next, a database of person image parameters stored in advance in the other information storage area 315 of the HDD 31 is referred to. Then, matching processing between the extracted parameters and the parameters of the person image stored in the database is executed. If necessary, the matching process is executed by a combination of a plurality of parameters. The portion of the photographed image from which the parameter that matches well with the parameter of the person image stored in the database is extracted is specified. The image of the identified part is recognized as a person image.

撮影画像から人物画像が特定された後、特定された人物画像に基づいてアバター画像を得る為の処理(アバター割当処理、図8参照)が実行される(S29)。   After the person image is specified from the photographed image, a process for obtaining an avatar image (avatar assignment process, see FIG. 8) based on the specified person image is executed (S29).

図8を参照し、アバター割当処理について説明する。アバター割当処理では、はじめに、S27(図7参照)において特定された人物画像のうち特に顔部分の特徴部分が抽出される(S41)。特徴部分を抽出する為の方法としては、従来周知の様々な方法が使用可能である。例えば、例えば、HarrisオペレータやSIFT(Scale Invariant Feature Transform)などのアルゴリズムが使用可能である。   The avatar assignment process will be described with reference to FIG. In the avatar assignment process, first, in particular, the feature portion of the face portion is extracted from the person image specified in S27 (see FIG. 7) (S41). As a method for extracting the feature portion, various conventionally known methods can be used. For example, an algorithm such as a Harris operator or SIFT (Scale Invariant Feature Transform) can be used.

次いで、抽出された顔部分の特徴部分に基づき、人物画像をアバター画像に変換する為の処理が実行される(S43)。具体的には、例えば以下の方法が使用可能である。抽出された特徴部分のうち、表情を十分に表わすことが可能な部分(眉毛、目、口など)と、顔の輪郭を表す部分とが選択される。その他の特徴部分は削除される。選択された特徴部分についてエッジ検出がなされる。検出されたエッジ部分が線画に変換される。選択された特徴部分の色が検出される。変換された線画に、検出された色が着色される。   Next, a process for converting a person image into an avatar image is executed based on the extracted feature part of the face part (S43). Specifically, for example, the following method can be used. Of the extracted feature parts, a part (eyebrows, eyes, mouth, etc.) that can sufficiently express the facial expression and a part that represents the outline of the face are selected. Other features are deleted. Edge detection is performed on the selected feature portion. The detected edge portion is converted into a line drawing. The color of the selected feature is detected. The detected line is colored with the detected line drawing.

なお、人物画像をアバター画像に変換する方法は上述の方法に限定されず、従来周知の様々な方法が採用可能である。例えは以下の方法が使用可能である。予め複数パターンのアバター画像がHDD31のその他の情報記憶領域315に記憶される。既述の方法にて、表情を十分に表わすことが可能な部分と、顔の輪郭を現す部分とが特徴部分として選択される。選択された特徴部分と、その他の情報記憶領域315に記憶されているアバター画像の特徴部分とのマッチング処理が実行される。双方が最も類似する場合のアバター画像が選択される。詳細は、第一の変形例において説明する。   In addition, the method of converting a person image into an avatar image is not limited to the above-mentioned method, Various conventionally well-known methods are employable. For example, the following methods can be used. A plurality of patterns of avatar images are stored in the other information storage area 315 of the HDD 31 in advance. By the above-described method, a part that can sufficiently express an expression and a part that expresses the outline of a face are selected as characteristic parts. A matching process between the selected feature portion and the feature portion of the avatar image stored in the other information storage area 315 is executed. The avatar image when both are most similar is selected. Details will be described in a first modification.

次いで、抽出された顔部分の特徴部分に基づき、人物画像の表情が特定される(S45)。表情を特定する方法としては、従来周知の様々な方法が使用可能である。例えば以下の方法が使用可能である。抽出された特徴部分のうち、表情を十分に表わすことが可能な部分(眉毛、目、口など)が選択される。「怒り」「嫌悪」「恐怖」「幸福」「悲しみ」「驚き」の表情に特有の特徴部分の傾向と、抽出された特徴部分の傾向とが比較されることによって、いずれかの表情が人物の表情として特定される。例えば、抽出した特徴部分のうち「眉毛」が引き上げられ湾曲し盛り上がっている場合には、人物の表情として「驚き」が特定される。   Next, the facial expression of the person image is specified based on the extracted feature portion of the face portion (S45). Various methods known in the art can be used as a method for specifying a facial expression. For example, the following method can be used. Of the extracted feature portions, portions (eyebrows, eyes, mouth, etc.) that can sufficiently express the facial expression are selected. By comparing the tendency of the characteristic part peculiar to the expressions of "anger", "disgust", "fear", "happiness", "sadness", and "surprise" with the tendency of the extracted characteristic part, one of the facial expressions is a person Specified as a facial expression. For example, when “eyebrows” are pulled up and curved in the extracted feature portion, “surprise” is specified as the facial expression of the person.

次いで、特定された表情に基づき、S43にて得られたアバター画像が変形される(S47)。そしてアバター割当処理は終了し、撮影画像受信処理(図7参照)に戻る。   Next, the avatar image obtained in S43 is deformed based on the specified facial expression (S47). Then, the avatar assignment process ends, and the process returns to the captured image reception process (see FIG. 7).

図7に示すように、アバター割当処理が終了した後、撮影画像受信処理では、アバター割当処理によって得られたアバター画像が、HDD31の画像記憶領域313に記憶される。併せて、表示画像情報テーブル記憶領域312に得られたアバター画像のファイル名が記憶される(S31)。次いで、撮影画像又はアバター画像をディスプレイに表示させるための処理(表示処理、図9参照)が実行される(S35)。   As shown in FIG. 7, after the avatar assignment process is completed, in the captured image reception process, the avatar image obtained by the avatar assignment process is stored in the image storage area 313 of the HDD 31. In addition, the file name of the avatar image obtained in the display image information table storage area 312 is stored (S31). Next, a process for displaying the captured image or the avatar image on the display (display process, see FIG. 9) is executed (S35).

図9を参照し、表示処理について説明する。表示処理では、表示領域の条件に基づいて、受信した撮影画像、又は、撮影画像に基づいて作成されたアバター画像のうちいずれかを選択する。そして、選択された画像がディスプレイ28に表示される。   The display process will be described with reference to FIG. In the display process, either the received captured image or an avatar image created based on the captured image is selected based on the condition of the display area. Then, the selected image is displayed on the display 28.

図9に示すように、表示処理では、はじめに表示画像情報テーブル3121が参照される。そして、会議端末装置4〜6から受信している撮影画像の数に基づいて、各々の撮影画像をディスプレイ28に表示させる場合における表示面積及び表示場所が決定される。決定された表示面積及び表示場所は、表示画像情報テーブル3121に記憶される(S51)。   As shown in FIG. 9, in the display process, the display image information table 3121 is referred to first. Then, based on the number of captured images received from the conference terminal devices 4 to 6, the display area and display location when each captured image is displayed on the display 28 are determined. The determined display area and display location are stored in the display image information table 3121 (S51).

例えば、図5に示す表示画像情報テーブル3121の情報に基づき、表示面積及び表示場所が決定される場合について具体的に説明する。表示画像情報テーブル3121に記憶されている撮影画像の合計は3つであるので、ディスプレイ28における表示領域は、ディスプレイ28の表示領域全体を四分割した場合の一領域とされる。決定された表示領域の縦方向の長さ(10cm)及び横方向の長さ(10cm)が、表示面積を示す情報として表示画像情報テーブル3121に記憶される。   For example, the case where the display area and the display location are determined based on information in the display image information table 3121 shown in FIG. 5 will be specifically described. Since the total number of captured images stored in the display image information table 3121 is three, the display area on the display 28 is one area when the entire display area of the display 28 is divided into four. The determined vertical length (10 cm) and horizontal length (10 cm) of the display area are stored in the display image information table 3121 as information indicating the display area.

次いで、表示場所が決定される。表示場所としては、上述において決定されたディスプレイ28の分割領域の其々の左上の座標が、其々の撮影画像に順番に割り当てられる。図5に示す例では、四分割したディスプレイ28の表示領域のうち左上の表示領域の左上の座標(0,0)が、撮影画像「BBBB.cif」に割り当てられる。四分割したディスプレイ28の表示領域のうち右上の表示領域の左上の座標(10,0)が、撮影画像「CCCC.cif」に割り当てられる。四分割したディスプレイ28の表示領域のうち左下の表示領域の左上の座標(0,−10)が、撮影画像「DDDD.cif」に割り当てられる。割り当てられた其々の座標情報が、表示画像情報テーブル3121の表示場所として記憶される。   Next, the display location is determined. As the display location, the upper left coordinates of the divided areas of the display 28 determined in the above are sequentially assigned to each captured image. In the example shown in FIG. 5, the upper left coordinate (0, 0) of the upper left display area in the display area of the display 28 divided into four is assigned to the photographed image “BBBB.cif”. The upper left coordinate (10, 0) of the upper right display area in the display area of the display 28 divided into four is assigned to the captured image “CCCC.cif”. The upper left coordinates (0, −10) of the lower left display area in the display area of the display 28 divided into four are assigned to the photographed image “DDDD.cif”. The assigned coordinate information is stored as the display location of the display image information table 3121.

なお本実施の形態では、撮影画像の合計が3つである場合の例について説明したが、例えば、撮影画像の合計が1つである場合には、ディスプレイ28の表示領域全体が表示領域とされる。撮影画像の合計が2つである場合には、ディスプレイ28の表示領域全体を二分割した場合の一領域とされる。撮影画像の合計が4である場合には、ディスプレイ28の表示領域全体を四分割した場合の一領域とされる。   In the present embodiment, an example in which the total number of captured images is three has been described. However, for example, when the total number of captured images is one, the entire display area of the display 28 is set as the display area. The When the total number of photographed images is two, the entire display area of the display 28 is divided into two areas. When the total number of photographed images is 4, the entire display area of the display 28 is set as one area when divided into four.

なお本実施の形態では、上述のように表示画像情報テーブル3121に記憶されている撮影画像の合計数に基づき、表示面積及び表示場所を決定していたが、本発明はこの方法に限定されず、他の方法が使用可能である。例えば、ログインテーブル3111(図4参照)に記憶されているユーザIDの数から、自身のユーザIDを除いた場合の数が算出される。そして、算出された数に基づき、上述と同様の方法で、表示面積及び表示場所を特定してもよい。   In the present embodiment, the display area and the display location are determined based on the total number of captured images stored in the display image information table 3121 as described above, but the present invention is not limited to this method. Other methods can be used. For example, the number of user IDs is calculated from the number of user IDs stored in the login table 3111 (see FIG. 4). Then, based on the calculated number, the display area and the display location may be specified by the same method as described above.

次に、S51において決定された表示面積及び表示場所の情報に基づいて、ディスプレイ28の表示領域のうち該当する領域部分の解像度が取得される(S53)。算出された解像度は、表示画像情報テーブル3121の表示領域パラメータ(解像度)として記憶される。   Next, based on the display area and display location information determined in S51, the resolution of the corresponding area portion of the display area of the display 28 is acquired (S53). The calculated resolution is stored as a display area parameter (resolution) in the display image information table 3121.

次いで、表示画像情報テーブル3121のうち上述にて得られた表示面積が読みだされ(S55)、次いで表示画像情報テーブル3121のうち上述にて得られた表示領域パラメータ(解像度)が読みだされる(S57)。以下読みだされた表示面積を「第一パラメータ」と呼び、読みだされた解像度を「第二パラメータ」と呼ぶ。   Next, the display area obtained above is read out from the display image information table 3121 (S55), and then the display area parameter (resolution) obtained above is read out from the display image information table 3121. (S57). Hereinafter, the read display area is referred to as “first parameter”, and the read resolution is referred to as “second parameter”.

呼び出された第一パラメータ及び第二パラメータに基づいて、受信した撮影画像、又は、受信した撮影画像に基づいて得られたアバター画像のうちいずれかが、ディスプレイ28に表示させる画像として選択される。はじめに、第一パラメータが所定の閾値である第一閾値以上であるかが判断される(S59)。第一閾値としては、撮影画像を視認性よく表示させるために必要な最低限の表示面積(例えば15×15cm)が選択される。第一パラメータが第一閾値未満である場合(S59:NO)、撮影画像を表示させた場合に視認性が悪くなってしまう表示条件であるので、ディスプレイ28に表示させる画像としてアバター画像が選択される(S65)。そしてS67に移行される。   Based on the called first parameter and second parameter, either the received captured image or the avatar image obtained based on the received captured image is selected as an image to be displayed on the display 28. First, it is determined whether or not the first parameter is equal to or greater than a first threshold that is a predetermined threshold (S59). As the first threshold, a minimum display area (for example, 15 × 15 cm) necessary for displaying a captured image with high visibility is selected. When the first parameter is less than the first threshold (S59: NO), the display condition is such that the visibility is deteriorated when the captured image is displayed. Therefore, the avatar image is selected as the image to be displayed on the display 28. (S65). Then, the process proceeds to S67.

一方、第一パラメータが第一閾値以上である場合(S59:YES)、次いで第二パラメータが所定の閾値である第二閾値以上であるかが判断される(S61)。第二閾値としては、撮影画像を視認性よく表示させるために必要な最低限の解像度(例えば352×288ピクセル)が選択される。第二パラメータが第二閾値未満である場合(S61:NO)、撮影画像を表示させた場合に視認性が悪くなってしまう表示条件であるので、ディスプレイ28に表示させる画像としてアバター画像が選択される(S65)。そしてS67に移行される。   On the other hand, when the first parameter is equal to or greater than the first threshold (S59: YES), it is then determined whether the second parameter is equal to or greater than a second threshold that is a predetermined threshold (S61). As the second threshold value, a minimum resolution (for example, 352 × 288 pixels) necessary for displaying a captured image with high visibility is selected. When the second parameter is less than the second threshold (S61: NO), the display condition is such that visibility is deteriorated when the captured image is displayed, and thus an avatar image is selected as an image to be displayed on the display 28. (S65). Then, the process proceeds to S67.

第一パラメータが第一閾値以上であり、且つ、第二パラメータが第二閾値以上である場合には(S61:YES)、撮影画像を視認性よく表示させることが可能な表示条件であるので、ディスプレイ28に表示させる画像として撮影画像が選択される(S63)。そしてS67に移行される。   When the first parameter is greater than or equal to the first threshold value and the second parameter is greater than or equal to the second threshold value (S61: YES), it is a display condition that allows a captured image to be displayed with good visibility. A captured image is selected as an image to be displayed on the display 28 (S63). Then, the process proceeds to S67.

S67では、表示画像情報テーブル3121の情報が更新される。アバター画像が選択された場合には、表示画像情報テーブル3121の選択フラグとして、アバター画像が選択されたことを示す情報が記憶される。撮影画像が選択された場合には、表示画像情報テーブル3121の選択フラグとして、撮影画像が選択されたことを示す情報が記憶される(S67)。そして、表示画像情報テーブル3121のうち表示面積、表示場所、及び選択フラグの情報に基づいて、選択された画像のファイル名とその表示面積、表示場所が決定される。決定されたファイル名に基づいて画像記憶領域313から該当するファイルが読みだされ、ディスプレイ28の所望の位置に表示される(S69)。そして表示処理を終了し、撮影画像受信処理(図7参照)に戻る。   In S67, the information in the display image information table 3121 is updated. When an avatar image is selected, information indicating that the avatar image is selected is stored as a selection flag in the display image information table 3121. When the photographed image is selected, information indicating that the photographed image is selected is stored as a selection flag in the display image information table 3121 (S67). The file name of the selected image, its display area, and display location are determined based on the display area, display location, and selection flag information in the display image information table 3121. Based on the determined file name, the corresponding file is read out from the image storage area 313 and displayed at a desired position on the display 28 (S69). Then, the display process ends, and the process returns to the captured image reception process (see FIG. 7).

図7に示すように、撮影画像受信処理では、表示処理において、撮影画像及びアバター画像のうちいずれかがディスプレイ28に表示された後、S21に戻る。そして上述の処理が繰り返し実行される。ここで撮影画像送信処理(図6参照)において説明したように、撮影画像は、繰り返し所定の周期で会議端末装置4〜6から送信される。撮影画像受信処理においては、撮影画像が受信される度に、ディスプレイ28に表示された状態の画像が、受信した撮影画像又はアバター画像によって更新される。   As shown in FIG. 7, in the captured image reception process, either one of the captured image and the avatar image is displayed on the display 28 in the display process, and then the process returns to S21. Then, the above process is repeatedly executed. Here, as described in the captured image transmission process (see FIG. 6), captured images are repeatedly transmitted from the conference terminal devices 4 to 6 at a predetermined cycle. In the captured image reception process, every time a captured image is received, the image displayed on the display 28 is updated with the received captured image or avatar image.

図10及び図11を参照し、上述の処理の結果ディスプレイ28に表示される表示画面の一例について説明する。   With reference to FIGS. 10 and 11, an example of a display screen displayed on the display 28 as a result of the above-described processing will be described.

図10では、テレビ会議にログインしている会議端末装置が、会議端末装置3を除き一台のみであり、この会議端末装置からのみ撮影画像を受信している場合におけるディスプレイ28の表示画面の一例が示されている。この場合、表示画像情報テーブル3121に記憶されている撮影画像は唯一つである。従って、ディスプレイ28の表示領域全体が、画像を表示させる表示領域とされ(S51、図9参照)、この面積が表示面積として表示画像情報テーブル3121に記憶された状態となっている。またこの条件では、第一パラメータ(表示面積)は第一閾値以上となり(S59:YES、図9参照)、第二パラメータ(解像度)は第二閾値以上となる(S61:YES、図9参照)。従って、ディスプレイ28に表示させる画像として撮影画像が選択される(S63、図9参照)。その結果、図10に示すように、選択された撮影画像41がディスプレイ28に表示される(S69、図9参照)。   In FIG. 10, there is only one conference terminal device logged in to the video conference except for the conference terminal device 3, and an example of a display screen of the display 28 when a captured image is received only from the conference terminal device. It is shown. In this case, there is only one captured image stored in the display image information table 3121. Accordingly, the entire display area of the display 28 is set as a display area for displaying an image (S51, see FIG. 9), and this area is stored in the display image information table 3121 as a display area. Under this condition, the first parameter (display area) is equal to or greater than the first threshold (S59: YES, see FIG. 9), and the second parameter (resolution) is equal to or greater than the second threshold (S61: YES, see FIG. 9). . Therefore, a photographed image is selected as an image to be displayed on the display 28 (S63, see FIG. 9). As a result, as shown in FIG. 10, the selected captured image 41 is displayed on the display 28 (S69, see FIG. 9).

これに対し図11では、テレビ会議にログインしている通話端末装置が、会議端末装置3を除き三台(例えば、会議端末装置4〜6)であり、これらの会議端末装置4〜6のすべてから撮影画像を受信している場合におけるディスプレイ28の表示画像の一例が示されている。この場合、表示画像情報テーブル3121には、図5にて示される例のように、合計3つの撮影画像が記憶される。従って、ディスプレイ28の表示領域全体を四分割した状態での其々の領域が、其々の画像を表示させる表示領域とされ(S51、図9参照)、この面積が表示面積として撮影画像のファイル名に対応付けられ、表示画像情報テーブル3121に記憶された状態となっている。   On the other hand, in FIG. 11, the call terminal devices logged in to the video conference are three units (for example, the conference terminal devices 4 to 6) except for the conference terminal device 3, and all of these conference terminal devices 4 to 6 are used. An example of a display image on the display 28 in a case where a captured image is received from is shown. In this case, a total of three captured images are stored in the display image information table 3121 as in the example shown in FIG. Therefore, each area in a state where the entire display area of the display 28 is divided into four is set as a display area for displaying each image (see S51, FIG. 9), and this area is used as a display area and is a captured image file. It is associated with the name and stored in the display image information table 3121.

また上述の条件では、第一パラメータ(表示面積)が第一閾値未満であるか(S59:NO、図9参照)、又は、第二パラメータ(解像度)が第二閾値未満(S61:NO、図9参照)となる。この場合、撮影画像をディスプレイ28に表示させた場合に視認性が悪化してしまうので、アバター画像がディスプレイ28に表示させる画像として選択される(S65、図9参照)。そして図11に示すように、選択されたアバター画像42、43、44がディスプレイ28に表示される(S69、図9参照)。   Also, under the above conditions, is the first parameter (display area) less than the first threshold (S59: NO, see FIG. 9), or the second parameter (resolution) is less than the second threshold (S61: NO, FIG. 9). In this case, since the visibility deteriorates when the captured image is displayed on the display 28, the avatar image is selected as the image to be displayed on the display 28 (S65, see FIG. 9). Then, as shown in FIG. 11, the selected avatar images 42, 43, and 44 are displayed on the display 28 (S69, see FIG. 9).

なお、図11に示す例のうちアバター画像42が、会議端末装置4から送信された撮影画像「BBBB.cif」に基づいて作成されたアバター画像「BBBB.jpg」を示している。以下同様に、アバター画像43が、会議端末装置5から送信された撮影画像「CCCC.cif」に基づいて作成されたアバター画像「CCCC.jpg」を示している。
アバター画像44が、会議端末装置6から送信された撮影画像「DDDD.cif」に基づいて作成されたアバター画像「DDDD.jpg」を示している。
In the example illustrated in FIG. 11, the avatar image 42 indicates the avatar image “BBBB.jpg” created based on the captured image “BBBB.cif” transmitted from the conference terminal device 4. Similarly, the avatar image 43 indicates an avatar image “CCCC.jpg” created based on the photographed image “CCCC.cif” transmitted from the conference terminal device 5.
The avatar image 44 indicates an avatar image “DDDD.jpg” created based on the photographed image “DDDD.cif” transmitted from the conference terminal device 6.

またアバター画像は、受信された撮影画像のうち人物画像が抽出され(S27、図7参照)、顔部分の特徴や表情に基づいて得られるものである(図8参照)。従って表示されるアバター画像は、基となる撮影画像に含まれる人物の表情を反映させたものとなる。図11に示す例では、アバター画像42では微笑んだ表情が示され、アバター画像43では笑った表情が示され、アバター画像44では泣いた表情が示されている。   The avatar image is obtained based on the characteristics and facial expressions of the face portion (see FIG. 8), in which a person image is extracted from the received photographed image (S27, see FIG. 7). Accordingly, the displayed avatar image reflects the facial expression of the person included in the base captured image. In the example shown in FIG. 11, the avatar image 42 shows a smiling expression, the avatar image 43 shows a smiling expression, and the avatar image 44 shows a crying expression.

なお、会議端末装置4〜6からは繰り返し所定の周期で撮影画像が送信される。会議端末装置3では、これらの撮影画像を其々受信する。そして受信した撮影画像に基づいてアバター画像が作成され、ディスプレイ28に表示される。従って、受信した撮影画像に含まれる表情が変化した場合には、アバター画像の表情も撮影画像の変化に合わせて変化する。   The conference terminal devices 4 to 6 repeatedly transmit captured images at a predetermined cycle. The conference terminal device 3 receives these captured images respectively. An avatar image is created based on the received photographed image and displayed on the display 28. Therefore, when the facial expression included in the received captured image changes, the facial expression of the avatar image also changes in accordance with the change of the captured image.

以上説明したように、本実施の形態における会議端末装置3では、他の会議端末装置4〜6から受信した撮影画像に基づいて、アバター画像が作成される。そして、ディスプレイに28に表示させた場合に視認性のよい画像をいずれかから選択し、選択した画像をディスプレイ28に表示させる。これによって会議参加者は、より視認性の良い画像を見ながらテレビ会議を行うことが可能となる。   As described above, in the conference terminal device 3 in the present embodiment, an avatar image is created based on the captured images received from the other conference terminal devices 4 to 6. Then, when displayed on the display 28, an image with good visibility is selected from any one, and the selected image is displayed on the display 28. As a result, the conference participants can hold a video conference while viewing images with better visibility.

なお、本発明は上記実施の形態に限定されるものではなく、種々の変更が可能である。上述の実施の形態では、第二パラメータとして表示領域の解像度を取得し、第一パラメータ(表示面積)と第二パラメータ(解像度)とに基づいて、ディスプレイ28に表示させる画像を選択していた。しかしながら本発明はこの方法に限定されない。従って例えば、第一パラメータ(表示面積)のみに基づいて、ディスプレイ28に表示させる画像を選択してもよい。   In addition, this invention is not limited to the said embodiment, A various change is possible. In the above-described embodiment, the resolution of the display area is acquired as the second parameter, and the image to be displayed on the display 28 is selected based on the first parameter (display area) and the second parameter (resolution). However, the present invention is not limited to this method. Therefore, for example, an image to be displayed on the display 28 may be selected based on only the first parameter (display area).

また、上記実施の形態では、第二パラメータとして解像度を取得し、解像度に基づいて、ディスプレイ28に表示させる画像を選択していた。しかしながら本発明はこの方法に限定されない。例えば、解像度の代わりに表示領域の明度及び彩度のうち少なくともいずれかを取得して第二パラメータとしてもよい。そして、第一パラメータ(表示面積)と第二パラメータ(明度及び彩度のうち少なくともいずれか)とに基づいて、ディスプレイ28に表示させる画像を選択してもよい。これによって、表示領域の明度及び彩度に最適な画像を、撮影画像及びアバター画像のうちいずれかから選択し、ディスプレイ28に表示させることが可能となる。なお、明度を判定する場合に用いられる第二閾値としては例えば30%という値が使用される。彩度を判定する場合に用いられる第二閾値としては例えば30%という値が使用される。   Moreover, in the said embodiment, the resolution was acquired as a 2nd parameter and the image displayed on the display 28 was selected based on the resolution. However, the present invention is not limited to this method. For example, instead of the resolution, at least one of brightness and saturation of the display area may be acquired and used as the second parameter. Then, an image to be displayed on the display 28 may be selected based on the first parameter (display area) and the second parameter (at least one of brightness and saturation). As a result, an image optimal for the brightness and saturation of the display area can be selected from either the photographed image or the avatar image and displayed on the display 28. Note that, for example, a value of 30% is used as the second threshold value used when determining the brightness. For example, a value of 30% is used as the second threshold value used when determining the saturation.

上述の実施の形態では、受信した撮影画像の数に応じてディスプレイ28に表示させる場合の表示面積及び表示場所を決定し、決定したこれらの情報に基づいて画像を表示させていた。しかしながら本発明はこの表示方法に限定されない。従って、一旦ディスプレイ28に表示された状態の画像に対し、会議参加者がキーボード29やマウス27を操作することによって、画像の大きさや表示場所を変更できるような構成としてもよい。なお、画像の大きさや表示場所が変更された場合、表示画像情報テーブル3121における表示面積及び表示場所が、操作内容に基づき変更される。従って、画像の大きさや表示場所が変更された場合であっても、変更後の画像の第一パラメータ(表示面積)及び第二パラメータ(解像度)に基づき、撮影画像及びアバター画像のうち視認性の良い画像が選択される。これによってユーザは、視認性のより画像を見つつテレビ会議を行うことが可能となる。   In the above-described embodiment, the display area and the display location for display on the display 28 are determined according to the number of received captured images, and the image is displayed based on the determined information. However, the present invention is not limited to this display method. Accordingly, a configuration may be adopted in which the size and display location of the image can be changed by the conference participant operating the keyboard 29 and the mouse 27 on the image once displayed on the display 28. When the image size or display location is changed, the display area and display location in the display image information table 3121 are changed based on the operation content. Therefore, even when the image size or the display location is changed, the visibility of the captured image and the avatar image is changed based on the first parameter (display area) and the second parameter (resolution) of the image after the change. A good image is selected. As a result, the user can hold a video conference while viewing an image with high visibility.

なお上述のように、ディスプレイ28に表示されている画像の大きさや表示場所が変更された結果、表示画像情報テーブル3121のうち表示面積や表示場所、及び解像度の値が更新された場合、以降のS51(図9参照)の処理(記憶されている撮影画像数に基づいた表示面積や表示場所の決定処理)は行われないものとする。これによって、変更後の表示状態が維持される。   As described above, when the display area, the display location, and the resolution value are updated in the display image information table 3121 as a result of changing the size and the display location of the image displayed on the display 28, It is assumed that the processing of S51 (see FIG. 9) (display area and display location determination processing based on the number of stored captured images) is not performed. Thereby, the display state after the change is maintained.

なお、新たに撮影画像を受信して表示画像情報テーブル3121に情報が記憶された場合には、S51(図9参照)の処理が再開される。これによって、受信した撮影画像の数が増加した場合に、撮影画像が其々重なり合ってしまわないようにディスプレイ28に表示させることが可能となる。   If a new captured image is received and information is stored in the display image information table 3121, the process of S51 (see FIG. 9) is resumed. As a result, when the number of received captured images increases, the captured images can be displayed on the display 28 so as not to overlap each other.

上述の実施の形態では、撮影画像送信処理(図6参照)において、取得された撮影画像が、テレビ会議にログインしている他の会議端末装置4〜6に対して送信されていた(S15、図6参照)。また撮影画像受信処理(図7参照)において、他の会議端末装置4〜6から送信された撮影画像を受信した(S21、図7参照)。しかしながら本発明はこの構成に限定されず、他の構成であってもよい。例えば、テレビ会議全体を制御するMCU(Multipoint Control Unit)がネットワーク2に接続されている場合には、撮影画像送信処理(図6参照)において、MCUに対して撮影画像を送信し、撮影画像受信処理(図7参照)において、MCUから撮影画像を受信する構成としてもよい。   In the above-described embodiment, in the captured image transmission process (see FIG. 6), the acquired captured image is transmitted to the other conference terminal devices 4 to 6 logged in to the video conference (S15, (See FIG. 6). In the captured image reception process (see FIG. 7), the captured images transmitted from the other conference terminal devices 4 to 6 were received (S21, see FIG. 7). However, the present invention is not limited to this configuration and may have other configurations. For example, when an MCU (Multipoint Control Unit) that controls the entire video conference is connected to the network 2, the captured image is transmitted to the MCU and received in the captured image transmission process (see FIG. 6). In the processing (see FIG. 7), a configuration may be adopted in which a captured image is received from the MCU.

上述の実施の形態では、他の会議端末装置4〜6から受信した撮影画像に基づいてアバター画像が作成されていた。しかしながら本発明はこの方法に限定されない。例えば、予め複数のアバター画像をHDD31に記憶しておく。そして、撮影画像に基づいて一のアバター画像を選択することによって、撮影画像に対応するアバター画像を決定してもよい。以下、本発明の第一の変形例について説明する。
<第一の変形例>
In the above-described embodiment, the avatar image is created based on the captured images received from the other conference terminal devices 4 to 6. However, the present invention is not limited to this method. For example, a plurality of avatar images are stored in the HDD 31 in advance. And you may determine the avatar image corresponding to a picked-up image by selecting one avatar image based on a picked-up image. Hereinafter, a first modification of the present invention will be described.
<First modification>

本発明の第一の変形例におけるアバター割当処理について、図12を参照して説明する。なお、第一の変形例では、HDD31のその他の情報記憶領域315に複数のアバター画像が記憶されている。例えば、「性別」「髪型」「表情」「顔の輪郭」等が其々異なるアバター画像が、その他の情報記憶領域315に記憶される。なお、テレビ会議システム1の構成、会議端末装置3〜6の電気的構成、HDD31の記憶領域、CPU20にて実行される各種処理のうち、撮影画像受信処理を除く処理については、上述した実施形態と同様であるので、以下においては説明を省略又は簡略している。   The avatar assignment process in the first modification of the present invention will be described with reference to FIG. In the first modification, a plurality of avatar images are stored in the other information storage area 315 of the HDD 31. For example, avatar images having different “sex”, “hairstyle”, “expression”, “face outline” and the like are stored in the other information storage area 315. Of the configuration of the video conference system 1, the electrical configuration of the conference terminal devices 3 to 6, the storage area of the HDD 31, and various processes executed by the CPU 20, the processes other than the captured image reception process are described above. In the following, the description is omitted or simplified.

撮影画像受信処理(図7参照)においてアバター割当処理(S29参照)が呼び出されると、図12に示すように、はじめに、S27(図7参照)において特定された人物画像のうち特に顔部分の特徴部分が抽出される(S191)。次いで、抽出された顔部分の特徴部分に基づき、「性別」「髪型」「表情」「顔の輪郭」等が判断される。そして、判断されたこれらのパラメータと一致するパラメータを有するアバター画像が、その他の情報記憶領域315から選択される(S193)。   When the avatar assignment process (see S29) is called in the captured image reception process (see FIG. 7), as shown in FIG. 12, first, in particular, the feature of the face portion in the human image specified in S27 (see FIG. 7). A part is extracted (S191). Next, based on the extracted feature portion of the face portion, “sex”, “hairstyle”, “expression”, “face outline”, and the like are determined. Then, an avatar image having parameters that match these determined parameters is selected from the other information storage area 315 (S193).

次いで、抽出された顔部分の特徴部分に基づき、人物画像の表情が特定される(S195)。次いで、特定された表情に基づき、S193にて得られたアバター画像が変形される(S197)。そしてアバター割当処理は終了し、撮影画像受信処理(図7参照)に戻る。   Next, the facial expression of the person image is specified based on the extracted feature portion of the face portion (S195). Next, the avatar image obtained in S193 is deformed based on the specified facial expression (S197). Then, the avatar assignment process ends, and the process returns to the captured image reception process (see FIG. 7).

以上のように、予め複数のアバター画像を準備しておき、一のアバター画像を選択することによって、撮影画像にアバター画像を割り当てる。これによって、アバター画像を作成する為に必要な処理及び時間を抑制できる。撮影画像の人物画像の表情が変化した場合に、迅速に表情の変化をアバター画像に反映させることができる。   As described above, a plurality of avatar images are prepared in advance, and an avatar image is assigned to a captured image by selecting one avatar image. Thereby, processing and time required for creating an avatar image can be suppressed. When the expression of the person image in the photographed image changes, the change in expression can be quickly reflected in the avatar image.

上述の実施の形態では、第一パラメータが第一閾値以上であり、第二パラメータが第二閾値以上である場合に、ディスプレイ28に表示させる画像として撮影画像を選択していた。また、第一パラメータが第一閾値未満であるか、又は、第二パラメータが第二閾値未満である場合に、ディスプレイ28に表示させる画像としてアバター画像を選択していた。しかしながら本発明はこの選択方法に限定されない。以下、本発明の第二の変形例について説明する。
<第二の変形例>
In the above-described embodiment, when the first parameter is equal to or greater than the first threshold and the second parameter is equal to or greater than the second threshold, the captured image is selected as an image to be displayed on the display 28. In addition, when the first parameter is less than the first threshold value or the second parameter is less than the second threshold value, an avatar image is selected as an image to be displayed on the display 28. However, the present invention is not limited to this selection method. Hereinafter, a second modification of the present invention will be described.
<Second modification>

本発明の第二の変形例について、図13を参照して説明する。第二の変形例では、第一パラメータが所定の時間(第一時間)以上連続して第一閾値以上であり、且つ、第二パラメータが所定の時間(第二時間)以上連続して第二閾値以上である場合に、撮影画像が選択される。第一パラメータが第一閾値以上となる状態が第一時間以上連続しないか、又は、第二パラメータが第二閾値上となる状態が第二時間以上連続しない場合に、アバター画像が選択される。これによって、ディスプレイ28に表示される画像が撮影画像とアバター画像とで頻繁に切り替わってしまうことを防止する。   A second modification of the present invention will be described with reference to FIG. In the second modification, the first parameter is continuously greater than or equal to the first threshold for a predetermined time (first time) and the second parameter is continuously greater than or equal to the predetermined time (second time). When the value is equal to or greater than the threshold value, the captured image is selected. The avatar image is selected when the state where the first parameter is equal to or higher than the first threshold does not continue for the first time or when the state where the second parameter is higher than the second threshold is not continuous for the second time or longer. This prevents the image displayed on the display 28 from frequently switching between the captured image and the avatar image.

図13を参照し、第二の変形例における表示処理について説明する。なお、テレビ会議システム1の構成、会議端末装置3〜6の電気的構成、HDD31の記憶領域、CPU20にて実行される表示画像送信処理、及び、表示処理を除く表示画像受信処理については、上述した実施形態と同様であるので、以下においては説明を省略又は簡略している。図13に示す表示処理は、テレビ会議を実行させるためのアプリケーションが起動された場合において、CPU20によって起動される表示画像受信処理から呼び出される。   With reference to FIG. 13, the display process in a 2nd modification is demonstrated. The configuration of the video conference system 1, the electrical configuration of the conference terminal devices 3 to 6, the storage area of the HDD 31, the display image transmission process executed by the CPU 20, and the display image reception process excluding the display process are described above. Therefore, the description is omitted or simplified below. The display process shown in FIG. 13 is called from the display image reception process activated by the CPU 20 when an application for executing a video conference is activated.

図13に示すように、第二の変形例における表示処理では、はじめに表示画像情報テーブル3121が参照され、表示面積及び表示場所が決定される。決定された表示面積及び表示場所の情報は、表示画像情報テーブル3121に記憶される(S101)。表示画像情報テーブル3121のうち上述にて得られた表示面積が読みだされ、第一パラメータとされる(S103)。そして、第一パラメータが第一閾値以上であるかが判断される(S105)。第一パラメータが第一閾値未満である場合(S105:NO)、撮影画像を表示させた場合に視認性が悪くなってしまう表示条件であるので、ディスプレイ28に表示させる画像としてアバター画像が選択される(S121)。そしてS123に移行される。   As shown in FIG. 13, in the display process in the second modification, first, the display image information table 3121 is referred to, and the display area and the display location are determined. Information on the determined display area and display location is stored in the display image information table 3121 (S101). The display area obtained as described above is read out from the display image information table 3121 and used as the first parameter (S103). And it is judged whether a 1st parameter is more than a 1st threshold value (S105). When the first parameter is less than the first threshold (S105: NO), the display condition is such that the visibility is deteriorated when the captured image is displayed. Therefore, the avatar image is selected as the image to be displayed on the display 28. (S121). Then, the process proceeds to S123.

一方、第一パラメータが第一閾値以上である場合(S105:YES)、表示画像情報テーブル3121が参照される。表示面積及び表示場所の情報に基づいて解像度が取得され(S109)、表示画像情報テーブル3121に記憶される。記憶された解像度が第二パラメータとして読みだされる(S111)。そして、第二パラメータが第二閾値以上であるかが判断される(S113)。第二パラメータが第二閾値未満である場合(S113:NO)、撮影画像を表示させた場合に視認性が悪くなってしまう表示条件であるので、ディスプレイ28に表示させる画像としてアバター画像が選択される(S121)。そしてS123に移行される。   On the other hand, when the first parameter is greater than or equal to the first threshold (S105: YES), the display image information table 3121 is referred to. The resolution is acquired based on the information on the display area and the display location (S109) and stored in the display image information table 3121. The stored resolution is read as the second parameter (S111). Then, it is determined whether the second parameter is greater than or equal to the second threshold (S113). When the second parameter is less than the second threshold (S113: NO), the display condition is such that the visibility is deteriorated when the captured image is displayed, and thus the avatar image is selected as the image to be displayed on the display 28. (S121). Then, the process proceeds to S123.

第一パラメータが第一閾値以上であり、且つ、第二パラメータが第二閾値以上である場合には(S113:YES)、第一パラメータ及び第二パラメータの判断を開始してからの時間(経過時間)が所定の時間(第一時間)以上となったかが判断される(S115)。第一時間としては、例えば10秒という値が設定される。経過時間が第一時間未満である場合(S115:NO)、S103に戻り、繰り返し第一パラメータ(表示面積)が表示画像情報テーブル3121から読みだされて、上述の処理が繰り返し実行される。   If the first parameter is greater than or equal to the first threshold and the second parameter is greater than or equal to the second threshold (S113: YES), the time (elapsed time) after starting the determination of the first parameter and the second parameter It is determined whether or not (time) is equal to or longer than a predetermined time (first time) (S115). For example, a value of 10 seconds is set as the first time. When the elapsed time is less than the first time (S115: NO), the process returns to S103, the first parameter (display area) is repeatedly read from the display image information table 3121, and the above-described processing is repeatedly executed.

なお、上述の処理が繰り返される中で、会議参加者がキーボード29やマウス27を操作し、ディスプレイ28に表示された状態の画像(撮影画像、アバター画像)の大きさを変更させた場合、表示画像情報テーブル3121の表示面積の値が変更され更新される。この場合、変更後の表示面積(第一パラメータ)が読みだされる(S103)。そして第一閾値未満となった場合(S105:NO)、ディスプレイに表示させる画像としてアバター画像が選択されることとなる(S121)。   When the above process is repeated, a conference participant operates the keyboard 29 or the mouse 27 to change the size of the image (captured image, avatar image) displayed on the display 28. The value of the display area in the image information table 3121 is changed and updated. In this case, the changed display area (first parameter) is read out (S103). And when it becomes less than a 1st threshold value (S105: NO), an avatar image will be selected as an image displayed on a display (S121).

一方、経過時間が第一時間以上となった場合(S115:YES)、経過時間が第一時間よりも長い所定時間である第二時間以上となったかが判断される(S117)。第二時間としては、例えば20秒という値が設定される。経過時間が第二時間未満である場合(S117:NO)、S109に戻り、繰り返し第二パラメータ(解像度)が表示画像情報テーブル3121から読みだされて、上述の処理が繰り返し実行される。   On the other hand, when the elapsed time is equal to or longer than the first time (S115: YES), it is determined whether the elapsed time is equal to or longer than a second time which is a predetermined time longer than the first time (S117). For example, a value of 20 seconds is set as the second time. When the elapsed time is less than the second time (S117: NO), the process returns to S109, the second parameter (resolution) is repeatedly read from the display image information table 3121, and the above-described processing is repeatedly executed.

なお、上述の処理が繰り返し実行される中で、会議参加者がキーボード29やマウス27を介して操作し、ディスプレイ28に表示された状態の画像(撮影画像、アバター画像)の大きさを変更させた場合、表示画像情報テーブル3121の解像度の値が変更され更新される。この場合、変更後の解像度(第二パラメータ)が読みだされる(S109)。そして第二閾値未満となった場合(S113:NO)、ディスプレイに表示させる画像としてアバター画像が選択されることとなる(S121)。   In addition, while the above-described processing is repeatedly performed, the conference participant operates the keyboard 29 or the mouse 27 to change the size of the image (captured image, avatar image) displayed on the display 28. In this case, the resolution value in the display image information table 3121 is changed and updated. In this case, the changed resolution (second parameter) is read (S109). And when it becomes less than a 2nd threshold value (S113: NO), an avatar image will be selected as an image displayed on a display (S121).

第一パラメータが第一閾値以上である状態が第一時間以上連続し、且つ、第二パラメータが第二式以上である状態が第二時間以上連続した場合(S117:YES)、ディスプレイ28に表示させる画像として撮影画像が選択される(S119)。そしてS123に移行される。   When the state where the first parameter is equal to or greater than the first threshold continues for the first time or more and the state where the second parameter is equal to or greater than the second formula continues for the second time or longer (S117: YES), the display 28 displays A captured image is selected as an image to be displayed (S119). Then, the process proceeds to S123.

S123では、表示画像情報テーブル3121のうち選択フラグの情報が、上述にて選択された画像に基づいて更新される(S123)。そして、更新された選択フラグの情報と、表示面積及び表示場所の情報に基づいて、選択された画像(撮影画像及びアバター画像のうちいずれか)をディスプレイ28の所望の位置に表示させる(S125)。そして表示処理を終了し、撮影画像受信処理(図7参照)に戻る。   In S123, the information of the selection flag in the display image information table 3121 is updated based on the image selected above (S123). Then, based on the updated information on the selection flag and the information on the display area and the display location, the selected image (one of the captured image and the avatar image) is displayed at a desired position on the display 28 (S125). . Then, the display process ends, and the process returns to the captured image reception process (see FIG. 7).

以上説明したように、第二の変形例では、第一パラメータが第一閾値以上である状態が第一時間以上連続し、且つ、第二パラメータが第二閾値以上である状態が第二時間以上連続した場合に、ディスプレイ28に表示させる画像として撮影画像が選択される。一旦アバター画像が選択された後は、少なくとも第二時間以上経過しなければ、ディスプレイ28に表示される画像は撮影画像に切り替わらない。これによって、例えば会議参加者の操作によってディスプレイ28に表示されている画像の大きさが変更され、表示面積(第一パラメータ)が第一閾値と近い値となった場合や、解像度(第二パラメータ)が第二閾値と近い値となった場合であっても、ディスプレイ28に表示される画像が撮影画像とアバター画像とに頻繁に切り替わってしまうことを防止できる。   As described above, in the second modification, the state where the first parameter is equal to or greater than the first threshold continues for the first time or more, and the state where the second parameter is equal to or greater than the second threshold is equal to or greater than the second time. When the images are consecutive, a captured image is selected as an image to be displayed on the display 28. Once the avatar image is selected, the image displayed on the display 28 is not switched to the captured image unless at least the second time has elapsed. Thereby, for example, when the size of the image displayed on the display 28 is changed by the operation of the conference participant and the display area (first parameter) becomes a value close to the first threshold, the resolution (second parameter) ) Becomes a value close to the second threshold value, it is possible to prevent the image displayed on the display 28 from frequently switching between the photographed image and the avatar image.

なお、本発明は上記実施の形態及び変形例に限定されるものではなく、種々の変更が可能である。上述では、撮影画像を受信した会議端末装置3が、受信した撮影画像に基づいてアバター画像を作成していたが、本発明はこの方法に限定されない。例えは、撮影画像を送信する側の会議端末装置4〜6においてアバター画像を作成し、撮影画像とともに会議端末装置3に対して送信する構成としてもよい。以下、本実施の形態の第三の変形例について説明する。
<第三の変形例>
In addition, this invention is not limited to the said embodiment and modification, A various change is possible. In the above description, the conference terminal device 3 that has received the captured image has created the avatar image based on the received captured image, but the present invention is not limited to this method. For example, it is good also as a structure which produces an avatar image in the conference terminal devices 4-6 of the side which transmits a picked-up image, and transmits with respect to the conference terminal device 3 with a picked-up image. Hereinafter, a third modification of the present embodiment will be described.
<Third modification>

本発明の第三の変形例について、図14〜図16を参照して説明する。第三の変形例では、撮影画像を送信する側の会議端末装置4〜6が、必要に応じてアバター画像を作成し、撮影画像とともに会議端末装置3に対して送信する。これによって、撮影画像を受信する側の会議端末装置3の処理負荷を軽減し、スムーズにアバター画像をディスプレイ28に表示させることが可能となる。   A third modification of the present invention will be described with reference to FIGS. In the third modification, the conference terminal devices 4 to 6 on the side of transmitting the captured image create an avatar image as necessary and transmit the avatar image to the conference terminal device 3 together with the captured image. As a result, the processing load on the conference terminal device 3 on the side that receives the captured image can be reduced, and the avatar image can be smoothly displayed on the display 28.

なお、テレビ会議システム1の構成、会議端末装置3〜6の電気的構成、HDD31の記憶領域、CPU20にて実行される表示画像受信処理のうち、表示処理を除く部分については、上述した実施形態と同様であるので、以下においては説明を省略している。また、以下の撮影画像送信処理、及び撮影画像受信処理のうち、上述した実施形態と同様の部分については、説明を省略し又は簡略している。   Of the configuration of the video conference system 1, the electrical configuration of the conference terminal devices 3 to 6, the storage area of the HDD 31, and the display image reception processing executed by the CPU 20, the portions other than the display processing are described in the above embodiment. Therefore, the description is omitted below. In addition, in the following captured image transmission process and captured image reception process, the description of the same part as the above-described embodiment is omitted or simplified.

第三の変形例において使用されるフラグについて説明する。第三の変形例では、要求フラグ及び要求済みフラグが使用される。要求フラグは、会議端末装置3が会議端末装置4〜6に対して撮影画像を送信する場合に、この撮影画像に基づいたアバター画像を作成する必要があるか否かを示すために使用されるフラグである。アバター画像を作成する必要がある場合に「1」が記憶され、作成する必要がない場合に「0」が記憶される。会議システムにログインしている他の会議端末装置4〜6の其々に対応した要求フラグが、RAM22に記憶される。   The flag used in the third modification will be described. In the third modification, a request flag and a requested flag are used. The request flag is used to indicate whether or not it is necessary to create an avatar image based on the captured image when the conference terminal device 3 transmits the captured image to the conference terminal devices 4 to 6. Flag. “1” is stored when it is necessary to create an avatar image, and “0” is stored when it is not necessary to create an avatar image. A request flag corresponding to each of the other conference terminal devices 4 to 6 logged in to the conference system is stored in the RAM 22.

要求済みフラグは、会議端末装置4〜6に対して、アバター画像を作成する指示を行ったか否かを示すために使用されるフラグである。アバター画像を作成させる指示を行った場合に「1」が記憶され、作成させる指示を行っていない場合に「0」が記憶される。会議システムにログインしている他の会議端末装置4〜6の其々に対応した要求済みフラグが、RAM22に記憶される。   The requested flag is a flag used to indicate whether or not an instruction to create an avatar image has been given to the conference terminal devices 4 to 6. “1” is stored when an instruction to create an avatar image is issued, and “0” is stored when an instruction to create an avatar image is not issued. Requested flags corresponding to each of the other conference terminal devices 4 to 6 logged in to the conference system are stored in the RAM 22.

なお以下、上述のフラグに「1」が記憶されることを「フラグがONされる」と呼び、フラグに「0」が記憶されることを「フラグがOFFされる」と呼ぶ。これらのフラグは、CPU20に電源が投入されて起動される場合にすべてOFFされ初期化される。   Hereinafter, “1” stored in the flag is referred to as “flag is turned on”, and “0” is stored in the flag is referred to as “flag is turned off”. These flags are all turned off and initialized when the CPU 20 is powered on and activated.

図14を参照し、アバター作成指示処理について説明する。図14に示すように、アバター作成指示処理が起動されると、はじめに、ネットワーク2を介して会議端末装置4〜6から、アバター画像の作成を要求する通知信号(以下「要求通知」という。)を受信したかが判断される(S131)。要求通知を受信している場合(S131:YES)、この要求通知を送信した会議端末装置4〜6に対応する要求フラグがONされる(S135)。そしてS141に移行される。   The avatar creation instruction process will be described with reference to FIG. As shown in FIG. 14, when the avatar creation instruction process is activated, first, a notification signal (hereinafter referred to as “request notification”) that requests creation of an avatar image from the conference terminal devices 4 to 6 via the network 2. Is received (S131). When the request notification is received (S131: YES), the request flag corresponding to the conference terminal devices 4 to 6 that transmitted the request notification is turned ON (S135). Then, the process proceeds to S141.

要求通知を受信していない場合(S131:NO)、ネットワーク2を介して会議端末装置4〜6から、アバター画像の作成を拒否する通知信号(以下「拒否通知」という。)を受信したかが判断される(S137)。拒否通知を受信している場合(S137:YES)、この拒否通知を送信した会議端末装置4〜6に対応する要求フラグがOFFされる(S139)。そしてS141に移行される。一方、要求通知及び拒否通知のいずれも受信していない場合には(S137:NO)、特段処理を行うことなくS141に移行される。   If a request notification has not been received (S131: NO), whether or not a notification signal (hereinafter referred to as “rejection notification”) for rejecting creation of an avatar image has been received from the conference terminal devices 4 to 6 via the network 2. Determination is made (S137). When the rejection notification is received (S137: YES), the request flag corresponding to the conference terminal devices 4 to 6 that transmitted the rejection notification is turned OFF (S139). Then, the process proceeds to S141. On the other hand, if neither the request notification nor the rejection notification has been received (S137: NO), the process proceeds to S141 without performing any special processing.

S141では、会議端末装置4〜6に対するアバター画像の作成及びアバター画像の送信の指示が、会議参加者によってなされたかが判断される(S141)。キーボード29及びマウス27を介し、会議端末装置3を操作する会議参加者によって、アバター画像の作成及びアバター画像の送信指示が入力された場合(S141:YES)、特定の他の会議端末装置4〜6に対して要求通知が送信される(S143)。次いで、要求通知の送信先の会議端末装置4〜6に対応する要求済みフラグがONされる(S145)。そしてS131に戻り、上述の処理が繰り返し実行される。   In S141, it is determined whether an instruction to create an avatar image and transmit an avatar image to the conference terminal devices 4 to 6 is given by the conference participant (S141). When a conference participant who operates the conference terminal device 3 inputs an avatar image creation and avatar image transmission instruction via the keyboard 29 and the mouse 27 (S141: YES), specific other conference terminal devices 4 to 4 are used. A request notification is transmitted to 6 (S143). Next, the requested flag corresponding to the conference terminal devices 4 to 6 as the transmission destination of the request notification is turned on (S145). Then, the process returns to S131 and the above-described processing is repeatedly executed.

アバター画像の作成及びアバター画像の送信指示が入力されていない場合(S141:NO)、会議端末装置4〜6に対するアバター画像の作成及びアバター画像の送信を禁止する為の指示が、会議参加者によってなされたかが判断される(S147)。キーボード29及びマウス27を介し、会議端末装置3を操作する会議参加者によって、アバター画像の割り当て及びアバター画像の送信を禁止する指示が入力された場合(S147:YES)、特定の他の会議端末装置4〜6に対して拒否通知が送信される(S149)。次いで、要求通知の送信先の会議端末装置4〜6に対応する要求済みフラグがOFFされる(S151)。そしてS131に戻り、上述の処理が繰り返し実行される。一方、会議参加者によって何ら入力がなされていない場合には(S147:NO)、特段処理を行くことなくS131に戻り、上述の処理が繰り返し実行される。   When the instruction for creating the avatar image and the transmission of the avatar image is not input (S141: NO), an instruction for prohibiting the creation of the avatar image and the transmission of the avatar image to the conference terminal devices 4 to 6 is performed by the conference participant. It is determined whether it has been made (S147). When an instruction prohibiting assignment of avatar images and transmission of avatar images is input by a conference participant who operates the conference terminal device 3 via the keyboard 29 and the mouse 27 (S147: YES), specific other conference terminals A rejection notification is transmitted to the devices 4 to 6 (S149). Next, the requested flag corresponding to the conference terminal devices 4 to 6 as the transmission destination of the request notification is turned off (S151). Then, the process returns to S131 and the above-described processing is repeatedly executed. On the other hand, when no input is made by the conference participant (S147: NO), the process returns to S131 without going through special processing, and the above-described processing is repeatedly executed.

図15を参照し、撮影画像送信処理について説明する。図15に示すように、撮影画像送信処理が起動されると、はじめに、カメラ34が稼働して会議参加者等を撮影している状態であるかが判断される(S11)。カメラ34が稼働していない場合(S11:NO)、特段処理を行うことなくS11に戻り、継続してカメラ34の監視が実行される。カメラ34が稼働している場合(S11:YES)、稼働中のカメラ34から撮影画像が取得され(S13)、取得された撮影画像がネットワーク2を介して会議端末装置4〜6に対して送信される(S15)。   The captured image transmission process will be described with reference to FIG. As shown in FIG. 15, when the captured image transmission process is activated, it is first determined whether or not the camera 34 is operating and capturing a conference participant or the like (S11). When the camera 34 is not operating (S11: NO), the process returns to S11 without performing any special processing, and the camera 34 is continuously monitored. When the camera 34 is operating (S11: YES), a captured image is acquired from the operating camera 34 (S13), and the acquired captured image is transmitted to the conference terminal devices 4 to 6 via the network 2. (S15).

次いで、要求済みフラグが参照される(S161)。要求済みフラグがOFFされている場合(S161:NO)、このフラグに対応する会議端末装置4〜6から要求通知を受信しておらず、撮影画像に基づいてアバター画像を作成する処理を行う旨の指示を受けていない。この場合、特段処理を行うことなくS167に移行される。   Next, the requested flag is referenced (S161). When the requested flag is OFF (S161: NO), a request notification has not been received from the conference terminal devices 4 to 6 corresponding to this flag, and processing for creating an avatar image based on the captured image is performed. Not receiving instructions. In this case, the process proceeds to S167 without performing special processing.

一方、要求済みフラグがONされている場合(S161:YES)、このフラグに対応する会議端末装置4〜6から要求通知を受信しているので、撮影画像に基づいてアバター画像を作成し、撮影画像とともにこの会議端末装置4〜6に対して送信する必要がある。そこでこの場合、取得した撮影画像のうち人物画像が特定される(S162)。次いで、人物画像に基づいてアバター画像を得る為の処理(アバター割当処理、図8参照)が実行される(S163)。アバター割当処理の詳細は省略する。アバター画像の割り当て処理が終了した後得られるアバター画像は、ONされている要求済みフラグに対応する会議端末装置4〜6に対して送信される(S165)。そしてS167に移行される。   On the other hand, when the requested flag is ON (S161: YES), since the request notification is received from the conference terminal devices 4 to 6 corresponding to this flag, an avatar image is created based on the photographed image and photographed. It is necessary to transmit to this conference terminal device 4-6 with an image. Therefore, in this case, a person image is specified among the acquired captured images (S162). Next, a process for obtaining an avatar image based on the person image (avatar assignment process, see FIG. 8) is executed (S163). Details of the avatar assignment process are omitted. The avatar image obtained after the avatar image assignment processing is completed is transmitted to the conference terminal devices 4 to 6 corresponding to the requested flag that is turned on (S165). Then, the process proceeds to S167.

S167では、次の撮影画像の送信タイミングまで待機する為に、所定時間(例えば1ms)待機される(S167)。所定時間が経過した後、S11に戻り、上述の処理が繰り返し実行される。このようにして、カメラ34が稼働中である場合には、一定周期で撮影画像が会議端末装置4〜6に対して繰り返し送信される。また、要求通知を受信している会議端末装置4〜6に対して、撮影画像に割り当てられたアバター画像が一定周期で繰り返し送信される。   In S167, in order to wait until the transmission timing of the next photographed image, a predetermined time (for example, 1 ms) is waited (S167). After a predetermined time has elapsed, the process returns to S11 and the above-described processing is repeatedly executed. In this way, when the camera 34 is in operation, captured images are repeatedly transmitted to the conference terminal devices 4 to 6 at a constant period. In addition, the avatar image assigned to the captured image is repeatedly transmitted at regular intervals to the conference terminal devices 4 to 6 that have received the request notification.

図16を参照し、撮影画像受信処理について説明する。図16に示すように、撮影画像受信処理が起動されると、ネットワーク2を介して会議端末装置4〜6から撮影画像を受信したかが判断される(S21)。撮影画像を受信していない場合(S21:NO)、特段処理を行うことなくS21に戻り、継続して撮影画像の受信監視が実行される。撮影画像を受信した場合(S21:YES)、受信した撮影画像が、画像記憶領域313に記憶される(S23)。次いで、受信した撮影画像に関連する情報が、表示画像情報テーブル3121に記憶される(S25)。   The captured image reception process will be described with reference to FIG. As shown in FIG. 16, when the captured image reception process is activated, it is determined whether captured images are received from the conference terminal devices 4 to 6 via the network 2 (S21). When the captured image has not been received (S21: NO), the process returns to S21 without performing any special processing, and reception monitoring of the captured image is continuously performed. When the captured image is received (S21: YES), the received captured image is stored in the image storage area 313 (S23). Next, information related to the received captured image is stored in the display image information table 3121 (S25).

次いで、要求フラグが参照される。要求フラグがONされている場合(S171:YES)、このフラグに対応する会議端末装置4〜6に対して要求通知を送信しており、撮影画像に基づいてアバター画像を作成する処理を行う指示がなされている。この場合、会議端末装置4〜6はアバター画像を送信しているので、送信されたアバター画像が受信される(S179)。そしてS181に移行される。   The request flag is then referenced. When the request flag is ON (S171: YES), a request notification is transmitted to the conference terminal devices 4 to 6 corresponding to this flag, and an instruction to perform a process of creating an avatar image based on the captured image Has been made. In this case, since the conference terminal devices 4 to 6 are transmitting avatar images, the transmitted avatar images are received (S179). Then, the process proceeds to S181.

一方、要求フラグがOFFされている場合(S171:NO)、このフラグに対応する会議端末装置4〜6に対して要求通知を送信していないので、自身が撮影画像に基づいてアバター画像を作成する処理を行う必要がある。そこで、画像記憶領域313に記憶した撮影画像のうち人物画像が特定される(S173)。そして人物画像に基づいてアバター画像を得る為の処理(アバター割当処理、図8参照)が実行される(S175)。アバター割当処理の詳細は省略する。得られたアバター画像は、HDD31の画像記憶領域313に記憶される(S177)。そしてS181に移行される。   On the other hand, when the request flag is OFF (S171: NO), since the request notification is not transmitted to the conference terminal devices 4 to 6 corresponding to this flag, the user creates an avatar image based on the captured image. It is necessary to perform processing. Therefore, a person image is specified among the captured images stored in the image storage area 313 (S173). Then, a process for obtaining an avatar image based on the person image (avatar assignment process, see FIG. 8) is executed (S175). Details of the avatar assignment process are omitted. The obtained avatar image is stored in the image storage area 313 of the HDD 31 (S177). Then, the process proceeds to S181.

S181では、撮影画像又はアバター画像をディスプレイ28に表示させるための処理(表示処理、図9参照)が実行される(S181)。表示処理の詳細は省略する。   In S181, a process for displaying the photographed image or the avatar image on the display 28 (display process, see FIG. 9) is executed (S181). Details of the display process are omitted.

以上説明したように、第三の変形例では、撮影画像を送信する会議端末装置4〜6に対して、撮影画像からアバター画像を作成する処理を実行させることができる。これによって、アバター画像の割り当て処理に要する時間が不要となるので、迅速にアバター画像をディスプレイ28に表示させることが可能となる。   As described above, in the third modification, the conference terminal devices 4 to 6 that transmit the captured image can be caused to execute a process of creating an avatar image from the captured image. This eliminates the time required for the avatar image assignment process, so that the avatar image can be quickly displayed on the display 28.

なお、図7及び図16のS21の処理を行うCPU20が本発明の「第一受信制御手段」に相当し、図7のS27、S29、図16のS173、S175の処理を行うCPU20が本発明の「アバター割当手段」に相当する。図9のS55、S57、図13のS103、S111の処理を行うCPU20が本発明の「領域パラメータ取得手段」に相当する。図9のS59、S61、S63、S65、図13のS105〜S121の処理を行うCPU20が本発明の「画像選択手段」に相当し、図9のS69、図13のS125の処理を行うCPU20が本発明の「表示制御手段」に相当する。   7 and 16 corresponds to the “first reception control means” of the present invention, and the CPU 20 that performs the processes of S27 and S29 in FIG. 7 and S173 and S175 in FIG. Corresponds to “Avatar assigning means”. The CPU 20 that performs the processes of S55 and S57 of FIG. 9 and S103 and S111 of FIG. 13 corresponds to the “region parameter acquisition unit” of the present invention. The CPU 20 that performs the processes of S59, S61, S63, S65 of FIG. 9 and S105 to S121 of FIG. 13 corresponds to the “image selection means” of the present invention, and the CPU 20 that performs the processes of S69 of FIG. 9 and S125 of FIG. It corresponds to “display control means” of the present invention.

図8のS45の処理を行うCPU20が本発明の「表情特定手段」に相当する。図16のS179の処理を行うCPU20が本発明の「第二受信制御手段」に相当する。図14のS143の処理を行うCPU20が本発明の「送信制御手段」に相当する。   The CPU 20 that performs the process of S45 in FIG. 8 corresponds to the “expression specifying unit” of the present invention. The CPU 20 that performs the process of S179 in FIG. 16 corresponds to the “second reception control unit” of the present invention. The CPU 20 that performs the process of S143 in FIG. 14 corresponds to the “transmission control means” of the present invention.

図7及び図16のS21が本発明の「第一受信制御ステップ」に相当し、S27、S29が本発明の「アバター割当ステップ」に相当する。図9のS55、S57、図16のS173、S175が本発明の「領域パラメータ取得ステップ」に相当する。図9のS59、S61、S63、S65、図13のS105〜S121が本発明の「画像選択ステップ」に相当し、図9のS69、図13のS125が本発明の「表示制御ステップ」に相当する。   7 and 16 correspond to the “first reception control step” of the present invention, and S27 and S29 correspond to the “avatar allocation step” of the present invention. S55 and S57 in FIG. 9 and S173 and S175 in FIG. 16 correspond to the “region parameter acquisition step” of the present invention. S59, S61, S63, S65 in FIG. 9 and S105 to S121 in FIG. 13 correspond to the “image selection step” of the present invention, and S69 in FIG. 9 and S125 in FIG. 13 correspond to the “display control step” in the present invention. To do.

1 テレビ会議システム
2 ネットワーク
3,4,5,6 会議端末装置
20 CPU
1 Video conference system 2 Network 3, 4, 5, 6 Conference terminal device 20 CPU

Claims (13)

ネットワークに接続可能であり、前記ネットワークを介して通信を行うことによって遠隔会議を行う会議端末装置であって、
他の会議端末装置の撮影手段にて撮影された画像である撮影画像を受信する第一受信制御手段と、
前記第一受信制御手段によって受信された前記撮影画像に、キャラクタ画像であるアバター画像を割り当てるアバター割当手段と、
前記第一受信制御手段にて受信された前記撮影画像又は前記アバター割当手段にて割り当てられた前記アバター画像を表示させる表示手段の表示領域のうち、前記撮影画像又は前記アバター画像を表示可能な領域に関連するパラメータを取得する領域パラメータ取得手段と、
前記領域パラメータ取得手段にて取得された前記パラメータに基づいて、前記撮影画像及び前記アバター画像のうちいずれかを、前記表示手段に表示させる表示画像として選択する画像選択手段と、
前記画像選択手段にて選択された前記表示画像を、前記表示手段の表示領域のうち表示可能な領域に表示させる表示制御手段と
を備えた会議端末装置。
A conference terminal device that is connectable to a network and performs a remote conference by communicating via the network,
First reception control means for receiving a photographed image that is an image photographed by the photographing means of another conference terminal device;
An avatar assigning means for assigning an avatar image which is a character image to the photographed image received by the first reception control means;
Of the display area of the display means for displaying the photographed image received by the first reception control means or the avatar image assigned by the avatar assignment means, an area capable of displaying the photographed image or the avatar image Area parameter acquisition means for acquiring parameters related to
Based on the parameter acquired by the region parameter acquisition unit, an image selection unit that selects either the captured image or the avatar image as a display image to be displayed on the display unit;
A conference terminal device comprising: display control means for displaying the display image selected by the image selection means in a displayable area of the display area of the display means.
前記領域パラメータ取得手段は、
前記表示画像を表示可能な領域の面積のパラメータを第一パラメータとして取得し、
前記画像選択手段は、
前記第一パラメータに基づいて、前記表示手段に表示させる前記表示画像を選択することを特徴とする請求項1に記載の会議端末装置。
The region parameter acquisition means includes
Obtain the area parameter of the area where the display image can be displayed as a first parameter,
The image selection means includes
2. The conference terminal apparatus according to claim 1, wherein the display image to be displayed on the display unit is selected based on the first parameter.
前記領域パラメータ取得手段は、
前記表示画像を表示可能な領域の解像度のパラメータを第二パラメータとして取得し、
前記画像選択手段は、
前記第一パラメータと前記第二パラメータとに基づいて、前記表示手段に表示させる前記表示画像を選択することを特徴とする請求項2に記載の会議端末装置。
The region parameter acquisition means includes
Obtaining a resolution parameter of an area where the display image can be displayed as a second parameter;
The image selection means includes
The conference terminal apparatus according to claim 2, wherein the display image to be displayed on the display unit is selected based on the first parameter and the second parameter.
前記領域パラメータ取得手段は、
前記表示画像を表示可能な領域の明度及び彩度のうち少なくともいずれかのパラメータを第二パラメータとして取得し、
前記画像選択手段は、
前記第一パラメータと前記第二パラメータとに基づいて、前記表示手段に表示させる前記表示画像を選択することを特徴とする請求項2に記載の会議端末装置。
The region parameter acquisition means includes
Obtaining at least one parameter of brightness and saturation of a region capable of displaying the display image as a second parameter;
The image selection means includes
The conference terminal apparatus according to claim 2, wherein the display image to be displayed on the display unit is selected based on the first parameter and the second parameter.
前記画像選択手段は、
前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の閾値である第一閾値以上である場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値未満である場合に、前記アバター画像を前記表示画像として選択することを特徴とする請求項2に記載の会議端末装置。
The image selection means includes
When the first parameter acquired by the region parameter acquisition unit is equal to or greater than a first threshold that is a predetermined threshold, the captured image is selected as the display image, and the first parameter is less than the first threshold The conference terminal device according to claim 2, wherein the avatar image is selected as the display image.
前記画像選択手段は、
前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の閾値である第一閾値以上であり、且つ、前記第二パラメータが所定の閾値である第二閾値以上である場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値未満であるか、又は、前記第二パラメータが前記第二閾値未満である場合に、前記アバター画像を前記表示画像として選択することを特徴とする請求項3又は4に記載の会議端末装置。
The image selection means includes
When the first parameter acquired by the area parameter acquisition unit is equal to or greater than a first threshold that is a predetermined threshold and the second parameter is equal to or greater than a second threshold that is a predetermined threshold An image is selected as the display image, and the avatar image is selected as the display image when the first parameter is less than the first threshold value or the second parameter is less than the second threshold value. The conference terminal device according to claim 3, wherein the conference terminal device is a conference terminal device.
前記画像選択手段は、
前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の時間である第一時間以上連続して前記第一閾値以上である場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値以上となる状態が前記第一時間以上連続しない場合に、前記撮影画像を前記アバター画像として選択することを特徴とする請求項5に記載の会議端末装置。
The image selection means includes
When the first parameter acquired by the region parameter acquisition unit is continuously equal to or greater than the first threshold for a first time that is a predetermined time, the captured image is selected as the display image, The conference terminal device according to claim 5, wherein the captured image is selected as the avatar image when a state where one parameter is equal to or greater than the first threshold does not continue for the first time or longer.
前記画像選択手段は、
前記領域パラメータ取得手段にて取得された前記第一パラメータが所定の時間である第一時間以上連続して前記第一閾値以上である場合であって、前記第二パラメータが所定の時間である第二時間以上連続して前記第二閾値以上であった場合に、前記撮影画像を前記表示画像として選択し、前記第一パラメータが前記第一閾値以上となる状態が前記第一時間以上連続せず、又は、前記第二パラメータが前記第二閾値以上となる状態が前記第二時間以上連続しない場合に、前記アバター画像を前記表示画像として選択することを特徴とする請求項6に記載の会議端末装置。
The image selection means includes
The first parameter acquired by the region parameter acquiring means is a case where the first parameter is continuously equal to or greater than the first threshold which is a predetermined time, and the second parameter is a predetermined time. When the captured image is selected as the display image for two or more hours continuously, the state in which the first parameter is equal to or greater than the first threshold does not continue for the first time or more. The conference terminal according to claim 6, wherein the avatar image is selected as the display image when a state where the second parameter is equal to or greater than the second threshold does not continue for the second time or longer. apparatus.
前記第一受信制御手段にて受信された前記撮影画像に含まれる顔の特徴部分を抽出することによって、前記顔の表情を特定する表情特定手段と、
前記アバター割当手段によって割り当てられた前記アバター画像を、前記表情特定手段にて特定された前記表情に基づいて変換するアバター変換手段と
を備え、
前記画像選択手段は、
前記撮影画像、及び、前記アバター変換手段によって変換された前記アバター画像のうちいずれかを、前記表示手段に表示させる表示画像として選択することを特徴とする請求項1乃至8のいずれかに記載の会議端末装置。
Facial expression specifying means for specifying facial expressions by extracting facial features included in the captured image received by the first reception control means;
Avatar conversion means for converting the avatar image assigned by the avatar assigning means based on the facial expression specified by the facial expression specifying means;
The image selection means includes
9. The display device according to claim 1, wherein one of the photographed image and the avatar image converted by the avatar conversion unit is selected as a display image to be displayed on the display unit. Conference terminal device.
前記他の会議端末装置から送信される前記アバター画像を受信する第二受信制御手段を備え、
前記領域パラメータ取得手段は、
前記撮影画像又は前記第二受信制御手段にて受信された前記アバター画像を表示可能な領域に関連する前記パラメータを取得し、
前記画像選択手段は、
前記領域パラメータ取得手段にて取得された前記パラメータに基づいて、前記撮影画像及び前記第二受信制御手段にて受信された前記アバター画像のうちいずれかを前記表示画像として選択することを特徴とする請求項1乃至9のいずれかに記載の会議端末装置。
A second reception control means for receiving the avatar image transmitted from the other conference terminal device;
The region parameter acquisition means includes
Obtaining the parameter related to the area where the captured image or the avatar image received by the second reception control means can be displayed;
The image selection means includes
Based on the parameter acquired by the region parameter acquisition unit, either the captured image or the avatar image received by the second reception control unit is selected as the display image. The conference terminal device according to claim 1.
前記他の会議端末装置に対し、前記アバター画像を要求する為の通知である要求通知を送信する送信制御手段を備え、
前記第二受信制御手段は、
前記送信制御手段にて送信された前記要求通知に応じ、前記他の会議端末装置から送信される前記アバター画像を受信することを特徴とする請求項10に記載の会議端末装置。
Transmission control means for transmitting a request notification that is a notification for requesting the avatar image to the other conference terminal device,
The second reception control means includes
The conference terminal device according to claim 10, wherein the avatar image transmitted from the other conference terminal device is received in response to the request notification transmitted by the transmission control unit.
ネットワークに接続可能であり、前記ネットワークを介して通信を行うことによって遠隔会議を行う表示制御方法であって、
他の会議端末装置の撮影手段にて撮影された画像である撮影画像を受信する第一受信制御ステップと、
前記第一受信制御ステップによって受信された前記撮影画像に、キャラクタ画像であるアバター画像を割り当てるアバター割当ステップと、
前記第一受信制御ステップにて受信された前記撮影画像又は前記アバター割当ステップにて割り当てられた前記アバター画像を表示させる表示手段の表示領域のうち、前記撮影画像又は前記アバター画像を表示可能な領域に関連するパラメータを取得する領域パラメータ取得ステップと、
前記領域パラメータ取得ステップにて取得された前記パラメータに基づいて、前記撮影画像及び前記アバター画像のうちいずれかを、前記表示手段に表示させる表示画像として選択する画像選択ステップと、
前記画像選択ステップにて選択された前記表示画像を、前記表示手段の表示領域のうち表示可能な領域に表示させる表示制御ステップと
を備えた表示制御方法。
A display control method capable of connecting to a network and performing a remote conference by communicating via the network,
A first reception control step of receiving a photographed image that is an image photographed by the photographing means of another conference terminal device;
An avatar assignment step of assigning an avatar image which is a character image to the captured image received by the first reception control step;
Of the display area of the display means for displaying the captured image received in the first reception control step or the avatar image allocated in the avatar allocation step, the captured image or the avatar image can be displayed. An area parameter acquisition step for acquiring parameters related to
Based on the parameter acquired in the area parameter acquisition step, an image selection step of selecting either the captured image or the avatar image as a display image to be displayed on the display means;
A display control method comprising: a display control step of displaying the display image selected in the image selection step in a displayable area of the display area of the display means.
請求項1乃至11のいずれかに記載の会議端末装置における各処理手段としてコンピュータを駆動させる表示制御プログラム。   The display control program which drives a computer as each process means in the conference terminal device in any one of Claims 1 thru | or 11.
JP2009058877A 2009-03-12 2009-03-12 Conference terminal device, display control method, display control program Expired - Fee Related JP5423068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009058877A JP5423068B2 (en) 2009-03-12 2009-03-12 Conference terminal device, display control method, display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009058877A JP5423068B2 (en) 2009-03-12 2009-03-12 Conference terminal device, display control method, display control program

Publications (2)

Publication Number Publication Date
JP2010213133A true JP2010213133A (en) 2010-09-24
JP5423068B2 JP5423068B2 (en) 2014-02-19

Family

ID=42972827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009058877A Expired - Fee Related JP5423068B2 (en) 2009-03-12 2009-03-12 Conference terminal device, display control method, display control program

Country Status (1)

Country Link
JP (1) JP5423068B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085009A (en) * 2010-10-07 2012-04-26 Sony Corp Information processor and information processing method
CN102833519A (en) * 2011-06-14 2012-12-19 华为终端有限公司 Method, device and system for adaption processing on video image
WO2022201265A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis program
WO2022201267A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis program
WO2022201384A1 (en) * 2021-03-24 2022-09-29 株式会社I’mbesideyou Video analysis program
WO2022269800A1 (en) * 2021-06-23 2022-12-29 株式会社I’mbesideyou Video analysis system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (en) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd Information terminal device with image communication function and image distribution system
JP2006140871A (en) * 2004-11-15 2006-06-01 Mitsubishi Electric Corp Video telephone terminal using avatar, and displaying method for its avatar image
JP2007150877A (en) * 2005-11-29 2007-06-14 Kyocera Corp Communication terminal and display method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (en) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd Information terminal device with image communication function and image distribution system
JP2006140871A (en) * 2004-11-15 2006-06-01 Mitsubishi Electric Corp Video telephone terminal using avatar, and displaying method for its avatar image
JP2007150877A (en) * 2005-11-29 2007-06-14 Kyocera Corp Communication terminal and display method therefor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085009A (en) * 2010-10-07 2012-04-26 Sony Corp Information processor and information processing method
CN103141085A (en) * 2010-10-07 2013-06-05 索尼公司 Information processing device and information processing method
US9171199B2 (en) 2010-10-07 2015-10-27 Sony Corporation Information processing device and information processing method
US9674488B2 (en) 2010-10-07 2017-06-06 Saturn Licensing Llc Information processing device and information processing method
CN102833519A (en) * 2011-06-14 2012-12-19 华为终端有限公司 Method, device and system for adaption processing on video image
WO2012171452A1 (en) * 2011-06-14 2012-12-20 华为终端有限公司 Method, device and system for adapting video image processing
WO2022201265A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis program
WO2022201267A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis program
WO2022201384A1 (en) * 2021-03-24 2022-09-29 株式会社I’mbesideyou Video analysis program
WO2022269800A1 (en) * 2021-06-23 2022-12-29 株式会社I’mbesideyou Video analysis system

Also Published As

Publication number Publication date
JP5423068B2 (en) 2014-02-19

Similar Documents

Publication Publication Date Title
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
JP5423068B2 (en) Conference terminal device, display control method, display control program
CN103530096B (en) Long-range control method, remote control equipment and display equipment
US10482316B2 (en) Image information processing method and apparatus, and computer storage medium
US10928896B2 (en) Information processing apparatus and information processing method
JP5201050B2 (en) Conference support device, conference support method, conference system, conference support program
CN105378742B (en) The biometric identity managed
CN104935491B (en) A kind of method and device sending facial expression image
JP5212187B2 (en) Communication terminal device, display control method, display control program
JP5332818B2 (en) COMMUNICATION CONTROL DEVICE, COMMUNICATION CONTROL METHOD, COMMUNICATION CONTROL PROGRAM
US10142588B2 (en) Information-processing device, communication system, storage medium, and communication method
CN109634403A (en) Information processing equipment and information processing method
JP2008027086A (en) Facial expression inducing device, facial expression inducing method, and facial expression inducing system
CN108139988A (en) Information processing system and information processing method
CN109150690B (en) Interactive data processing method and device, computer equipment and storage medium
JP2010239499A (en) Communication terminal unit, communication control unit, method of controlling communication of communication terminal unit, and communication control program
CN112274909A (en) Application operation control method and device, electronic equipment and storage medium
KR20130082693A (en) Apparatus and method for video chatting using avatar
JP6482037B2 (en) Control device, control method, and control program
CN112449098B (en) Shooting method, device, terminal and storage medium
WO2017193343A1 (en) Media file sharing method, media file sharing device and terminal
US9407864B2 (en) Data processing method and electronic device
JP2013197766A (en) Remote conference system, conference support device, and conference support method
JP4095537B2 (en) Experience display device, experience display method, and experience display program
CN115643365B (en) Remote operation control method and device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees