JP2015119424A - Communication display device, communication display method and program - Google Patents

Communication display device, communication display method and program Download PDF

Info

Publication number
JP2015119424A
JP2015119424A JP2013263090A JP2013263090A JP2015119424A JP 2015119424 A JP2015119424 A JP 2015119424A JP 2013263090 A JP2013263090 A JP 2013263090A JP 2013263090 A JP2013263090 A JP 2013263090A JP 2015119424 A JP2015119424 A JP 2015119424A
Authority
JP
Japan
Prior art keywords
image
shift
image data
display
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013263090A
Other languages
Japanese (ja)
Inventor
大河 村山
Taiga Murayama
大河 村山
太一 本荘
Taichi Honjo
太一 本荘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013263090A priority Critical patent/JP2015119424A/en
Publication of JP2015119424A publication Critical patent/JP2015119424A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily grasp, when using a television telephone function, at which position a self image is appropriately transmitted to a communication partner.SOLUTION: The device comprises: an antenna 21 and a radio communication section 22 which receive from a destination device image data; projection systems 23 to 26, 11 which project image in response to the received image data; a photographing section IM which photographs an image of a user; a CPU 28 which detects deviation from a subject position with the photographed image of the user and notifies in the image to be projected the detected deviation.

Description

本発明は、テレビ電話機能を有する通信表示装置、通信表示方法及びプログラムに関する。   The present invention relates to a communication display device having a videophone function, a communication display method, and a program.

従来、人型の表示パネルに広告等の映像コンテンツを投影させるようにした技術が考えられている。(例えば、特許文献1)   Conventionally, a technique for projecting video content such as advertisements on a humanoid display panel has been considered. (For example, Patent Document 1)

特開2011−150221号公報JP 2011-150221 A

上記特許文献に記載された技術を含み、近時では、商店の店頭などに載置し、商品の広告画像等を任意形状、例えば人型の半透明板をスクリーンとしてそのリヤ側から投影するデジタルサイネージ装置が徐々に普及しつつある。   Recently, including the technology described in the above-mentioned patent document, it is placed on a storefront of a store, etc., and an advertisement image of a product is projected in an arbitrary shape, for example, a human-shaped translucent plate as a screen from its rear side Signage devices are becoming increasingly popular.

この種のデジタルサイネージ装置に撮像機能と通信機能とを備えさせ、例えば老人福祉施設などに常設するテレビ電話装置として利用することが考えられている。   It is considered that this type of digital signage device is provided with an imaging function and a communication function, and is used as a videophone device that is permanently installed in a welfare facility for the elderly, for example.

上記のような不定形の表示部を有する装置を用いてテレビ電話機能を実現する場合、一般的な矩形の表示部を有する装置で広い範囲を表示する場合に比べて、表示容積に余裕がないため、通話相手側の画像を正確に位置合わせして表示する必要がある。しかしながら、自装置側の表示部で表示されるのは通話相手の画像であり、ユーザは自分の画像が相手側の装置の表示部でどのように表示されているかを直接確認するすべがない。そのため、自分の撮影位置をできるだけ簡易に把握し、調整するための手法が模索されている。   When a videophone function is realized using a device having an irregular display unit as described above, the display volume is not as large as when a wide range is displayed by a device having a general rectangular display unit. For this reason, it is necessary to accurately align and display the image of the other party. However, what is displayed on the display unit on the own device side is the image of the other party, and the user has no way of directly confirming how his / her own image is displayed on the display unit of the other device. Therefore, a method for grasping and adjusting the photographing position as easily as possible is being sought.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、テレビ電話機能時にユーザがどの位置にいれば自分の画像が正しく通話相手に送信されるのかを簡易に把握することが可能な通信表示装置、通信表示方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and the purpose of the present invention is to easily grasp where a user is at when the user is in a videophone function to correctly transmit his / her image to the other party. Another object of the present invention is to provide a communication display device, a communication display method, and a program that can be used.

本発明の一態様は、通信先の装置から画像データを受信する受信手段と、上記受信手段で受信した画像データに応じた画像を表示する表示手段と、送信すべき画像のデータを取得する画像取得手段と、上記画像取得手段で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出手段と、上記ずれ検出手段で検出したずれに応じ、上記表示手段で表示している画像内で報知する報知手段とを備えることを特徴とする。   One embodiment of the present invention includes a receiving unit that receives image data from a communication destination device, a display unit that displays an image corresponding to the image data received by the receiving unit, and an image that acquires image data to be transmitted. Based on the acquisition unit, the image data acquired by the image acquisition unit, a shift detection unit that detects a shift in the subject position in the image, and the display unit displays the shift according to the shift detected by the shift detection unit. Informing means for informing in the image is provided.

本発明によれば、テレビ電話機能時にユーザがどの位置にいれば自分の画像が正しく通話相手に送信されるのかを簡易に把握することが可能となる。   According to the present invention, it is possible to easily grasp at which position the user is at the time of the videophone function to correctly transmit his / her image to the other party.

本発明の一実施形態に係るテレビ電話装置の外観構成を示す斜視図。The perspective view which shows the external appearance structure of the video telephone apparatus which concerns on one Embodiment of this invention. 同実施形態に係るテレビ電話装置の装置筐体上部に設けられた、投影光学系の構成を右側面から見た図。The figure which looked at the structure of the projection optical system provided in the apparatus housing | casing upper part of the video telephone apparatus based on the embodiment from the right side surface. 同実施形態に係る矩形の投影可能領域内のスクリーン投影領域を示す図。The figure which shows the screen projection area | region in the rectangular projectable area | region which concerns on the same embodiment. 同実施形態に係るテレビ電話装置の主として電子回路の機能構成を説明するブロック図。FIG. 3 is a block diagram for mainly explaining a functional configuration of an electronic circuit of the videophone device according to the embodiment. 同実施形態に係る待ち受け状態から発呼がある場合の受信処理の内容を示すフローチャート。The flowchart which shows the content of the reception process when there exists a call from the standby state which concerns on the same embodiment. 同実施形態に係るテレビ電話装置側から発呼を行なう場合の発信処理の内容を示すフローチャート。The flowchart which shows the content of the transmission process in the case of making a call from the video telephone apparatus side concerning the embodiment. 同実施形態に係る図5のステップS108、図6のステップS209の通話処理のサブルーチンの詳細な内容を示すフローチャート。7 is a flowchart showing detailed contents of a subroutine for call processing in step S108 in FIG. 5 and step S209 in FIG. 6 according to the embodiment. 同実施形態に係る図7のステップS306の左右ずれ報知処理のサブルーチンの詳細な内容を示すフローチャート。The flowchart which shows the detailed content of the subroutine of the right-and-left deviation alerting | reporting process of FIG.7 S306 which concerns on the same embodiment. 同実施形態に係る図7のステップS306の前後ずれ報知処理のサブルーチンの詳細な内容を示すフローチャート。The flowchart which shows the detailed content of the subroutine of the back-and-front deviation alerting | reporting process of step S306 of FIG. 7 which concerns on the embodiment. 同実施形態に係る通話相手の装置から取得する、相手側の装置のサイネージボードの形状とずれの検出範囲を簡易的に模した図。The figure which imitated the shape of the signage board of the other party apparatus acquired from the other party apparatus which concerns on the same embodiment, and the detection range of deviation | shift. 同実施形態に係る通話相手の装置から取得する、相手側の装置のサイネージボードの形状とずれの検出範囲を簡易的に模した図。The figure which imitated the shape of the signage board of the other party apparatus acquired from the other party apparatus which concerns on the same embodiment, and the detection range of deviation | shift.

以下、本発明をデジタルサイネージ方式のテレビ電話装置に適用した場合の一実施形態について、図面を参照して詳細に説明する。なお、デジタルサイネージとは、人型のスクリーンを用いたバーチャルマネキンとして、説明を行なう。
図1は、本実施形態に係るテレビ電話装置10の外観構成を示す斜視図である。装置筐体10Aの上面前端側に、交換可能なサイネージボードSBが立設される。このサイネージボードSBは、テレビ電話装置10の本来は矩形の投影可能領域内に収まるように設置された、任意形状を有する半透過板状の構成を有する。
Hereinafter, an embodiment in which the present invention is applied to a digital signage videophone apparatus will be described in detail with reference to the drawings. Digital signage is described as a virtual mannequin using a human-type screen.
FIG. 1 is a perspective view showing an external configuration of a videophone device 10 according to the present embodiment. A replaceable signage board SB is erected on the upper front end side of the apparatus housing 10A. This signage board SB has a translucent plate-like configuration having an arbitrary shape, which is installed so as to be within the originally rectangular projectable area of the videophone device 10.

このサイネージボードSBの前面下部中央に撮影部IMが設けられ、前方側の斜め上方の画像を取得する。さらに撮影部IMの下方には、一対のスピーカ部SP,SPと一対のマイクロホン部MC,MCが設けられ、ステレオ音声による受話と送話が可能となる。   An imaging unit IM is provided at the front lower center of the signage board SB, and acquires an obliquely upper image on the front side. Further, a pair of speaker units SP and SP and a pair of microphone units MC and MC are provided below the photographing unit IM, and it is possible to receive and transmit stereo sound.

また上記装置筐体10Aの上面後端側に、ミラーMRが立設され、後述する投影レンズ部から出射した光像を前面側に全反射して、上記サイネージボードSBに結像させる。   Further, a mirror MR is erected on the rear end side of the upper surface of the apparatus housing 10A, and a light image emitted from a projection lens unit, which will be described later, is totally reflected on the front side and formed on the signage board SB.

図2は、上記テレビ電話装置10の装置筐体10A上部に設けられた、投影光学系の構成を右側面から見た図である。
投影レンズ部11から斜め上後方に向けて出射した投影光束は、ミラーMRで前方側に反射された後にフレネルレンズシート12で水平方向の平行な光束に偏向され、半透過幕状のリヤプロジェクトスクリーン13に投影される。
FIG. 2 is a view of the configuration of the projection optical system provided on the upper portion of the apparatus housing 10A of the videophone apparatus 10 as viewed from the right side.
The projected light beam emitted obliquely upward and rearward from the projection lens unit 11 is reflected forward by the mirror MR and then deflected by the Fresnel lens sheet 12 into a parallel light beam in the horizontal direction. 13 is projected.

このリヤプロジェクトスクリーン13の前方側には透明ボード14が一体に形成される。上記フレネルレンズシート12、リヤプロジェクトスクリーン13、及び透明ボード14の3層が一体となって上記サイネージボードSBを構成している。   A transparent board 14 is integrally formed on the front side of the rear project screen 13. The three layers of the Fresnel lens sheet 12, the rear project screen 13, and the transparent board 14 constitute the signage board SB.

上記図1に示した如くサイネージボードSBが人型などの不定形である一方で、上記投影レンズ部11から出射する光像を形成するための表示素子、例えばDLP(Digital Light Processing)(登録商標)方式の投影装置であればマイクロミラー素子、は矩形の表示領域を有する。そのため、サイネージボードSB外の領域への不要な投影光の出射を抑えるために、サイネージボードSBの形状を正確に認識する必要がある。   As shown in FIG. 1, the signage board SB has an indefinite shape such as a human figure, while a display element for forming a light image emitted from the projection lens unit 11, for example, DLP (Digital Light Processing) (registered trademark). ) Type projection apparatus, the micromirror element has a rectangular display area. For this reason, it is necessary to accurately recognize the shape of the signage board SB in order to suppress emission of unnecessary projection light to an area outside the signage board SB.

本実施形態では、送信する画像データを一時的に記憶しておく記憶媒体に、予め登録しておいた複数の形状タイプのいずれに相当するサイネージボードSBであるかを示す情報が合わせて記憶されており、通話相手の装置に対して、画像データとサイネージボードSBの形状タイプの情報を合わせて送信する。   In this embodiment, information indicating which signage board SB corresponds to which of a plurality of shape types registered in advance is stored in a storage medium that temporarily stores image data to be transmitted. The image data and the information on the shape type of the signage board SB are transmitted together to the other party's device.

したがって、通話相手の装置で取得された画像は、相手側の装置において、送信した形状タイプの情報に基づいて加工された後に、このテレビ電話装置10に送られてくることとなり、その時点でテレビ電話装置10に装着されているサイネージボードSBの形状に合致した、受信した画像データをそのまま投影すれば良いことになる。   Therefore, the image acquired by the device on the other end of the call is processed in the device on the other end based on the transmitted shape type information, and then sent to the videophone device 10 at that time. The received image data that matches the shape of the signage board SB mounted on the telephone device 10 may be projected as it is.

図3は、後述するCPU28が、矩形の投影可能領域PA内でサイネージボードSBの形状を認識してスクリーン投影領域SAとして設定した状態を示している。   FIG. 3 shows a state in which the CPU 28 described later recognizes the shape of the signage board SB within the rectangular projectable area PA and sets it as the screen projection area SA.

次に図4によりテレビ電話装置10の主として電子回路の機能構成を説明する。同図中、無線通信技術としては例えば第4世代携帯電話システムに対応するものとする。ここでは図示しない上記電話システムの基地局から、アンテナ21を介して無線通信部22が通話データを受信する。無線通信部22は、受信データを復調して画像データ、音声データ及びその他の制御データに分離する。得られた画像データはバスBを介して投影画像駆動部23に送られる。   Next, the functional configuration of mainly the electronic circuit of the videophone device 10 will be described with reference to FIG. In the figure, the wireless communication technology corresponds to, for example, a fourth generation mobile phone system. Here, the radio communication unit 22 receives call data from the base station of the telephone system (not shown) via the antenna 21. The wireless communication unit 22 demodulates the received data and separates it into image data, audio data, and other control data. The obtained image data is sent to the projection image drive unit 23 via the bus B.

投影画像駆動部23は、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、表示素子であるマイクロミラー素子24を表示駆動する。   The projection image drive unit 23 multiplies a frame rate according to a predetermined format, for example, 120 [frames / second], the number of color component divisions, and the number of display gradations, in accordance with the transmitted image data. The micromirror element 24, which is a display element, is driven to display by high-speed time division driving.

このマイクロミラー素子24は、アレイ状に配列された複数個の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。   The micromirror element 24 performs a display operation by individually turning on / off each tilt angle of a plurality of micromirrors arranged in an array, thereby forming an optical image with the reflected light.

一方で、光源部25から時分割でR,G,Bの原色光が循環的に出射される。光源部25は、半導体発光素子であるLEDを有し、R,G,Bの原色光を時分割で繰返し出射する。光源部25が有するLEDは、広義でのLEDとして、LD(半導体レーザ)や有機EL素子を含むものとしても良い。   On the other hand, R, G, B primary color lights are emitted cyclically from the light source unit 25 in a time-sharing manner. The light source unit 25 includes an LED, which is a semiconductor light emitting element, and repeatedly emits primary colors of R, G, and B in a time division manner. The LED included in the light source unit 25 may include an LD (semiconductor laser) or an organic EL element as an LED in a broad sense.

また、LEDから出射された光を蛍光体に照射することで励起される、元の光とは波長が異なる原色光を用いるものとしても良い。この光源部25からの原色光が、ミラー26で全反射して上記マイクロミラー素子24に照射される。   Moreover, it is good also as what uses the primary color light from which a wavelength differs from the original light excited by irradiating the light radiate | emitted from LED to a fluorescent substance. The primary color light from the light source unit 25 is totally reflected by the mirror 26 and applied to the micromirror element 24.

そして、マイクロミラー素子24での反射光で光像が形成され、形成された光像が上記投影レンズ部11を介して、ここでは図示しない上記ミラーMRで反射された後にサイネージボードSBに投射される。   Then, an optical image is formed by the reflected light from the micromirror element 24, and the formed optical image is reflected on the signage board SB after being reflected by the mirror MR (not shown) through the projection lens unit 11. The

また、上記無線通信部22で復調、分離された音声データは、バスBを介して音声処理部27へ送信される。この音声処理部27は、例えばPCM音源などの音源回路を有し、送られてきた音声データに基づいてアナログの音声信号を再生して、上記スピーカ部SP,SPより放音させる。   The audio data demodulated and separated by the wireless communication unit 22 is transmitted to the audio processing unit 27 via the bus B. The sound processing unit 27 has a sound source circuit such as a PCM sound source, for example, reproduces an analog sound signal based on the transmitted sound data, and emits sound from the speaker units SP and SP.

一方で、このテレビ電話装置10での通話時に受話器となる上記マイクロホン部MC,MCから入力されたアナログの音声信号は、上記音声処理部27によりサンプリングされ、デジタルの音声データに変換、圧縮される。当該音声データは、バスBを介して無線通信部22よりアンテナ21から通話相手先の装置に向けて送信される。   On the other hand, an analog audio signal input from the microphones MC and MC that become a receiver during a call on the videophone device 10 is sampled by the audio processing unit 27, converted into digital audio data, and compressed. . The audio data is transmitted from the wireless communication unit 22 via the bus B from the antenna 21 to the device of the call partner.

上記各回路の動作すべてをCPU28が制御する。このCPU28は、メインメモリ29及びプログラムメモリ30と直接接続される。メインメモリ29は、例えばSRAMで構成され、CPU28のワークメモリとして機能する。プログラムメモリ30は、電気的書換可能な不揮発性メモリ、例えばフラッシュROMで構成され、CPU28が実行する動作プログラムや各種定型データ等を記憶する。   The CPU 28 controls all the operations of the above circuits. The CPU 28 is directly connected to the main memory 29 and the program memory 30. The main memory 29 is constituted by an SRAM, for example, and functions as a work memory for the CPU 28. The program memory 30 is composed of an electrically rewritable non-volatile memory such as a flash ROM, and stores an operation program executed by the CPU 28, various fixed data, and the like.

CPU28は、上記プログラムメモリ30に記憶されている動作プログラムや定型データ等を読出し、メインメモリ29に展開して記憶させた上で当該プログラムを実行することにより、このテレビ電話装置10を統括して制御する。   The CPU 28 controls the videophone device 10 by reading out the operation program, fixed data, and the like stored in the program memory 30, expanding and storing them in the main memory 29, and executing the program. Control.

上記CPU28は、操作部31からの操作信号に応じて各種投影動作を実行する。この操作部31は、テレビ電話装置10の本体に備える、オンフックキー、オフフックキー、ダイヤルキー(テンキー、「*」キー、「♯」キー)を含むいくつかの操作キーのキー操作信号を上記CPU28へ送出する。   The CPU 28 performs various projection operations according to operation signals from the operation unit 31. This operation unit 31 provides key operation signals of several operation keys including an on-hook key, an off-hook key, and dial keys (ten key, “*” key, “#” key) provided in the main body of the videophone device 10 to the CPU 28. To send.

上記CPU28はさらに、上記バスBを介して撮影画像処理部32、画像メモリ33と接続される。
撮影画像処理部32は、上記撮影部IMの一部を構成する撮影レンズ部34の合焦位置に配置された固体撮像素子、例えばCMOSイメージセンサ35を走査駆動して、テレビ電話装置10の前方を撮影した画像信号を得る。
The CPU 28 is further connected to the captured image processing unit 32 and the image memory 33 via the bus B.
The captured image processing unit 32 scans and drives a solid-state imaging device, for example, a CMOS image sensor 35, which is disposed at the in-focus position of the imaging lens unit 34 that constitutes a part of the imaging unit IM. An image signal obtained by shooting is obtained.

このCMOSイメージセンサ35の出力する画像信号は、A/D変換回路36でデジタル化された後に上記撮影画像処理部32に送られる。撮影画像処理部32は、得られた画像データを適宜画像メモリ33に一時的に保存し、後述する顔認識技術により画像中から人物の顔を認識してその範囲を切出すとともに、左右、前後のずれ量を検出する処理を実行する。   The image signal output from the CMOS image sensor 35 is digitized by the A / D conversion circuit 36 and then sent to the photographed image processing unit 32. The captured image processing unit 32 temporarily stores the obtained image data in the image memory 33 as appropriate, recognizes a person's face from the image using face recognition technology described later, cuts out the range, The process which detects the deviation | shift amount of is performed.

さらに撮影画像処理部32は、切出した顔部分を含む画像データを圧縮してファイル化した上で、バスBを介して上記無線通信部22に送る。無線通信部22では、CPU28の制御の下に、撮影画像処理部32からの画像データを音声処理部27からの音声データや制御データ等と同様に、通話相手側の装置に対して送信する。   Further, the captured image processing unit 32 compresses the image data including the cut face portion into a file, and sends the file to the wireless communication unit 22 via the bus B. In the wireless communication unit 22, under the control of the CPU 28, the image data from the photographed image processing unit 32 is transmitted to the device on the other party side of the call in the same manner as the audio data and control data from the audio processing unit 27.

次に上記実施形態の動作について説明する。
なお以下に示す動作は、上述した如くCPU28がプログラムメモリ30から読出した動作プログラム等をメインメモリ29に展開した上で実行するものである。プログラムメモリ30に記憶される動作プログラム等は、このテレビ電話装置10の工場出荷時にプログラムメモリ30に記憶されていたもののみならず、ユーザがこのテレビ電話装置10を購入後にバージョンアップ用のプログラム等をインストールした内容を含む。
Next, the operation of the above embodiment will be described.
The operation described below is executed after the CPU 28 develops the operation program read from the program memory 30 in the main memory 29 as described above. The operation program and the like stored in the program memory 30 are not only those stored in the program memory 30 at the time of factory shipment of the videophone device 10, but also a version upgrade program after the user purchases the videophone device 10. Includes the contents of the installation.

図5は、待ち受け状態で、通話相手の装置から発呼がある場合のテレビ電話機能による受信処理の処理手順を示す。待ち受け状態においてCPU28は、通話相手の装置からの発呼を受信したか否かを繰返し判断することにより(ステップS101)、発呼がなされるのを待機している。   FIG. 5 shows a processing procedure of reception processing by the videophone function when there is a call from the device of the other party in the standby state. In the standby state, the CPU 28 waits for a call to be made by repeatedly determining whether or not a call is received from the other party's device (step S101).

そして発呼があった時点で受信ありと判断すると、CPU28は次に操作部31のオフフックキーが操作されたか否かにより、このテレビ電話装置10のユーザが発呼に応答したか否かを判断し、当該操作がなければ再び上記ステップS101からの待ち受け状態に戻る。   When it is determined that the call is received when the call is made, the CPU 28 determines whether or not the user of the videophone device 10 has responded to the call by determining whether or not the off-hook key of the operation unit 31 is operated next. If there is no such operation, the process returns to the standby state from step S101.

発呼された状態からユーザがオフフックキーを操作すると、CPU28はその操作を上記ステップS102で判断し、次にその時点で装着しているサイネージボードSBの形状情報を画像メモリ33から読出して、無線通信部22により通話相手の装置に送信する(ステップS103)。また、上記ステップS102でユーザがオフフックキーを操作し、通信相手装置から形状情報を付加されていた場合、形状情報を受信する。   When the user operates the off-hook key from the called state, the CPU 28 determines the operation in the above step S102, and then reads the shape information of the signage board SB mounted at that time from the image memory 33, and wirelessly The communication unit 22 transmits the call to the other party's device (step S103). If the user operates the off-hook key in step S102 and the shape information is added from the communication partner device, the shape information is received.

その後にCPU28は、撮影画像処理部32によりCMOSイメージセンサ35を走査駆動させて撮影動作を開始させる(ステップS104)。撮影画像処理部32は、例えばCMOSイメージセンサ35によりVGA(縦480画素×横640画素)の画像サイズ、30[フレーム/秒]のフレームレートで動画撮影を開始し、得られる画像データを順次画像メモリ33に保持する。   Thereafter, the CPU 28 causes the captured image processing unit 32 to scan and drive the CMOS image sensor 35 to start the photographing operation (step S104). For example, the captured image processing unit 32 starts moving image capturing with a CMOS image sensor 35 at an image size of VGA (vertical 480 pixels × horizontal 640 pixels) and a frame rate of 30 [frame / second], and sequentially obtains the obtained image data. Stored in the memory 33.

ここでCPU28は、上記ステップS103でこのテレビ電話装置10のサイネージボードSBの形状情報を送信したのと同様に、上記ステップS102でオフフックを判断した際に通話相手の装置から、画像を投影する対象に関する形状情報を受信したか否かを判断する(ステップS105)。   Here, the CPU 28 projects the image from the other party's device when the off-hook is determined in the step S102, in the same manner as the shape information of the signage board SB of the videophone device 10 is transmitted in the step S103. It is determined whether or not the shape information related to is received (step S105).

ここで通話相手の装置から形状情報を受信したと判断した場合、通話相手はこのテレビ電話装置10と同様に不定形の投影対象を有しているものとして、受信した形状情報を設定する(ステップS106)。   If it is determined that shape information has been received from the other party's device, the received shape information is set on the assumption that the other party has an irregular projection target as in the case of the videophone device 10 (step). S106).

また上記ステップS106で通話相手の装置から形状情報を受信していないと判断した場合、通話相手はこのテレビ電話装置10などとは異なり、不定形の投影対象を有していないものとし、投影対象として矩形の形状を設定する(ステップS107)。   If it is determined in step S106 that shape information has not been received from the other party's device, it is assumed that the other party does not have an irregular projection target, unlike this videophone device 10, etc. Is set to a rectangular shape (step S107).

上記ステップS106またはS107での設定後、CPU28はその設定内容に基づいて通話相手の装置との通話処理を実行しながら(ステップS108)、操作部31のオンフックキーが操作されたか否かを判断し(ステップS109)、操作されていなければ上記ステップS108からの通話処理を続行する。   After the setting in step S106 or S107, the CPU 28 performs a call process with the other party's device based on the setting contents (step S108), and determines whether or not the on-hook key of the operation unit 31 has been operated. (Step S109) If not operated, the call processing from Step S108 is continued.

こうしてステップS108,S109の処理を繰返し実行することで、通話動作を続行しながら、通話を打ち切るためのオンフックキーの操作がなされるのを待機する。   By repeatedly executing the processes of steps S108 and S109 in this way, the operation waits for the operation of the on-hook key for terminating the call while continuing the call operation.

そしてオンフックキーが操作された時点で上記ステップS109に通話を打ち切ると判断し、通話を終了するとともに、次の待ち受け状態に移行するべく、上記ステップS101からの処理に戻る。   When the on-hook key is operated, it is determined that the call is terminated in step S109, the call is terminated, and the process returns to the process from step S101 in order to shift to the next standby state.

次に、図6によりこのテレビ電話装置10側から発呼を行なう場合のテレビ電話機能による発信処理の処理手順を示す。その処理当初にCPU28は、オフフックキーとダイヤルキーの操作による、通話相手を特定するための宛先入力がなされたか否かを繰返し判断することで(ステップS201)、発信処理の開始を待機する。   Next, FIG. 6 shows a processing procedure of outgoing call processing by the video phone function when a call is made from the video phone device 10 side. At the beginning of the process, the CPU 28 repeatedly determines whether or not a destination input for specifying the call partner has been made by operating the off-hook key and the dial key (step S201), and waits for the start of the calling process.

そして宛先が入力されたと判断した場合、CPU28はその時点で装着しているサイネージボードSBの形状情報を画像メモリ33から読出し、通話相手を特定する電話番号の情報とともに無線通信部22により送信する(ステップS202)。   If it is determined that the destination has been input, the CPU 28 reads out the shape information of the signage board SB mounted at that time from the image memory 33 and transmits it by the wireless communication unit 22 together with information on the telephone number for identifying the other party ( Step S202).

その後にCPU28は、通話回線が接続されて、通話相手の装置からの応答があるか否か(ステップS203)、オンフックキーが操作された否か(ステップS204)を繰り返し判断しながら、通話相手からの応答があるか、またはこのテレビ電話装置10のユーザが通話の開始を諦めるかを待機する。   Thereafter, the CPU 28 repeatedly determines whether or not there is a response from the other party's device after the telephone line is connected (step S203) and whether or not the on-hook key has been operated (step S204). Or whether the user of the videophone device 10 gives up starting the call.

上記ステップS204でオンフックキーが操作されたと判断した場合、CPU28は通話の開始を諦めたものとして、再び上記ステップS201からの処理に戻る。   If it is determined in step S204 that the on-hook key has been operated, the CPU 28 determines that the call has been given up and returns to the processing from step S201 again.

また上記ステップS203で通話相手の装置からの応答があったと判断した場合、CPU28は、撮影画像処理部32によりCMOSイメージセンサ35を走査駆動させて撮影動作を開始させる(ステップS205)。撮影画像処理部32は、例えばCMOSイメージセンサ35によりVGA(縦480画素×横640画素)の画像サイズ、30[フレーム/秒]のフレームレートで動画撮影を開始し、得られる画像データを順次画像メモリ33に保持する。また、上記ステップS203で通話相手の装置から応答があり、通信相手装置から形状情報を付加されていた場合、形状情報を受信する。   If it is determined in step S203 that there is a response from the other party's device, the CPU 28 causes the captured image processing unit 32 to scan and drive the CMOS image sensor 35 to start the capturing operation (step S205). For example, the captured image processing unit 32 starts moving image capturing with a CMOS image sensor 35 at an image size of VGA (vertical 480 pixels × horizontal 640 pixels) and a frame rate of 30 [frame / second], and sequentially obtains the obtained image data. Stored in the memory 33. In addition, when there is a response from the communication partner device in step S203 and shape information is added from the communication partner device, the shape information is received.

ここでCPU28は、通話相手の装置から、画像を投影する対象に関する形状情報を受信したか否かを判断する(ステップS206)。   Here, the CPU 28 determines whether or not the shape information regarding the object on which the image is to be projected has been received from the device of the other party (step S206).

ここで通話相手の装置から形状情報を受信したと判断した場合、通話相手はこのテレビ電話装置10と同様に不定形の投影対象を有しているものとして、受信した形状情報を設定する(ステップS207)。   If it is determined that shape information has been received from the other party's device, the received shape information is set on the assumption that the other party has an irregular projection target as in the case of the videophone device 10 (step). S207).

また上記ステップS206で通話相手の装置から形状情報を受信していないと判断した場合、通話相手はこのテレビ電話装置10などとは異なり、不定形の投影対象を有していない(矩形である)ものと判断し、投影対象として矩形の形状を設定する(ステップ208)。   If it is determined in step S206 that shape information has not been received from the other party's device, the other party does not have an irregular projection target (in the form of a rectangle) unlike this videophone device 10 or the like. In step 208, a rectangular shape is set as a projection target.

上記ステップS207またはS208での設定後、CPU28はその設定内容に基づいて通話相手の装置との通話処理を実行しながら(ステップS209)、操作部31のオンフックキーが操作されたか否かを判断し(ステップS210)、操作されていなければ上記ステップS209からの通話処理を続行する。   After the setting in step S207 or S208, the CPU 28 determines whether or not the on-hook key of the operation unit 31 has been operated while executing a call process with the other party's device based on the setting content (step S209). (Step S210) If it is not operated, the call processing from Step S209 is continued.

こうしてステップS209,S210の処理を繰返し実行することで、通話動作を続行しながら、通話を打ち切るためのオンフックキーの操作がなされるのを待機する。   By repeatedly executing the processes in steps S209 and S210 in this way, the on-hook key operation for terminating the call is waited while continuing the call operation.

そしてオンフックキーが操作された時点で上記ステップS210に通話を打ち切ると判断し、通話を終了するとともに、次の待ち受け状態に移行するべく、上記ステップS201からの処理に戻る。   When the on-hook key is operated, it is determined that the call is terminated in step S210, and the call is terminated, and the process returns to step S201 to shift to the next standby state.

次に図7により、上記図5のステップS108及び図6のステップS209における通話処理のサブルーチンの詳細な内容を説明する。   Next, with reference to FIG. 7, the detailed contents of the call processing subroutine in step S108 in FIG. 5 and step S209 in FIG. 6 will be described.

その当初にCPU28は、上記無線通信部22を介して通話相手の装置から受信した音声データに基づく音声を音声処理部27によりスピーカ部SP,SPから、投影画像駆動部23により画像データに基づく投影画像を投影レンズ部11からそれぞれ出力させる(ステップS301)。   Initially, the CPU 28 projects the sound based on the sound data received from the other party's device via the wireless communication unit 22 from the speaker units SP and SP by the sound processing unit 27 and based on the image data by the projection image driving unit 23. Images are output from the projection lens unit 11 (step S301).

その後、CPU28はまず上記マイクロホン部MC,MCから入力した音声に基づく、圧縮した音声データファイルを通話相手の装置に向けて無線通信部22より送信させる(ステップS302)。   Thereafter, the CPU 28 first causes the wireless communication unit 22 to transmit a compressed audio data file based on the audio input from the microphone units MC and MC to the device of the other party (step S302).

次にCPU28は、通話相手の装置から得た形状情報及び画像サイズに合致するように画像データを作成し、画像データファイル化して通話相手の装置に向けて無線通信部22より送信させる(ステップS303)。   Next, the CPU 28 creates image data so as to match the shape information and image size obtained from the other party's device, creates an image data file, and transmits it to the other party's device from the wireless communication unit 22 (step S303). ).

ここでCPU28は、上記送信した画像データの次に送信する、まだ上記切り出し処理を行なっていない画像データに対して顔認識処理を実行し、当該処理が完了するのを待機する(ステップS304)。   Here, the CPU 28 performs a face recognition process on the image data that has been transmitted after the transmitted image data and has not yet been subjected to the clipping process, and waits for the completion of the process (step S304).

そして、上記ステップS304で顔認識処理を終えたと判断した時点で、次にCPU28は認識した顔部分の領域から下側に続く、人物の胴体領域の検出を行なう(ステップS305)。   When it is determined in step S304 that the face recognition processing has been completed, the CPU 28 next detects a human torso area that continues downward from the recognized face part area (step S305).

この顔領域以外の人物の領域の算出に関して、CPU28はテレビ電話装置10の設置位置において撮影部IMから得られる、人物等の一時的な被写体が存在しない状態での画像データを定期的に取得することで予め画像メモリ33に背景画像のデータとして記憶しておき、テレビ電話機能時の撮影部IMでの撮影画像と比較することで、顔認識した領域以外の人物の領域を判断するものとしても良い。   Regarding the calculation of the area of the person other than the face area, the CPU 28 periodically acquires image data obtained from the photographing unit IM at the installation position of the videophone device 10 in the absence of a temporary subject such as a person. Thus, it is possible to determine the area of the person other than the face-recognized area by storing it as background image data in the image memory 33 in advance and comparing it with the captured image of the imaging unit IM at the time of the videophone function. good.

こうして得た人物の顔領域と顔以外の領域とにより、通話相手の装置において自己の画像を正しい位置で表示させるための、左右のずれ報知処理(ステップS306)と、前後のずれ報知処理(ステップS307)とを実行し、必要な報知処理を上記サイネージボードSBでの投影画像に重畳して実行した上で、この図7のサブルーチンを終了し、メインルーチンの上記図5の受信処理または図6の発信処理に復帰する。   The right and left shift notification processing (step S306) and the front and rear shift notification processing (step S306) for displaying the self image at the correct position on the other party's device by using the face area and the non-face area of the person thus obtained. S307) is executed, and necessary notification processing is performed by superimposing it on the projection image on the signage board SB. Then, the subroutine of FIG. 7 is terminated, and the reception processing of FIG. Return to outgoing call processing.

図8は、上記図7のステップS306での左右のずれに対する報知処理の詳細を示すサブルーチンである。その処理当初にCPU28は、上記画像中の人物の領域が、通話相手の装置の表示部で表示可能な範囲から予め設定された閾値により設定した、ずれた位置がぎりぎりであることを注意喚起する注意線を超えているか否かを判断する(ステップS401)。   FIG. 8 is a subroutine showing details of the notification process for the left / right deviation in step S306 of FIG. At the beginning of the process, the CPU 28 alerts that the position of the person's area in the image is set at a threshold that is set in advance from a range that can be displayed on the display unit of the other party's device. It is determined whether or not the attention line is exceeded (step S401).

図10は、通話相手の装置から取得する、相手側の装置のサイネージボードSBの形状を簡易的に模したものであり、人物の顔に相当する領域と、その下部の領域とをそれぞれ矩形で表している。各領域において、左右各端の数%、例えば当該領域の横幅の各15%の位置を注意線ALとして、上記認識により注意線ALを超えているか否かを判断する。   FIG. 10 schematically shows the shape of the signage board SB of the counterpart device acquired from the counterpart device, and the area corresponding to the person's face and the area below it are rectangular. Represents. In each region, the position of several% at the left and right ends, for example, each 15% of the width of the region is set as the attention line AL, and it is determined whether or not the attention line AL is exceeded by the above recognition.

このステップS401において上記画像中の人物の領域が注意線ALを超えていないと判断した場合、CPU28は上記画像中の人物の領域が上記注意線ALで挟まれる中央の領域に収まっており、左右のずれは生じておらず報知を行なう必要はないものとして、この図8の処理を終了する。   If it is determined in step S401 that the area of the person in the image does not exceed the attention line AL, the CPU 28 is within the central area sandwiched by the attention line AL, and the right and left The processing of FIG. 8 is terminated on the assumption that there is no deviation and no notification is required.

また上記ステップS401で上記画像中の人物の領域が注意線ALを超えていると判断した場合、次にCPU28は上記画像中の人物の領域が表示部で表示可能な範囲からも外れているか否かにより、通話相手の装置の表示枠をはみ出しているか否かを判断する(ステップS402)。   If it is determined in step S401 that the area of the person in the image exceeds the attention line AL, then the CPU 28 determines whether the area of the person in the image is outside the range that can be displayed on the display unit. Thus, it is determined whether or not the display frame of the other party's device is protruding (step S402).

ここで画像中の人物の領域が通話相手の装置の表示枠をはみ出していると判断した場合、CPU28ははみ出している位置を認識した上で、当該位置に応じた警告となる画像を上記投影画像駆動部23で重畳させて、自装置におけるサイネージボードSB上で投影させ(ステップS403)、以上でこの図8の処理を終了する。   Here, when it is determined that the area of the person in the image protrudes from the display frame of the other party's device, the CPU 28 recognizes the protruding position and then displays an image serving as a warning corresponding to the position in the projected image. Superimposed by the drive unit 23 and projected on the signage board SB in the own apparatus (step S403), the process of FIG.

このときCPU28は、例えばテレビ電話装置10のサイネージボードSBにおいて、通話相手の装置のユーザの画像を投影させるとともに、はみ出していると判断した顔の領域、及び顔以外の領域の位置と方向とに応じて、当該画像上の上記図10で示した注意線ALより外側に相当する領域を警告色、例えば赤色を重畳して投影させる。   At this time, for example, on the signage board SB of the videophone device 10, the CPU 28 projects the image of the user of the device on the other end of the call, and at the position and direction of the area of the face that is determined to protrude and the area other than the face. In response, an area corresponding to the outside of the attention line AL shown in FIG. 10 on the image is projected with a warning color, for example, red.

したがって、このテレビ電話装置10のユーザは、サイネージボードSBで投影される通話相手の画像の顔の領域あるいはそれ以外の領域の辺部が赤色に染まって投影されることにより、自身の撮影画像が通話相手側ではみ出てしまっていることを、きわめて視覚的に理解することができる。   Therefore, the user of this videophone device 10 projects his / her captured image by coloring the face area of the other party's image projected on the signage board SB or the side of the other area in red. It is possible to understand very visually that the other party is protruding.

また上記ステップS402で上記画像中の人物の領域が表示部で注意線ALは超えているものの、表示可能な範囲からは外れておらず、通話相手の装置の表示枠ははみ出していないと判断した場合、CPU28は注意線ALを超えている位置を認識した上で、当該位置に応じた注意となる画像を上記投影画像駆動部23で重畳させて、自装置におけるサイネージボードSB上で投影させ(ステップS404)、以上でこの図8の処理を終了する。   In step S402, it is determined that the area of the person in the image exceeds the attention line AL on the display unit, but is not out of the displayable range, and the display frame of the other party's device does not protrude. In this case, the CPU 28 recognizes a position that exceeds the attention line AL, and then superimposes an image that requires attention according to the position on the signage board SB in the device itself by superimposing the image on the projection image driving unit 23 ( In step S404), the processing of FIG.

このときCPU28は、例えばテレビ電話装置10のサイネージボードSBにおいて、通話相手の装置のユーザの画像を投影させるとともに、注意線ALを超えている判断した顔の領域、及び顔以外の領域の位置と方向とに応じて、当該画像上の上記図10で示した注意線ALより外側に相当する領域を注意色、例えば黄色を重畳して投影させる。   At this time, for example, on the signage board SB of the videophone device 10, the CPU 28 projects the image of the user of the device on the other end of the call, and determines the positions of the determined facial region exceeding the attention line AL and the region other than the face Depending on the direction, an area corresponding to the outside of the caution line AL shown in FIG. 10 on the image is superimposed and projected with a caution color, for example, yellow.

したがって、このテレビ電話装置10のユーザは、サイネージボードSBで投影される通話相手の画像の顔の領域あるいはそれ以外の領域の辺部が黄色に染まって投影されることにより、自身の撮影画像が通話相手側ではみ出しそうになっていることを、きわめて視覚的に理解することができる。   Therefore, the user of the videophone device 10 projects his or her captured image by coloring the face area of the other party image projected on the signage board SB or the side of the other area in yellow. It can be understood very visually that the other party is about to overflow.

次に、図9により上記図7のステップS307での前後のずれに対する報知処理の詳細を示すサブルーチンについて説明する。その処理当初にCPU28は、上記画像中の人物の領域が、通話相手の装置の表示部で表示可能な範囲から予め設定された閾値により設定した、ずれた位置がぎりぎりであることを注意喚起する上側の注意線を超えているか否かを判断する(ステップS501)。   Next, a subroutine showing details of the notification process for the back and forth deviation in step S307 of FIG. 7 will be described with reference to FIG. At the beginning of the process, the CPU 28 alerts that the position of the person's area in the image is set at a threshold that is set in advance from a range that can be displayed on the display unit of the other party's device. It is determined whether or not the upper caution line is exceeded (step S501).

図11は、通話相手の装置から取得する、相手側の装置のサイネージボードSBの形状を簡易的に模したものであり、人物の顔に相当する領域と、その下部の領域とをそれぞれ矩形で表している。各領域において、上端の数%、例えば当該領域の縦幅の上側各15%の位置を上側の注意線ALとして、上記認識により上側の注意線ALを超えているか否かにより、このテレビ電話装置10のユーザが上記撮影部IMに対して近付き過ぎているか否かを判断する。   FIG. 11 schematically shows the shape of the signage board SB of the partner device acquired from the partner device. The region corresponding to the face of the person and the region below it are rectangular. Represents. In each area, the position of several% of the upper end, for example, each 15% of the upper side of the vertical width of the area is set as the upper caution line AL. It is determined whether ten users are too close to the photographing unit IM.

このステップS501において上記画像中の人物の領域が上側の注意線ALを超えていないと判断した場合、CPU28は上記画像中の人物の領域が顔の領域と顔以外の領域の双方でともに近付き過ぎてはいないものとして、次に上記画像中の人物の領域が、通話相手の装置の表示部で表示可能な範囲から予め設定された閾値により設定した、ずれた位置がぎりぎりであることを注意喚起する下側の注意線を超えているか否かを判断する(ステップS501)。   If it is determined in step S501 that the area of the person in the image does not exceed the upper attention line AL, the CPU 28 is too close to both the face area and the non-face area in the image. If the position of the person area in the image is not set to the preset value from the range that can be displayed on the display unit of the other party, a warning will be issued. It is determined whether or not the lower attention line is exceeded (step S501).

上記図11において、人物の顔に相当する領域においては、下端から数%、例えば当該領域の縦幅の下側15%の位置を下側の注意線ALとしている。また、人物の顔以外の下方の領域においては、例えば略中央の高さ位置を下側の注意線ALとしている。   In FIG. 11, in the area corresponding to the face of a person, the position of several% from the lower end, for example, the lower 15% of the vertical width of the area is the lower attention line AL. Further, in the lower region other than the person's face, for example, a substantially central height position is set as a lower caution line AL.

これら各下側の注意線ALに対し、CPU28は人物の認識結果からそれら各下側の注意線ALの少なくとも一方を跨がってしまっているか否かにより、このテレビ電話装置10のユーザが上記撮影部IMから離れ過ぎているか否かを判断する(ステップS505)。   For each of the lower attention lines AL, the CPU 28 determines whether the user of the videophone device 10 is in accordance with whether or not the lower side attention line AL is straddled from the recognition result of the person. It is determined whether it is too far away from the imaging unit IM (step S505).

ここでCPU28が各領域において下側の注意線ALに人物の認識結果が跨がっておらず、このテレビ電話装置10のユーザが上記撮影部IMから離れ過ぎてもいないと判断した場合、前後のずれは生じておらず報知を行なう必要はないものとして、この図9の処理を終了する。   Here, when the CPU 28 determines that the person recognition result does not straddle the lower attention line AL in each region and the user of the videophone device 10 is not too far from the photographing unit IM, The processing of FIG. 9 is terminated on the assumption that there is no deviation and no notification is required.

また上記ステップS505で各領域の少なくとも一方において下側の注意線ALに人物の認識結果が跨がっており、このテレビ電話装置10のユーザが上記撮影部IMから離れ過ぎていると判断した場合、CPU28は相手の装置で小さく表示されているため、CPU28は上記各領域で下側の注意線ALより下部に注意を促す画像を上記投影画像駆動部23で重畳させて、自装置におけるサイネージボードSB上で投影させ(ステップS506)、以上でこの図9の処理を終了する。   If it is determined in step S505 that a person recognition result straddles the lower attention line AL in at least one of the areas, and the user of the videophone device 10 is too far from the photographing unit IM. Since the CPU 28 is displayed in a small size on the partner device, the CPU 28 superimposes an image for calling attention below the lower attention line AL in each area in the projected image driving unit 23 to signage board in the own device. Projection is performed on SB (step S506), and the processing of FIG.

このときCPU28は、例えばテレビ電話装置10のサイネージボードSBにおいて、通話相手の装置のユーザの画像を投影させるとともに、顔領域と顔以外の領域の双方において、下側の注意線ALよりさらに下側の領域を注意色、例えば黄色を重畳して投影させる。   At this time, the CPU 28 projects, for example, the image of the user of the other party device on the signage board SB of the videophone device 10, and further below the lower attention line AL in both the face area and the non-face area. Are projected with the attention color, for example, yellow, superimposed.

したがって、このテレビ電話装置10のユーザは、サイネージボードSBで投影される通話相手の画像の顔の領域あるいはそれ以外の領域の下側が黄色に染まって投影されることにより、自身の撮影画像が小さく映っているいることを、きわめて視覚的に理解することができる。   Therefore, the user of this videophone device 10 projects his / her captured image small by projecting the lower side of the face area of the other party image projected on the signage board SB or the lower side of the other area in yellow. I can understand what is reflected very visually.

また、上記ステップS501で上記画像中の人物の領域が上側の注意線ALを超えていると判断した場合、次にCPU28は上記画像中の人物の領域が表示部で表示可能な範囲の上側からも外れているか否かにより、通話相手の装置の上側の表示枠をはみ出しているか否かを判断する(ステップS502)。   If it is determined in step S501 that the person area in the image exceeds the upper attention line AL, the CPU 28 next starts from the upper side of the range in which the person area in the image can be displayed on the display unit. It is determined whether or not the display frame on the upper side of the device on the other end of the caller is protruding (step S502).

ここで画像中の人物の領域が通話相手の装置の上側の表示枠をはみ出していると判断した場合、CPU28は近付き過ぎに対する警告となる画像を上記投影画像駆動部23で重畳させて、自装置におけるサイネージボードSB上で投影させ(ステップS503)、以上でこの図9の処理を終了する。   If the CPU 28 determines that the area of the person in the image protrudes from the display frame on the upper side of the other party's device, the CPU 28 superimposes an image that becomes a warning on being too close by the projected image driving unit 23, and 9 is projected on the signage board SB (step S503), and the processing of FIG. 9 is completed.

このときCPU28は、例えばテレビ電話装置10のサイネージボードSBにおいて、通話相手の装置のユーザの画像を投影させるとともに、はみ出していると判断した顔の領域、及び顔以外の領域の各上側の注意線ALより上の領域を警告色、例えば赤色を重畳して投影させる。   At this time, for example, on the signage board SB of the videophone device 10, the CPU 28 projects the image of the user of the other device of the other party, and the attention lines on the upper side of the face area and the non-face area that are determined to be protruding. An area above AL is projected with a warning color, for example, red.

したがって、このテレビ電話装置10のユーザは、サイネージボードSBで投影される通話相手の画像の顔の領域及びそれ以外の領域の上辺部が赤色に染まって投影されることにより、自身の撮影画像が通話相手側で近付き過ぎにより上側ではみ出てしまっていることを、きわめて視覚的に理解することができる。   Therefore, the user of the videophone device 10 projects his / her captured image by coloring the face area of the other party's image projected on the signage board SB and the upper side of the other area in red. It is possible to understand very visually that the other side of the call is protruding too close to the other side.

また上記ステップS502で上記画像中の人物の領域が表示部で上側の注意線ALは超えているものの、表示可能な範囲の上側からは外れておらず、通話相手の装置の上側の表示枠ははみ出していないと判断した場合、CPU28は上側の注意線ALを超えている位置を認識した上で、近付き過ぎに対する注意となる画像を上記投影画像駆動部23で重畳させて、自装置におけるサイネージボードSB上で投影させ(ステップS504)、以上でこの図9の処理を終了する。   In step S502, although the area of the person in the image exceeds the upper attention line AL on the display unit, it does not deviate from the upper side of the displayable range, and the upper display frame of the other party's device is If it is determined that the image does not protrude, the CPU 28 recognizes the position exceeding the upper caution line AL, and superimposes an image that becomes a caution on being too close by the projection image drive unit 23, thereby signage board in the device itself. Projection is performed on the SB (step S504), and the processing of FIG.

このときCPU28は、例えばテレビ電話装置10のサイネージボードSBにおいて、通話相手の装置のユーザの画像を投影させるとともに、上記図11の顔の領域、及び顔以外の領域の各上側の注意線ALに相当する位置より上方の領域を注意色、例えば黄色を重畳して投影させる。   At this time, for example, on the signage board SB of the videophone device 10, the CPU 28 projects the image of the user of the other party's device on the attention line AL above each of the face area and the non-face area in FIG. A region above the corresponding position is projected with a caution color, for example yellow, superimposed.

したがって、このテレビ電話装置10のユーザは、サイネージボードSBで投影される通話相手の画像の顔の領域あるいはそれ以外の領域の上辺部が黄色に染まって投影されることにより、自身の撮影画像が通話相手側で近付き過ぎてはみ出しそうになっていることを、きわめて視覚的に理解することができる。   Therefore, the user of the videophone device 10 projects his or her captured image by coloring the face area of the other party image projected on the signage board SB or the upper side of the other area in yellow. You can understand very visually that the other party is approaching too close.

以上詳述した如く本実施形態によれば、テレビ電話機能時にユーザがどの位置にいれば自分の画像が正しく通話相手に送信されるのかを簡易に把握することが可能となる。   As described above in detail, according to the present embodiment, it is possible to easily grasp at which position the user is at the time of the videophone function to correctly transmit his image to the other party.

また上記実施形態では、撮影した遊佐自身の画像から顔認識処理を行なって顔の領域とそれ以外の領域を認識した上でずれを検出するようにしたので、より正確にずれの検出を行なうことができる。   In the above embodiment, the face recognition process is performed from the photographed Yusa's own image to recognize the face area and the other area, and the shift is detected, so that the shift can be detected more accurately. Can do.

さらに上記実施形態によれば、表示または投影する画像内で、ずれている位置、方向及び度合いの少なくともいずれかに応じた視覚的な報知を行なうことにより、ユーザによって理解し易く、即時ずれを補正するための動作に移行できるようになる。   Furthermore, according to the above-described embodiment, it is easy to understand by the user by performing visual notification according to at least one of the position, the direction, and the degree of deviation in the image to be displayed or projected, and the immediate deviation is corrected. It becomes possible to shift to the operation to do.

なお、上記実施形態では、ずれの方向と度合いにより、対応する方向の領域を注意色としての黄色、警告色としての赤色を重畳して表示または投影する場合について例示したが、本発明はそのような報知内容に限らず、例えばずれを生じている位置をスポット状に着色した画像(ずれが長い範囲に渡るときは複数の連続したスポット)で表現するものとしてもよく、あるいは、ずれを補正するための移動方向を矢印の画像を重畳することで表現しても良い。   In the above-described embodiment, the case where the region of the corresponding direction is displayed or projected by superimposing yellow as a caution color and red as a warning color according to the direction and degree of deviation is illustrated, but the present invention does so. For example, the position where the shift is generated may be expressed by a spot-colored image (a plurality of continuous spots when the shift is long), or the shift is corrected. The moving direction for this purpose may be expressed by superimposing an arrow image.

上記矢印の画像を重畳する場合、ずれの大きさにより矢印の色や画像上での大きさを変化することで、その度合いを表現することができる。   When the image of the arrow is superimposed, the degree can be expressed by changing the color of the arrow or the size on the image depending on the magnitude of the deviation.

また、前後のずれに関しては文字で注意や警告を報知してもよい。   Moreover, you may alert | report a warning and warning about the shift | offset | difference before and behind with a character.

また、左右のずれと前後のずれの注意や警告の報知方法を変更、例えば左右のずれは注意色や警告色を用いて報知し、前後のずれは文字で報知する、するような構成としてもよく、こうすることでユーザはどのように移動すればよいか分かりやすくなる。   Also, change the notice method of warning and warning of left and right deviation and front and rear deviation, for example, the right and left deviation is reported using caution color and warning color, and the front and rear deviation is reported by letters This often makes it easier for the user to know how to move.

また上記実施形態は、DLP(登録商標)方式の投影を行なうデジタルサイネージ装置を利和したテレビ電話装置に適用した場合について説明したが、投影の方式や装置等を限定するものではない。   Moreover, although the said embodiment demonstrated the case where the digital signage apparatus which performs a projection of a DLP (trademark) system was applied to the soft videophone apparatus, the system of projection, an apparatus, etc. are not limited.

さらに、例えばスマートフォンのような通信端末でテレビ電話機能による通話を行なう場合にも、把持しているスマートフォンの向きが傾いてしまうことを同様の処理により表現でき、ユーザに対してスマートフォンの傾きを変え、あるいはスマートフォンの遠近位置を変えることを指示できる。   Furthermore, for example, when making a videophone call using a communication terminal such as a smartphone, it can be expressed by the same processing that the orientation of the smartphone being held is tilted, and the inclination of the smartphone is changed with respect to the user. Or, you can instruct to change the perspective position of the smartphone.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
請求項1記載の発明は、通信先の装置から画像データを受信する受信手段と、上記受信手段で受信した画像データに応じた画像を表示する表示手段と、送信すべき画像のデータを取得する画像取得手段と、上記画像取得手段で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出手段と、上記ずれ検出手段で検出したずれに応じ、上記表示手段で表示している画像内で報知する報知手段とを備えることを特徴とする。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
According to the first aspect of the present invention, receiving means for receiving image data from a communication destination device, display means for displaying an image corresponding to the image data received by the receiving means, and data of an image to be transmitted are acquired. Based on the image acquisition means, the image data acquired by the image acquisition means, a deviation detection means for detecting the deviation of the subject position in the image, and the display means according to the deviation detected by the deviation detection means. And informing means for informing in the image that is present.

請求項2記載の発明は、上記請求項1記載の発明において、上記ずれ検出手段は、画像中から顔認識処理に基づいて被写体位置のずれを検出することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the shift detection means detects a shift of the subject position from the image based on face recognition processing.

請求項3記載の発明は、上記請求項1または2記載の発明において、上記報知手段は、上記表示手段で表示する画像内で、ずれている位置、方向及び度合いの少なくとも1つに応じた報知を行なうことを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, the notifying unit notifies in accordance with at least one of a position, a direction, and a degree of deviation in an image displayed by the display unit. It is characterized by performing.

請求項4記載の発明は、上記請求項1記載の発明において、背景画像を取得する背景画像取得手段と、上記背景画像と比較することで被写体位置を検出する被写体位置検出手段とを備え、上記ずれ検出手段は、上記被写体位置検出手段の検出結果に基づいて画像中のずれを検出することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the image processing apparatus includes a background image acquisition unit that acquires a background image, and a subject position detection unit that detects a subject position by comparing the background image. The shift detection means detects a shift in the image based on the detection result of the subject position detection means.

請求項5記載の発明は、上記請求項1乃至4いずれか記載の発明において、上記通信先の装置は、投影パネルを備えた投影装置であって、上記送信すべき画像のデータは上記投影パネルの形状に加工され、上記ずれ検出手段は、上記投影パネルに投影される上記送信すべき画像に対して、被写体位置のずれを検出することを特徴とする。   The invention according to claim 5 is the invention according to any one of claims 1 to 4, wherein the communication destination device is a projection device including a projection panel, and the image data to be transmitted is the projection panel. The shift detection means detects a shift of the subject position with respect to the image to be transmitted projected on the projection panel.

請求項6記載の発明は、上記請求項1乃至5いずれか記載の発明において、上記通信先装置に表示される送信すべき画像の表示枠に対して、注意線を設定する注意線設定手段をさらに備え、上記ずれ検出手段は、上記注意線と上記被写体の位置に基づいてずれを検出することを特徴とする。   According to a sixth aspect of the present invention, there is provided a caution line setting means for setting a caution line with respect to a display frame of an image to be transmitted displayed on the communication destination device. Further, the shift detection means detects a shift based on the attention line and the position of the subject.

請求項7記載の発明は、上記請求項1乃至6いずれか記載の発明において、上記ずれ検出手段は、左右方向のずれと前後方向のずれとを検出することを特徴とする。   The invention according to claim 7 is the invention according to any one of claims 1 to 6, wherein the deviation detecting means detects a deviation in the left-right direction and a deviation in the front-rear direction.

請求項8記載の発明は、上記請求項7記載の発明において、上記報知手段は、上記左右方向のずれと前後方向のずれとで異なる報知を行なうことを特徴とする。   The invention described in claim 8 is characterized in that, in the invention described in claim 7, the notification means performs different notification for the shift in the left-right direction and the shift in the front-rear direction.

請求項9記載の発明は、通信先の装置から画像データを受信する受信工程と、上記受信工程で受信した画像データに応じた画像を表示する表示工程と、送信すべき画像のデータを取得する画像取得工程と、上記画像取得工程で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出工程と、上記ずれ検出工程で検出したずれに応じ、上記表示工程で表示している画像内で報知する報知工程とを有したことを特徴とする。   According to the ninth aspect of the present invention, a receiving step for receiving image data from a communication destination device, a display step for displaying an image corresponding to the image data received in the receiving step, and image data to be transmitted are acquired. Based on the image acquisition process, the image data acquired in the image acquisition process, a shift detection process for detecting a shift in the subject position in the image, and the display process according to the shift detected in the shift detection process. And an informing step for informing within the image.

請求項10記載の発明は、通信先の装置と画像のデータを送受する装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、通信先の装置から画像データを受信する受信手段、上記受信手段で受信した画像データに応じた画像を表示する表示手段、送信すべき画像のデータを取得する画像取得手段、上記画像取得手段で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出手段、及び上記ずれ検出手段で検出したずれに応じ、上記表示手段で表示している画像内で報知する報知手段として機能させることを特徴とする。   According to a tenth aspect of the present invention, there is provided a program executed by a computer built in a communication destination device and a device that transmits and receives image data, wherein the computer receives image data from the communication destination device, and Display means for displaying an image according to the image data received by the receiving means, image acquiring means for acquiring data of the image to be transmitted, and the displacement of the subject position in the image by the image data acquired by the image acquiring means. It is made to function as a detection means for detecting, and a notification means for making a notification in the image displayed by the display means in accordance with the detection detected by the detection means.

10…テレビ電話装置、10A…装置筐体、11…投影レンズ部、12…フレネルレンズシート、13…リヤプロジェクトスクリーン、14…透明ボード、21…アンテナ、22…無線通信部、23…投影画像駆動部、24…マイクロミラー素子、25…光源部、26…ミラー、27…音声処理部、28…CPU、29…メインメモリ、30…プログラムメモリ、31…操作部、32…撮影画像処理部、33…画像メモリ、34…撮影レンズ部、35…CMOSイメージセンサ、36…A/D変換回路、AL…注意線、B…バス、IM…撮影部、MC…マイクロホン部、MR…ミラー、PA…投影可能領域、SA…スクリーン投影領域、SB…サイネージボード、SP…スピーカ部。   DESCRIPTION OF SYMBOLS 10 ... Video telephone apparatus, 10A ... Apparatus housing, 11 ... Projection lens part, 12 ... Fresnel lens sheet, 13 ... Rear project screen, 14 ... Transparent board, 21 ... Antenna, 22 ... Wireless communication part, 23 ... Projection image drive , 24 ... micromirror element, 25 ... light source unit, 26 ... mirror, 27 ... sound processing unit, 28 ... CPU, 29 ... main memory, 30 ... program memory, 31 ... operation unit, 32 ... photographed image processing unit, 33 ... Image memory, 34 ... Shooting lens unit, 35 ... CMOS image sensor, 36 ... A / D conversion circuit, AL ... Caution line, B ... Bus, IM ... Shooting unit, MC ... Microphone unit, MR ... Mirror, PA ... Projection Possible area, SA ... Screen projection area, SB ... Signage board, SP ... Speaker part.

Claims (10)

通信先の装置から画像データを受信する受信手段と、
上記受信手段で受信した画像データに応じた画像を表示する表示手段と、
送信すべき画像のデータを取得する画像取得手段と、
上記画像取得手段で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出手段と、
上記ずれ検出手段で検出したずれに応じ、上記表示手段で表示している画像内で報知する報知手段と
を備えることを特徴とする通信表示装置。
Receiving means for receiving image data from a communication destination device;
Display means for displaying an image according to the image data received by the receiving means;
Image acquisition means for acquiring image data to be transmitted;
A deviation detecting means for detecting a deviation of the subject position in the image based on the image data obtained by the image obtaining means;
A communication display device comprising: an informing means for informing an image displayed on the display means according to the deviation detected by the deviation detecting means.
上記ずれ検出手段は、画像中から顔認識処理に基づいて被写体位置のずれを検出することを特徴とする請求項1記載の通信表示装置。   2. The communication display device according to claim 1, wherein the shift detection unit detects a shift of the subject position from the image based on face recognition processing. 上記報知手段は、上記表示手段で表示する画像内で、ずれている位置、方向及び度合いの少なくとも1つに応じた報知を行なうことを特徴とする請求項1または2記載の通信表示装置。   The communication display device according to claim 1, wherein the notification unit performs notification according to at least one of a shifted position, direction, and degree in an image displayed by the display unit. 背景画像を取得する背景画像取得手段と、
上記背景画像と比較することで被写体位置を検出する被写体位置検出手段と
を備え、
上記ずれ検出手段は、上記被写体位置検出手段の検出結果に基づいて画像中のずれを検出することを特徴とする請求項1記載の通信表示装置。
Background image acquisition means for acquiring a background image;
Subject position detecting means for detecting the subject position by comparing with the background image,
2. The communication display apparatus according to claim 1, wherein the shift detection unit detects a shift in the image based on a detection result of the subject position detection unit.
上記通信先の装置は、投影パネルを備えた投影装置であって、
上記送信すべき画像のデータは上記投影パネルの形状に加工され、
上記ずれ検出手段は、上記投影パネルに投影される上記送信すべき画像に対して、被写体位置のずれを検出することを特徴とする請求項1乃至4いずれか記載の通信表示装置。
The communication destination device is a projection device including a projection panel,
The image data to be transmitted is processed into the shape of the projection panel,
The communication display device according to claim 1, wherein the shift detection unit detects a shift of a subject position with respect to the image to be transmitted projected on the projection panel.
上記通信先装置に表示される送信すべき画像の表示枠に対して、注意線を設定する注意線設定手段をさらに備え、
上記ずれ検出手段は、上記注意線と上記被写体の位置に基づいてずれを検出することを特徴とする請求項1乃至5いずれか記載の通信表示装置。
A caution line setting means for setting a caution line for the display frame of the image to be transmitted displayed on the communication destination device,
The communication display device according to claim 1, wherein the shift detection unit detects a shift based on the attention line and the position of the subject.
上記ずれ検出手段は、左右方向のずれと前後方向のずれとを検出することを特徴とする請求項1乃至6いずれか記載の通信表示装置。   The communication display device according to claim 1, wherein the shift detection unit detects a shift in the left-right direction and a shift in the front-rear direction. 上記報知手段は、上記左右方向のずれと前後方向のずれとで異なる報知を行なうことを特徴とする請求項7記載の通信表示装置。   8. The communication display device according to claim 7, wherein the notification means performs different notifications for the left-right direction shift and the front-rear direction shift. 通信先の装置から画像データを受信する受信工程と、
上記受信工程で受信した画像データに応じた画像を表示する表示工程と、
送信すべき画像のデータを取得する画像取得工程と、
上記画像取得工程で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出工程と、
上記ずれ検出工程で検出したずれに応じ、上記表示工程で表示している画像内で報知する報知工程と
を有したことを特徴とする通信表示方法。
A receiving step of receiving image data from a communication destination device;
A display step of displaying an image according to the image data received in the reception step;
An image acquisition step of acquiring image data to be transmitted;
A shift detection step for detecting a shift in the subject position in the image based on the image data acquired in the image acquisition step;
A communication display method comprising: a notification step of notifying in the image displayed in the display step according to the shift detected in the shift detection step.
通信先の装置と画像のデータを送受する装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、
通信先の装置から画像データを受信する受信手段、
上記受信手段で受信した画像データに応じた画像を表示する表示手段、
送信すべき画像のデータを取得する画像取得手段、
上記画像取得手段で取得した画像のデータにより、画像中の被写体位置のずれを検出するずれ検出手段、及び
上記ずれ検出手段で検出したずれに応じ、上記表示手段で表示している画像内で報知する報知手段
として機能させることを特徴とするプログラム。
A program executed by a computer built in a communication destination device and a device that transmits and receives image data, and the computer is
Receiving means for receiving image data from a communication destination device;
Display means for displaying an image according to the image data received by the receiving means;
Image acquisition means for acquiring image data to be transmitted;
Based on the image data acquired by the image acquisition means, a shift detection means for detecting a shift of the subject position in the image, and a notification in the image displayed by the display means according to the shift detected by the shift detection means A program characterized in that it functions as a notification means.
JP2013263090A 2013-12-19 2013-12-19 Communication display device, communication display method and program Pending JP2015119424A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013263090A JP2015119424A (en) 2013-12-19 2013-12-19 Communication display device, communication display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013263090A JP2015119424A (en) 2013-12-19 2013-12-19 Communication display device, communication display method and program

Publications (1)

Publication Number Publication Date
JP2015119424A true JP2015119424A (en) 2015-06-25

Family

ID=53531763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013263090A Pending JP2015119424A (en) 2013-12-19 2013-12-19 Communication display device, communication display method and program

Country Status (1)

Country Link
JP (1) JP2015119424A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251561A (en) * 1995-03-09 1996-09-27 Nec Corp User interface of image communication, terminal device
JP2004364089A (en) * 2003-06-06 2004-12-24 Matsushita Electric Ind Co Ltd Radio telephone set with camera
JP2005151430A (en) * 2003-11-19 2005-06-09 Nec Corp Video telephone apparatus and video telephone method
JP2008060734A (en) * 2006-08-29 2008-03-13 Toshiba Corp Portable terminal
WO2010070820A1 (en) * 2008-12-17 2010-06-24 パナソニック株式会社 Image communication device and image communication method
JP2011100396A (en) * 2009-11-09 2011-05-19 Hitachi Ltd Video display device
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251561A (en) * 1995-03-09 1996-09-27 Nec Corp User interface of image communication, terminal device
JP2004364089A (en) * 2003-06-06 2004-12-24 Matsushita Electric Ind Co Ltd Radio telephone set with camera
JP2005151430A (en) * 2003-11-19 2005-06-09 Nec Corp Video telephone apparatus and video telephone method
JP2008060734A (en) * 2006-08-29 2008-03-13 Toshiba Corp Portable terminal
WO2010070820A1 (en) * 2008-12-17 2010-06-24 パナソニック株式会社 Image communication device and image communication method
JP2011100396A (en) * 2009-11-09 2011-05-19 Hitachi Ltd Video display device
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment

Similar Documents

Publication Publication Date Title
KR20070072324A (en) Method and apparatus for adjusting projecting screen in projector
US20160231809A1 (en) Information processing device, information processing method, and program
JP2018046485A (en) Information output control apparatus, information output control method, and program
JP2007150452A (en) Video intercom device
JP2006042216A (en) Image printer, computer and image distribution system
CN106375787B (en) Video playing method and device
JP6460088B2 (en) Projection apparatus, projection method, and program
JP2015119424A (en) Communication display device, communication display method and program
JP6519095B2 (en) CONTENT OUTPUT SYSTEM, CONTENT OUTPUT DEVICE, CONTENT OUTPUT METHOD, AND PROGRAM
JP2017147512A (en) Content reproduction device, content reproduction method and program
JP6331380B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
JP2018114622A (en) Information processing device, operation position displaying method and operation position displaying program
JP6507496B2 (en) Image display apparatus, image display method and program
JP2015060211A (en) Projection device, program, and projection control method
JP2007018078A (en) Stereoscopic image processing method, stereoscopic image processor, program, and recording medium with program stored therein
JP2007097079A (en) Interphone system
JPWO2007072583A1 (en) Captured image display device and captured image display method
JP6522672B2 (en) Electronics
KR100476582B1 (en) Apparatus and method for controlling zoom lens of a camera in mobile communication telephone
JP2009230318A (en) Television intercom device
JP2000341753A (en) Data communication system
JP2023137374A (en) Display method, display system, and program
JP2011114734A (en) Television intercom device
JP6286976B2 (en) Projection apparatus, projection control method, and program
JP2000152069A (en) Photographing device, video transmission system, video receiver, video transmitter, video encoding device, and video reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180904