JP2009261007A - Intercom system - Google Patents

Intercom system Download PDF

Info

Publication number
JP2009261007A
JP2009261007A JP2009180810A JP2009180810A JP2009261007A JP 2009261007 A JP2009261007 A JP 2009261007A JP 2009180810 A JP2009180810 A JP 2009180810A JP 2009180810 A JP2009180810 A JP 2009180810A JP 2009261007 A JP2009261007 A JP 2009261007A
Authority
JP
Japan
Prior art keywords
image
unit
face
visitor
door phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009180810A
Other languages
Japanese (ja)
Inventor
Takashi Nihonsugi
貴 二本杉
Yoshinori Muroi
義則 室井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2009180810A priority Critical patent/JP2009261007A/en
Publication of JP2009261007A publication Critical patent/JP2009261007A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an intercom system in which an intercom master unit can surely and automatically record an expanded visitor's face by magnifying a face part in an image taken by a door phone slave unit without any manual operations. <P>SOLUTION: In the intercom system, when a door phone slave unit 20 is operated, a video image processing section 25, which acts as an image processing means for an image taken with a camera part 24, performs an image processing operation so as to: detect the position of a visitor's face from the taken image; expand the detected face part; and send it to the master unit 1 to be recorded. Specifically, the master unit 1 can surely and automatically record an expanded visitor's face by magnifying a face part in an image taken with the door phone slave unit 20 without any manual operations. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、屋外に設置されたドアホン子器で撮像した来訪者の画像を屋内に設置されたインターホン親機で録画・再生するインターホンシステムに関するものである。   The present invention relates to an interphone system that records and reproduces an image of a visitor imaged by a doorphone slave installed outdoors using an interphone master installed indoors.

この種のインターホンシステムとして、図13に示すように屋外の玄関に設置されたカメラ付きのドアホン子器60と、屋内に設置されてドアホン子器60との間で通話が可能であり、さらにドアホン子器60のカメラで撮像された画像を液晶ディスプレイなどの表示デバイスに表示させるとともに録画するインターホン親機50とで構成されるインターホンシステムが提供されている(特許文献1参照)。すなわち、来訪者がドアホン子器60の呼出釦61を押操作すると呼出信号がインターホン親機50に伝送され、この呼出信号を受けたインターホン親機50では呼出音を鳴動させるとともにドアホン子器60のカメラを起動して来訪者を撮像させ、この撮像画像を表示デバイスの画面51に表示させる。そして、インターホン親機50の通話釦52が押操作されるとドアホン子器60との間に通話路が形成され、表示デバイスの画面で相手の姿を視ながら来訪者と通話することができ、さらに、インターホン親機50においては通話中の来訪者を撮像した画像を録画することができる。   As an interphone system of this type, as shown in FIG. 13, it is possible to make a call between a doorphone slave unit 60 with a camera installed at an outdoor entrance and a doorphone slave unit 60 installed indoors. There is provided an interphone system including an interphone master 50 that displays an image captured by a camera of the slave unit 60 on a display device such as a liquid crystal display and records the image (see Patent Document 1). That is, when a visitor presses the call button 61 of the doorphone slave unit 60, a call signal is transmitted to the interphone master unit 50, and the interphone master unit 50 that receives this call signal sounds a ringing tone as well as the doorphone slave unit 60. The camera is activated to image a visitor, and this captured image is displayed on the screen 51 of the display device. When the call button 52 of the intercom base unit 50 is pressed, a communication path is formed with the door phone slave unit 60, and a call can be made with a visitor while watching the other party on the display device screen. Furthermore, the interphone base unit 50 can record an image of a visitor who is talking.

ここで、ドアホン子器60のカメラには、確実に来訪者の姿が撮像できるように比較的に焦点距離が短いレンズが用いられているため、表示デバイスの画面に表示される来訪者の顔が小さくなってしまう傾向にある。そのため、特許文献1に記載されている従来例においては、表示デバイスの画面上で選択した範囲Sを画面全体に拡大して表示する機能をインターホン親機50に備えており、十字キー釦53を操作して選択範囲を画面上で移動させて来訪者の顔を選択範囲内に収めた後、ズーム釦54を操作することで選択範囲を画面全体に拡大して表示及び録画することができるようになっている。   Here, since the camera of the doorphone slave unit 60 uses a lens having a relatively short focal length so that the appearance of the visitor can be reliably imaged, the face of the visitor displayed on the screen of the display device. Tend to be smaller. Therefore, in the conventional example described in Patent Document 1, the intercom base unit 50 has a function of displaying the range S selected on the screen of the display device in an enlarged manner on the entire screen. The user can move the selection range on the screen to place the visitor's face within the selection range, and then operate the zoom button 54 to enlarge the selection range to display and record the entire screen. It has become.

また、この種のインターホンシステムには、ドアホン子器60からの呼出信号を検出したインターホン親機50がドアホン子器60のカメラで撮像した画像を自動的に録画する機能(留守録機能)を有するものがあり、留守録時においては人が十字キー釦53を操作して選択範囲を移動させることができないため、例えば、来訪者の顔の位置に対応する確率が高いと予想される画面中央を自動的に拡大して録画するようになっていた。   In addition, this type of intercom system has a function of automatically recording an image captured by the camera of the doorphone slave unit 60 by the interphone master unit 50 that has detected the calling signal from the doorphone slave unit 60 (answering function). In the absence recording, since the person cannot operate the cross key button 53 to move the selection range, for example, the center of the screen that is expected to have a high probability corresponding to the position of the visitor's face is used. The video was automatically enlarged and recorded.

特開平5−236478号公報JP-A-5-236478

しかしながら、来訪者の顔の位置が必ずしも画面中央に一致するとは限らず、顔の位置と一致しない画面中央の拡大画像が録画された場合、元の画像に比べて来訪者の映る範囲が狭くなり、かえって来訪者の顔が判別できなくなる虞がある。   However, the visitor's face position does not necessarily match the center of the screen, and if an enlarged image of the center of the screen that does not match the face position is recorded, the visitor's range of view is narrower than the original image. On the contrary, there is a possibility that the face of the visitor cannot be identified.

本発明は上記事情に鑑みて為されたものであり、その目的は、人が操作しなくても、ドアホン子器で撮像された画像から来訪者の顔の位置を拡大した画像を確実且つ自動的にインターホン親機で録画することができるインターホンシステムを提供することにある。   The present invention has been made in view of the above circumstances, and its purpose is to reliably and automatically display an image obtained by enlarging the position of a visitor's face from an image captured by a door phone slave unit without human operation. It is intended to provide an intercom system capable of recording with an interphone master unit.

請求項1の発明は、上記目的を達成するために、来訪者を撮像する撮像手段を備えて屋外に設置されるドアホン子器と、屋内に設置されてドアホン子器の撮像手段で撮像された画像を録画するとともに録画した画像を再生し且つドアホン子器との間で通話が可能であるインターホン親機とで構成されるインターホンシステムにおいて、インターホン親機は、画像を記憶する画像記憶手段と、画像を表示する表示手段と、画像記憶手段に記憶されている画像を読み出して表示手段に表示させる画像制御手段とを備え、ドアホン子器又はインターホン親機の何れか一方に、撮像手段で撮像された画像に対して画像処理を行うことにより当該画像における来訪者の顔の位置を検出するとともに検出された顔の位置の画像を拡大する画像処理手段と、来訪者の来訪を検知して撮像手段を動作させる撮像制御手段とを備え、撮像制御手段が撮像手段を動作させたときに画像処理手段が動作して来訪者の顔の位置を拡大した画像がインターホン親機の画像記憶手段に記憶されることを特徴とする。   In order to achieve the above object, the invention of claim 1 is provided with an image pickup means for picking up an image of a visitor and is installed outdoors and imaged by an image pickup means of the doorphone set installed indoors. In an interphone system configured with an interphone master unit that records images and reproduces the recorded images and is capable of making a call with a door phone slave unit, the interphone master unit includes image storage means for storing images, A display means for displaying an image; and an image control means for reading out the image stored in the image storage means and displaying the image on the display means. The image pickup means captures the image on either the doorphone slave unit or the interphone master unit. Image processing means for detecting the position of the face of the visitor in the image by performing image processing on the image and expanding the image of the detected face position; An image pickup control means for detecting the visit of the visitor and operating the image pickup means, and when the image pickup control means operates the image pickup means, the image processing means is operated to enlarge an image of the visitor's face. It is stored in the image storage means of the intercom base unit.

請求項1の発明によれば、撮像制御手段が撮像手段を動作させたとき、撮像手段で撮像された画像に対して画像処理手段が画像処理を行うことにより当該画像における来訪者の顔の位置を検出し、画像処理手段が撮像手段で撮像された画像の中から検出された顔の位置を拡大した画像をインターホン親機の画像記憶手段に記憶させるため、人が操作しなくても、ドアホン子器で撮像された画像から来訪者の顔の位置を拡大した画像を確実且つ自動的にインターホン親機で録画することができる。   According to the first aspect of the present invention, when the image pickup control means operates the image pickup means, the image processing means performs image processing on the image picked up by the image pickup means, whereby the position of the visitor's face in the image is obtained. And the image processing means stores an image in which the position of the face detected from the images taken by the imaging means is enlarged in the image storage means of the interphone master unit, so that the door phone can be operated without human operation. An image obtained by enlarging the position of the visitor's face from an image captured by the slave unit can be surely and automatically recorded by the interphone master unit.

請求項2の発明は、請求項1の発明において、前記画像処理手段をドアホン子器に備えたことを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the image processing means is provided in a door phone sub unit.

本発明によれば、人が操作しなくても、ドアホン子器で撮像された画像から来訪者の顔の位置を拡大した画像を確実且つ自動的にインターホン親機で録画することができる。   According to the present invention, an image obtained by enlarging the position of a visitor's face from an image captured by a door phone slave unit can be reliably and automatically recorded by an interphone master unit without being operated by a person.

実施形態1のシステム構成図である。1 is a system configuration diagram of Embodiment 1. FIG. 同上のブロック図である。It is a block diagram same as the above. 同上におけるドアホン子器の映像処理部の回路構成図である。It is a circuit block diagram of the image | video process part of the door phone sub unit in the same as the above. 同上における映像処理部の動作説明用の図であって、(a)は顔検出用テンプレート画像のイメージ図、(b)は顔検出用テンプレート画像の濃淡勾配方向画像のイメージ図、(c)は顔検出用テンプレート画像の形状特徴説明図である。It is a figure for operation | movement description of a video processing part in the same as the above, Comprising: (a) is an image figure of the template image for face detection, (b) is an image figure of the gradient direction image of the template image for face detection, (c) is a face detection It is a shape feature explanatory view of a template image. 実施形態1乃至5における映像処理部の動作説明用の撮像イメージ図である。FIG. 6 is a captured image diagram for explaining the operation of the video processing unit in the first to fifth embodiments. 同上における映像処理部の動作説明用の図であって、(a)は撮像画像の濃淡勾配方向画像のイメージ図、(b)は撮像画像の形状特徴説明図である。It is a figure for operation | movement description of a video processing part in the same as the above, Comprising: (a) is an image figure of the gradation gradient direction image of a captured image, (b) is a figure characteristic explanatory drawing of a captured image. 同上に用いるソーベルフィルタの説明図である。It is explanatory drawing of the Sobel filter used for the same as the above. 同上の基準点候補点の投票結果の説明図である。It is explanatory drawing of the vote result of a reference point candidate point same as the above. 同上の拡大された画像が表示されたインターホン親機の平面図である。It is a top view of the intercom main unit by which the enlarged image same as the above was displayed. 同上における映像処理部の動作説明用の図であって、(a)は顔検出用テンプレート画像のイメージ図、(b)は顔検出用テンプレート画像の濃淡勾配方向画像のイメージ図、(c)は検出対象の顔を撮像した撮像画像のイメージ図である。It is a figure for operation | movement description of the image | video process part in the same as the above, Comprising: (a) is an image figure of the template image for face detection, (b) is an image figure of the gradation gradient direction image of the template image for face detection, (c) is a detection object. It is an image figure of the captured image which imaged the face of. (a)は実施形態2、3に用いる顔検出手段の構成図、(b)は同上の顔検出手段の顔サイズ検出における顔サイズと投票値との関係説明図である。(A) is a block diagram of the face detection means used in Embodiments 2 and 3, and (b) is an explanatory diagram of the relationship between the face size and the vote value in the face size detection of the face detection means of the above. (a)は実施形態4,5に用いる顔検出手段の構成図、(b)は同上の検出対象の顔を撮像した撮像画像のイメージ図、(c)は同上の顔回転検出における顔回転角と投票値との関係説明図である。(A) is the block diagram of the face detection means used for Embodiment 4, 5, (b) is the image figure of the picked-up image which imaged the face of the detection object same as the above, (c) is the face rotation angle in the face rotation detection same as the above. It is relationship explanatory drawing with a vote value. 従来例のシステム構成図である。It is a system configuration diagram of a conventional example.

(実施形態1)
以下、図面を参照して本発明の実施形態を説明する。本実施形態のインターホンシステムは、住戸外の玄関などに設置されるドアホン子器20と、住戸内に設置されてドアホン子器20との間で通話を行うインターホン親機(以下、「親機」と略す)1とで構成される。ここで、ドアホン子器20は2線式の通話線及び2線式の制御線からなる2対の信号線L1によって親機1と接続される。
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The intercom system according to the present embodiment includes an intercom master unit 20 installed at a front door or the like outside a dwelling unit and an interphone master unit (hereinafter referred to as “master unit”) that is installed inside the dwelling unit and makes a call between the doorphone sub unit 20. 1). Here, the door phone slave unit 20 is connected to the base unit 1 by two pairs of signal lines L1 including a two-wire communication line and a two-wire control line.

図1及び図2は、本実施形態のシステム構成図並びにブロック図をそれぞれ示している。   1 and 2 show a system configuration diagram and a block diagram of this embodiment, respectively.

ドアホン子器20は、親機1によって通話線に印加される電圧を受けて内部の動作電源を作成するとともに内部の通話経路と通話線との間を2線−4線変換する受電部21と、マイクロホン及びスピーカを有する音声入出力部22と、マイクロホンから入力する音声信号の増幅や親機1から通話線を介して送られてくる音声信号の増幅等を行う音声処理部23と、CCDのような個体撮像素子とレンズなどの光学系を有して来訪者を撮像するカメラ部24と、マイクロコンピュータを主構成要素とし、カメラ部24から出力される映像信号に対して画像処理(後述する)を行うとともに画像処理された後の映像信号を周波数変調する映像処理部25と、来訪者が呼出釦28(図1参照)を押操作したときにオンするスイッチを有し該スイッチがオンしたときに通話線の線間電圧を変化させるなどして呼出信号を送出する操作部26と、親機1との通話時などに制御線を介して給電されることにより表示素子(発光ダイオード)を点灯させる表示部27とを備える。ここで、音声処理部23から出力される音声信号(ベースバンド信号)に周波数変調された映像信号(以下、「FM映像信号」と呼ぶ)が受電部21で多重化され、通話線を通して親機1に送られる。   The door phone sub unit 20 receives a voltage applied to the call line by the base unit 1 to create an internal operating power source, and performs a two-to-four line conversion between the internal call path and the call line; A voice input / output unit 22 having a microphone and a speaker, a voice processing unit 23 for amplifying a voice signal inputted from the microphone, amplifying a voice signal sent from the master unit 1 through a call line, and the like, A camera unit 24 that has such an individual image sensor and an optical system such as a lens and images a visitor, and a microcomputer as main components, and image processing (described later) on a video signal output from the camera unit 24 ) And frequency-modulating the video signal after image processing, and a switch that is turned on when the visitor presses the call button 28 (see FIG. 1). A display element (light-emitting diode) is supplied with power via the control unit 26 during a call with the operation unit 26 that sends a call signal by changing the line voltage of the call line when it is turned on. ) Is lit. Here, the video signal (hereinafter referred to as “FM video signal”) frequency-modulated to the audio signal (baseband signal) output from the audio processing unit 23 is multiplexed by the power receiving unit 21 and is transmitted through the communication line to the master unit. Sent to 1.

親機1は、通話線に直流電圧を印加してドアホン子器20への給電を行うとともに多重化されて伝送されてくる音声信号とFM映像信号を分離する給電部2と、マイクロコンピュータを主構成要素とする親機制御部3と、マイクロホン及びスピーカを有する音声入出力部4と、音声入出力部4から入力する音声信号と給電部2で分離されたドアホン子器20からの音声信号とを比較し、信号レベルが低い方の音声信号を減衰させることで通話方向(親機1→ドアホン子器20又は親機1←ドアホン子器20)を切り換える音声スイッチの機能を有した音声処理部5と、液晶ディスプレイ(LCD)からなる表示部6と、ドアホン子器20から送られてくるFM映像信号を復調し表示部6に映像信号を出力して映像を表示させる映像処理部7と、通話釦11(図1参照)の操作によりオンする通話スイッチやモニタ釦12(図1参照)の操作によりオンするモニタスイッチを有し、各スイッチがオンしたときにそれぞれ対応する操作信号を親機制御部3に出力する親機操作部8と、ドアホン子器20から送られてくるFM映像信号を復調するとともにディジタル信号に変換して記憶(録画)する録画部9と、商用電源より各部の動作電源を作成する電源部10とを備える。尚、録画部9においてはFM映像信号を復調してディジタル信号に変換した後に記憶しているが、復調せずにディジタル信号に変換してもよいし、復調した後にアナログ信号のままで記憶するようにしても構わない。   Main unit 1 applies a DC voltage to a telephone line to supply power to door phone slave unit 20, and also feeds power unit 2 that separates multiplexed audio signals and FM video signals, and a microcomputer. Main unit control unit 3 as a component, audio input / output unit 4 having a microphone and a speaker, an audio signal input from audio input / output unit 4 and an audio signal from doorphone slave unit 20 separated by power supply unit 2 And a voice processing unit having a function of a voice switch for switching the call direction (master unit 1 → door phone slave unit 20 or master unit 1 ← door phone slave unit 20) by attenuating the voice signal having the lower signal level 5, a display unit 6 composed of a liquid crystal display (LCD), and a video processing unit 7 that demodulates the FM video signal sent from the intercom 20 and outputs the video signal to the display unit 6 to display the video. There are a call switch that is turned on by operation of the call button 11 (see FIG. 1) and a monitor switch that is turned on by operation of the monitor button 12 (see FIG. 1). The main unit operation unit 8 to be output to the control unit 3, the recording unit 9 that demodulates the FM video signal sent from the door phone slave unit 20, converts it into a digital signal and stores (records) it, and the commercial power supply And a power supply unit 10 for creating an operating power supply. In the recording unit 9, the FM video signal is demodulated and converted into a digital signal, but may be converted into a digital signal without being demodulated, or may be stored as an analog signal after being demodulated. It doesn't matter if you do.

また本実施形態では、ドアホン子器20とは別にカメラ子器40が信号線L2により親機1に接続されている。このカメラ子器40は、親機1によって信号線L2に印加される電圧を受けて内部の動作電源を作成する受電部41と、マイクロホンを有する音声入力部42と、マイクロホンから入力する音声信号の増幅などを行う音声処理部43と、CCDのような個体撮像素子とレンズなどの光学系を有して来訪者を撮像するカメラ部44と、マイクロコンピュータを主構成要素とし、カメラ部44から出力される映像信号に対して画像処理(後述する)を行うとともに画像処理された後の映像信号を周波数変調する映像処理部45と、人体から放射される熱線を焦電素子で検出することにより来訪者の有無を感知する人感センサ部46と、人感センサ部46で来訪者を感知したときなどに表示素子(発光ダイオード)を点灯させる表示部47とを備える。   Moreover, in this embodiment, the camera subunit 40 is connected to the main unit 1 by the signal line L2 separately from the door phone subunit 20. The camera slave unit 40 receives a voltage applied to the signal line L2 by the base unit 1 and creates an internal operation power source, a voice input unit 42 having a microphone, and a voice signal input from the microphone. An audio processing unit 43 that performs amplification, a camera unit 44 that has an individual imaging device such as a CCD and an optical system such as a lens, and a microcomputer as a main component and outputs from the camera unit 44 The image processing unit 45 performs image processing (to be described later) on the image signal to be processed and frequency-modulates the image signal after image processing, and detects the heat rays radiated from the human body with a pyroelectric element. A human sensor 46 that senses the presence or absence of a person, and a display 47 that turns on a display element (light emitting diode) when the human sensor 46 senses a visitor. .

次に親機1並びにドアホン子器20、カメラ子器40の基本的な動作を説明する。   Next, basic operations of the base unit 1, the door phone slave unit 20, and the camera slave unit 40 will be described.

まず、来訪者がドアホン子器20の呼出釦28を押操作すると操作部26が受電部21から通話線を介して親機1に呼出信号を送信し、さらに映像処理部25とカメラ部24が起動してカメラ部24で撮像した来訪者の映像が受電部21から通話線を介して親機1に伝送される。親機1では、呼出信号を検出した親機制御部3が音声処理部5を制御して音声入出力部4のスピーカらから呼出音を鳴動させるとともに、ドアホン子器20から伝送されてきたFM映像信号を映像処理部7で復調させて来訪者の映像を表示部6に表示させる。そして、家人が親機1の通話釦11を押操作すると親機操作部8から操作信号が出力され、この操作信号を受けた親機制御部3が音声処理部5並びに音声入出力部4と通話線の間に通話路を形成してドアホン子器20との通話が可能となる。また、モニタ釦12が押操作されて親機操作部8から操作信号が出力されると、この操作信号を受けた親機制御部3が給電部2から通話線を介してドアホン子器20への給電を行い、ドアホン子器20のカメラ部24及び映像処理部25が起動してカメラ部24で撮像した映像が親機1に送られるため、表示部6にドアホン子器20のカメラ部24で撮像した映像が映し出される。すなわち、ドアホン子器20においては、操作部26の呼出釦28が押操作されることで来訪者の来訪を検知して撮像手段(カメラ部24及び映像処理部25)を動作させていることになり、操作部26が撮像制御手段に相当する。   First, when a visitor presses the call button 28 of the door phone cordless handset 20, the operation unit 26 transmits a call signal from the power receiving unit 21 to the base unit 1 through the telephone line, and the video processing unit 25 and the camera unit 24 further. The video of the visitor that is activated and imaged by the camera unit 24 is transmitted from the power receiving unit 21 to the base unit 1 via the telephone line. In the base unit 1, the base unit control unit 3 that has detected the calling signal controls the voice processing unit 5 to ring the ringing sound from the speakers of the voice input / output unit 4, and the FM transmitted from the doorphone slave unit 20. The video signal is demodulated by the video processing unit 7 and the video of the visitor is displayed on the display unit 6. When the housekeeper presses the call button 11 of the base unit 1, an operation signal is output from the base unit operation unit 8, and the base unit control unit 3 that receives this operation signal is connected to the voice processing unit 5 and the voice input / output unit 4. A call path is formed between the call lines, and a call with the door phone slave unit 20 becomes possible. When the monitor button 12 is pressed and an operation signal is output from the base unit operation unit 8, the base unit control unit 3 that has received this operation signal is sent from the power supply unit 2 to the door phone sub unit 20 through the call line. Since the camera unit 24 and the video processing unit 25 of the door phone slave unit 20 are activated and the video imaged by the camera unit 24 is sent to the base unit 1, the camera unit 24 of the door phone slave unit 20 is displayed on the display unit 6. The image captured with is displayed. That is, in the doorphone sub unit 20, when the call button 28 of the operation unit 26 is pressed, the visitor is detected and the imaging unit (the camera unit 24 and the video processing unit 25) is operated. Thus, the operation unit 26 corresponds to an imaging control unit.

また、来訪者若しくは不審者が感知領域に入るとカメラ子器40の人感センサ部46が人の存在を感知して映像処理部25とカメラ部24が起動してカメラ部24で撮像した来訪者の映像が受電部21から通話線を介して親機1に伝送されるとともに、音声入力部42と音声処理部43が起動して音声入力部42に入力された音声も受電部21から通話線を介して親機1に伝送される。親機1では、親機制御部3が音声処理部5を制御してカメラ子器40から伝送されてきた音声を音声入出力部4のスピーカらから出力させるとともに、カメラ子器40から伝送されてきたFM映像信号を映像処理部7で復調させて来訪者若しくは不審者の映像を表示部6に表示させる。すなわち、カメラ子器40においては、人感センサ部46で来訪者を検知して撮像手段(カメラ部44及び映像処理部45)を動作させていることになり、人感センサ部46が撮像制御手段に相当する。尚、カメラ子器40の音声入力部42にスピーカを設け、親機1から伝送される音声をスピーカから出力することで不審者の威嚇等を行うようにしても構わない。   In addition, when a visitor or a suspicious person enters the sensing area, the motion sensor unit 46 of the camera slave unit 40 senses the presence of a person and the video processing unit 25 and the camera unit 24 are activated and the camera unit 24 takes an image. The user's video is transmitted from the power receiving unit 21 to the base unit 1 via the call line, and the voice input unit 42 and the voice processing unit 43 are activated and the voice input to the voice input unit 42 is also transmitted from the power receiving unit 21. It is transmitted to the base unit 1 via the line. In the base unit 1, the base unit control unit 3 controls the audio processing unit 5 to output the sound transmitted from the camera sub unit 40 from the speakers of the audio input / output unit 4 and is transmitted from the camera sub unit 40. The received FM video signal is demodulated by the video processing unit 7 and the video of the visitor or suspicious person is displayed on the display unit 6. That is, in the camera slave unit 40, the human sensor unit 46 detects a visitor and operates the imaging means (camera unit 44 and video processing unit 45), and the human sensor unit 46 controls the imaging. Corresponds to means. Note that a speaker may be provided in the audio input unit 42 of the camera slave unit 40, and the sound transmitted from the parent device 1 may be output from the speaker, thereby threatening the suspicious person.

次に、本発明の要旨であるドアホン子器20及びカメラ子器40の映像処理部25,45における画像処理について説明する。但し、2つの映像処理部25,45で行う画像処理は全く共通であるから、以下ではドアホン子器20の映像処理部25についてのみ説明する。   Next, image processing in the video processing units 25 and 45 of the door phone slave unit 20 and the camera slave unit 40, which is the gist of the present invention, will be described. However, since the image processing performed by the two video processing units 25 and 45 is quite common, only the video processing unit 25 of the doorphone slave unit 20 will be described below.

映像処理部25は、上述のように呼出釦28の押操作によりカメラ部24及び映像処理部25が起動すると、カメラ部24で撮像された画像における来訪者の顔の位置を検出する画像処理(以下、「顔位置検出処理」と呼ぶ)を行うとともに検出された顔の位置の画像を拡大する画像処理(以下、「ズーム処理」と呼ぶ)を行っている。   When the camera unit 24 and the video processing unit 25 are activated by pressing the call button 28 as described above, the video processing unit 25 detects the position of the visitor's face in the image captured by the camera unit 24 ( Hereinafter, image processing (hereinafter referred to as “zoom processing”) for enlarging the image of the detected face position is performed.

まず、顔位置検出処理について説明する。図3は映像処理部25の顔位置検出処理を行う構成を示したブロック図であり、カメラ部24からの撮像画像をA/D変換して取り込む画像入力手段251と、予め顔検出用テンプレートを記憶させている顔検出用テンプレート画像記憶手段252と、この顔検出用テンプレート画像記憶手段252に記憶されている図4(a)に示すような顔検出用テンプレート画像A及び画像入力手段251が取り込んだ図5に示すような撮像画像Bの各濃度勾配方向画像A’,B’(図4(b)、図4(a)参照)を抽出する濃度勾配方向抽出手段253と、抽出した濃度勾配方向画像A’,B’を記憶する濃度勾配方向画像記憶手段254と、濃度勾配方向画像記憶手段254に記憶されている顔検出用テンプレート画像Aの濃度勾配方向画像A’上の基準点Oと参照とする各座標点(以下参照点という)Rとの間の距離L、基準点Oと各参照点Rとを結ぶ線が参照点Rを通る水平軸(X軸)と交差する角度αの情報を抽出する形状特徴抽出手段255と、これら抽出された情報を顔検出用テンプレート画像Aの濃度勾配方向の値θ毎に分離して記憶する形状特徴記憶手段256と、濃度勾配方向画像記憶手段254に記憶されている撮像画像Bの濃度勾配方向画像B’の各参照点R’における濃度勾配方向の値θ、及び形状特徴記憶手段256に記憶された形状特徴の情報に基づいて、濃度勾配方向画像B’における基準点候補点に投票処理を行う投票手段257と、この投票手段257によって求めた投票結果に基づいて、顔の位置を検出する顔検出手段258とで構成される。   First, the face position detection process will be described. FIG. 3 is a block diagram showing a configuration for performing the face position detection process of the video processing unit 25. An image input unit 251 that captures a captured image from the camera unit 24 by A / D conversion, and a face detection template in advance. The stored face detection template image storage means 252 and the face detection template image A and image input means 251 stored in the face detection template image storage means 252 as shown in FIG. The density gradient direction extracting means 253 for extracting the density gradient direction images A ′ and B ′ (see FIGS. 4B and 4A) of the captured image B as shown in FIG. 5, and the extracted density gradient The density gradient direction image storage unit 254 that stores the direction images A ′ and B ′, and the density gradient direction image A ′ of the face detection template image A stored in the density gradient direction image storage unit 254 The distance L between the reference point O and each reference coordinate point (hereinafter referred to as reference point) R, and the line connecting the reference point O and each reference point R intersects the horizontal axis (X axis) passing through the reference point R Shape feature extraction means 255 for extracting information on the angle α to be performed, shape feature storage means 256 for separating and storing the extracted information for each value θ in the density gradient direction of the face detection template image A, and density gradient Based on the density gradient direction value θ at each reference point R ′ of the density gradient direction image B ′ of the captured image B stored in the direction image storage unit 254 and the shape feature information stored in the shape feature storage unit 256. The voting means 257 for voting the reference point candidate points in the density gradient direction image B ′, and the face detecting means 258 for detecting the position of the face based on the voting result obtained by the voting means 257. The

各手段の動作を以下に説明する。   The operation of each means will be described below.

まず濃度勾配方向抽出手段253は、カメラ部24で撮影し、画像入力手段251で入力した図5(a)に示す撮像画像B及び顔検出用テンプレート画像記憶手段252に記憶してある顔検出用テンプレート画像Aからそれぞれの濃度勾配方向画像B’,A’を抽出する。図4(b)は顔検出用テンプレート画像Aの濃度勾配方向画像A’を、図6(a)は撮像画像Bの濃度勾配方向画像B’をそれぞれ示す。これらの濃度勾配方向画像A’,B’の抽出に当たっては、図5に示すように3×3のx方向ソーベルフィルタ12x及びy方向ソーベルフィルタ12yを入力濃淡画像に含まれる全ての画素に対して適用し、各画像における水平軸(X軸)方向の微分値dx及び垂直軸(Y軸)方向の微分値dyを(式1)、(式2)より求める。   First, the density gradient direction extracting means 253 is used for face detection, which is captured by the camera unit 24 and stored in the captured image B and face detection template image storage means 252 shown in FIG. 5A input by the image input means 251. The density gradient direction images B ′ and A ′ are extracted from the template image A. 4B shows the density gradient direction image A ′ of the face detection template image A, and FIG. 6A shows the density gradient direction image B ′ of the captured image B. When extracting these density gradient direction images A ′ and B ′, as shown in FIG. 5, a 3 × 3 x-direction Sobel filter 12x and a y-direction Sobel filter 12y are applied to all pixels included in the input grayscale image. The differential value dx in the horizontal axis (X-axis) direction and the differential value dy in the vertical axis (Y-axis) direction in each image are obtained from (Formula 1) and (Formula 2).

dx=(c+2f+i)−(a+2d+g)…(式1)
dy=(g+2h+i)−(a+2b+c)…(式2)
(a〜hは、図7に示すように注目画素e及びその注目画素e近傍の8つの画素の値a〜d、f〜hを示すものである。)またこの時、微分の方向値θは、下記の(式3)で示される。
dx = (c + 2f + i) − (a + 2d + g) (Formula 1)
dy = (g + 2h + i) − (a + 2b + c) (Formula 2)
(A to h indicate the values a to d and f to h of the target pixel e and eight pixels in the vicinity of the target pixel e as shown in FIG. 7.) At this time, the differential direction value θ Is represented by the following (formula 3).

θ=tan-1(dy/dx)…(式3)
ここで、濃度勾配方向画像A’,B’は前記濃度勾配方向値θを画素値に持つ画像であり、この画像を濃度勾配方向画像手段254に記憶する。
θ = tan −1 (dy / dx) (Equation 3)
Here, the density gradient direction images A ′ and B ′ are images having the density gradient direction value θ as a pixel value, and this image is stored in the density gradient direction image means 254.

形状特徴抽出手段255は、まず濃度勾配方向画像記憶手段254に記憶されている顔検出用テンプレート画像Aの濃度勾配方向画像Bにおいて重心を算出し、それを基準点Oとする。この図4(c)に示す基準点Oと参照点Rとの距離L及び基準点Oと参照点Rとを結ぶ線と参照点Rを通る水平軸βとの間の角度αを算出し、濃度勾配方向γと線βとの間の角度、つまり濃度勾配方向値θ毎に顔検出用テンプレート画像Aの特徴情報として形状特徴記憶手段256に記憶する。本実施形態で用いる顔検出用テンプレート画像Aとしては、図4(a)に示すように平均的な人の顔の特徴部位(目、眉、鼻、口など)を含む形で作られたものを採用している。尚この顔検出用テンプレート画像Aの形状特徴は予め形状特徴記憶手段256に記憶しておいても良い。   The shape feature extraction unit 255 first calculates the center of gravity in the density gradient direction image B of the face detection template image A stored in the density gradient direction image storage unit 254 and sets it as the reference point O. The distance L between the reference point O and the reference point R shown in FIG. 4C and the angle α between the line connecting the reference point O and the reference point R and the horizontal axis β passing through the reference point R are calculated. The shape feature storage unit 256 stores the feature information of the face detection template image A for each angle between the density gradient direction γ and the line β, that is, for each density gradient direction value θ. As shown in FIG. 4A, the face detection template image A used in the present embodiment is created in a form including an average human face characteristic part (eyes, eyebrows, nose, mouth, etc.). Is adopted. The shape feature of the face detection template image A may be stored in the shape feature storage unit 256 in advance.

表1はこの形状特徴記憶手段256に記憶される形状特徴を示し、各参照点の濃度勾配方向値θ毎に、角度α、距離Lを記入した表形式となっている。   Table 1 shows the shape features stored in the shape feature storage means 256, and is in a table format in which the angle α and the distance L are entered for each density gradient direction value θ of each reference point.

投票手段257は、濃度勾配方向画像記憶手段254に記憶されている図6(a)に示す撮像画像Bの濃度勾配方向画像B’の濃度勾配方向値θと、形状特徴記憶手段256に記憶されている顔検出用テンプレート画像Aの形状特徴を用いて、下記の(式4)、(式5)より基準基準点候補点を求め、投票空間のその点に投票する。そして顔検出手段258は、図8(a)に示す投票結果から投票値のピークを検出して基準点O’(o’x,o’y)を決め、顔の位置を決定する。尚図8(b)は図8(a)で示す区分範囲の投票値との関係を示す。   The voting unit 257 stores the density gradient direction value θ of the density gradient direction image B ′ of the captured image B shown in FIG. 6A stored in the density gradient direction image storage unit 254 and the shape feature storage unit 256. Using the shape feature of the face detection template image A, a reference reference point candidate point is obtained from the following (Equation 4) and (Equation 5), and the vote is voted for that point. Then, the face detection means 258 detects the peak of the vote value from the voting result shown in FIG. 8A, determines the reference point O ′ (o′x, o′y), and determines the position of the face. FIG. 8B shows the relationship with the voting value of the segment range shown in FIG.

ox’=L×cos(α)+r’x …(式4)
oy’=L×cos(α)+r’y …(式5)
このように本実施形態の顔位置検出処理によれば、体と顔検出用テンプレート画像のサイズが一致することがあっても、それぞれの濃度勾配方向の値が異なるるために、体の位置に投票が集中しにくく、体を誤検出することはなく、また濃度勾配方向画像を用いることにより照明の変動に強い画像処理手段(映像処理部25,45)が実現できるという利点がある。
ox ′ = L × cos (α) + r′x (Formula 4)
oy ′ = L × cos (α) + r′y (Formula 5)
As described above, according to the face position detection process of the present embodiment, even if the size of the body and the face detection template image may match, the values of the respective density gradient directions are different. Votes are less likely to concentrate, the body is not erroneously detected, and there is an advantage that image processing means (video processing units 25 and 45) that are resistant to fluctuations in illumination can be realized by using density gradient direction images.

上述のようにして顔の位置が検出されれば、その顔位置を含む範囲の画像を元の撮像画像の大きさまで拡大する従来周知のズーム処理が行われ、ズーム処理された画像がD/A変換されて映像処理部25から受電部21を介し通話線を通して親機1に伝送される。そして、親機1では、図9に示すように来訪者の顔を含む範囲Sが拡大された画像を表示部6に映し出すことができ、あるいは留守録時においては来訪者の顔の部分が拡大された画像が自動的に録画部9に録画されることになる。尚、本実施形態では、ドアホン子器20及びカメラ子器40が常に来訪者の顔の部分を拡大するようにしているが、例えば、親機1で留守録に設定されているとき、若しくは親機1の操作部8に設けられたズーム操作釦(図示せず)が押操作されたときに顔位置検出処理及びズーム処理が行われるようにしても構わない。   When the face position is detected as described above, a well-known zoom process for enlarging the image in the range including the face position to the size of the original captured image is performed, and the zoomed image is converted to D / A. It is converted and transmitted from the video processing unit 25 to the parent device 1 through the power receiving unit 21 through the telephone line. Then, the master unit 1 can display an image in which the range S including the visitor's face is enlarged as shown in FIG. 9 on the display unit 6, or the visitor's face is enlarged at the time of absence recording. The recorded image is automatically recorded in the recording unit 9. In the present embodiment, the door phone slave unit 20 and the camera slave unit 40 always enlarge the face part of the visitor. For example, when the master unit 1 is set to be an answering machine, The face position detection process and the zoom process may be performed when a zoom operation button (not shown) provided on the operation unit 8 of the machine 1 is pressed.

ところで、顔位置検出処理において、顔検出用テンプレート画像記憶手段252に記憶された顔検出用テンプレート画像Aの代わりに、図10(a)に示すように、顔の平均的な輪郭を含むように作られたテンプレート画像を用いてもよい。つまり顔の平均的な輪郭のテンプレート画像を用いているため、逆光時のように顔の特徴を示す目、眉、鼻、口等が正しく撮像されていない図10(c)に示すような撮像画像Bにおける顔の位置を正しく検出することができるのである。尚図10(b)は図10(a)に示す顔検出用テンプレート画像Aから濃度勾配方向抽出手段253により抽出された濃度勾配方向画像A’を示す。   By the way, in the face position detection process, instead of the face detection template image A stored in the face detection template image storage means 252, as shown in FIG. A created template image may be used. That is, since the template image of the average contour of the face is used, the eye, the eyebrows, the nose, the mouth, and the like indicating the facial features are not correctly imaged as in backlight, as shown in FIG. The position of the face in the image B can be detected correctly. FIG. 10B shows the density gradient direction image A ′ extracted by the density gradient direction extraction means 253 from the face detection template image A shown in FIG.

(実施形態2)
本実施形態は、ドアホン子器20及びカメラ子器40の映像処理部25,45における顔位置検出処理に特徴があり、それ以外の構成及び動作については実施形態1と共通であるから図示並びに説明を省略する。
(Embodiment 2)
This embodiment is characterized by face position detection processing in the video processing units 25 and 45 of the door phone slave unit 20 and the camera slave unit 40, and other configurations and operations are the same as those in the first embodiment, and are illustrated and described. Is omitted.

映像処理部25(映像処理部45についても共通)の基本構成は図3に示す実施形態1の構成と同じであるので、図3を参照する。そして、本実施形態の映像処理部25は、図11(a)に示すように、顔検出手段258内に顔サイズ検出手段258aを備えた点に特徴がある。   Since the basic configuration of the video processing unit 25 (also common to the video processing unit 45) is the same as that of the first embodiment shown in FIG. 3, reference is made to FIG. The video processing unit 25 according to this embodiment is characterized in that a face size detecting unit 258a is provided in the face detecting unit 258 as shown in FIG.

顔サイズ検出手段258aは、顔検出用テンプレート画像のサイズを変更しながら、投票手段257によって投票を行うことによって、図11(b)に示すようにテンプレート画像サイズ毎に投票結果より投票値のビークが得られるため、その値が最大になるサイズを顔のサイズとして検出する手段である。   The face size detecting means 258a performs voting by the voting means 257 while changing the size of the face detection template image, and as shown in FIG. Therefore, it is means for detecting the size that maximizes the value as the face size.

このように本実施形態では、顔の大きさが一定でなくも顔を検出することができるという利点がある。   As described above, this embodiment has an advantage that the face can be detected even if the size of the face is not constant.

(実施形態3)
本実施形態は、ドアホン子器20及びカメラ子器40の映像処理部25,45における顔位置検出処理に特徴があり、それ以外の構成及び動作については実施形態1と共通であるから図示並びに説明を省略する。
(Embodiment 3)
This embodiment is characterized by face position detection processing in the video processing units 25 and 45 of the door phone slave unit 20 and the camera slave unit 40, and other configurations and operations are the same as those in the first embodiment, and are illustrated and described. Is omitted.

上記実施形態2では顔検出用テンプレート画像のサイズを変更させることで、顔サイズを検出するものであったが、本実施形態は上述した形状特徴における距離情報を変化させて顔サイズを検出する点に特徴がある。尚映像処理部25(映像処理部45についても共通)の基本構成は図3に示す実施形態1の構成と同じであるので、図3を参照し、また顔検出手段258内には実施形態2と同様に顔サイズ検出手段258a(図11(a)参照)を設けてある。   In the second embodiment, the face size is detected by changing the size of the face detection template image. However, the present embodiment detects the face size by changing the distance information in the shape feature described above. There is a feature. The basic configuration of the video processing unit 25 (also common to the video processing unit 45) is the same as the configuration of the first embodiment shown in FIG. 3, so refer to FIG. Similarly, face size detecting means 258a (see FIG. 11A) is provided.

而して本実施形態の顔サイズ検出手段258a(図11(a))は、形状特徴における距離Lに対する倍率sを変えて距離情報を変化させて、投票手段257によって、濃度勾配方向画像記憶手段254に記憶されている図6(a)に示す撮像画像Bの濃度勾配方向画像B’の濃度勾配方向値θと、形状特徴記憶手段256に記憶されている顔検出用テンプレート画像Aの形状特徴を用いて、下記の(式6)、(式7)により基準点候補点を求め、投票空間のその点に投票する。そして図11(b)に示すように顔サイズ毎に投票結果より投票値のピークが得られるため、その値が最大になるサイズを顔のサイズとして検出するのである。   Thus, the face size detection means 258a (FIG. 11A) of the present embodiment changes the distance information by changing the magnification s with respect to the distance L in the shape feature, and the voting means 257 causes the density gradient direction image storage means. The density gradient direction value θ of the density gradient direction image B ′ of the captured image B shown in FIG. 6A stored in the H.254 and the shape feature of the face detection template image A stored in the shape feature storage unit 256. Is used to obtain a reference point candidate point according to the following (formula 6) and (formula 7), and vote for that point in the voting space. Then, as shown in FIG. 11B, since the peak of the vote value is obtained from the vote result for each face size, the size with the maximum value is detected as the face size.

ox’=s×L×cos(α)+r’x …(式6)
oy’=s×L×cos(α)+r’y …(式7)
s:距離の倍率
(実施形態4)
本実施形態は、ドアホン子器20及びカメラ子器40の映像処理部25,45における顔位置検出処理に特徴があり、それ以外の構成及び動作については実施形態1と共通であるから図示並びに説明を省略する。また、映像処理部25(映像処理部45についても共通)の基本構成は図3に示す実施形態1の構成と同じであるので、図3を参照する。
ox ′ = s × L × cos (α) + r′x (Formula 6)
oy ′ = s × L × cos (α) + r′y (Expression 7)
s: magnification of distance (Embodiment 4)
This embodiment is characterized by face position detection processing in the video processing units 25 and 45 of the door phone slave unit 20 and the camera slave unit 40, and other configurations and operations are the same as those in the first embodiment, and are illustrated and described. Is omitted. The basic configuration of the video processing unit 25 (also common to the video processing unit 45) is the same as that of the first embodiment shown in FIG.

そして、本実施形態における映像処理部25(映像処理部45も共通)は、図12(a)に示すように、顔検出手段258内に顔サイズ検出手段258a(実施形態2、3の顔サイズ検出手段258aの何れでもよい)を備えるとともに、顔回転角出手段258bを備えた点に特徴がある。   Then, as shown in FIG. 12A, the video processing unit 25 (also common to the video processing unit 45) in the present embodiment includes a face size detection unit 258a (the face size of the second and third embodiments) in the face detection unit 258. Any of the detection means 258a may be provided) and the face rotation angle output means 258b may be provided.

一方、顔回転角抽出手段258bは、図12(b)に示すような顔が傾いて撮像された撮像画像Bに対応させるためのもので、顔検出用テンプレート画像Aを回転させながら、投票手段257によって投票を行うことによって、図12(c)に示すように、回転角毎に投票結果より投票値のピークが得られるため、その値が最大になる回転角を顔の回転角として抽出する手段である。   On the other hand, the face rotation angle extraction means 258b is for corresponding to the picked-up image B captured with the face tilted as shown in FIG. 12B, and the voting means while rotating the face detection template image A. By voting by 257, as shown in FIG. 12C, a peak of the voting value is obtained from the voting result for each rotation angle. Therefore, the rotation angle that maximizes the value is extracted as the rotation angle of the face. Means.

本実施形態では、顔の回転角が一定でなくても顔を検出することができるという利点がある。   This embodiment has an advantage that the face can be detected even if the rotation angle of the face is not constant.

(実施形態5)
上記実施形態4での顔回転角抽出手段258bは顔検出用テンプレート画像Aを回転させるものであったが、本実施形態の顔回転角検出手段258bでは、上述した形状特徴における角度情報を変換させる点に特徴がある。尚本実施形態の画像処理装置の基本構成は図1に示す実施形態1の構成と同じであるので、図3を参照し、また実施形態4と同様に顔検出手段258内に、例えば実施形態3に用いた顔サイズ検出手段258aとともに顔回転角出手段258bを備えている(図12(a)参照)
而して本実施形態の顔回転角抽出手段258bは、上述した形状特徴における角度情報を変化させて、投票手段257によって、濃度勾配方向画像記憶手段254に記憶されている濃度勾配方向画像の濃度勾配方向値θ(回転角をφ、撮像画像Bの濃度勾配方向をθ’とすると、θ=θ’−φとなる。)と、形状特徴記憶手段7に記憶されている顔検出用テンプレート画像Aの形状特徴を用いて、下記の(式8)、(式9)より基準点候補点を求め、投票空間のその点に投票する。そして図12(c)に示すように、各回転角毎の投票結果より投票値のピークが得られるため、その値が最大になる回転角を顔の回転角として検出する。
(Embodiment 5)
Although the face rotation angle extraction means 258b in the fourth embodiment rotates the face detection template image A, the face rotation angle detection means 258b in the present embodiment converts angle information in the shape feature described above. There is a feature in point. Since the basic configuration of the image processing apparatus according to the present embodiment is the same as that of the first embodiment shown in FIG. 1, refer to FIG. 3, and in the face detection unit 258 as in the fourth embodiment, for example, the embodiment 3 is provided with a face rotation angle output means 258b in addition to the face size detection means 258a used in FIG. 3 (see FIG. 12A).
Thus, the face rotation angle extraction unit 258b of the present embodiment changes the angle information in the shape feature described above, and the density of the density gradient direction image stored in the density gradient direction image storage unit 254 by the voting unit 257. Gradient direction value θ (when rotation angle is φ and density gradient direction of captured image B is θ ′, θ = θ′−φ) and face detection template image stored in shape feature storage means 7 Using the shape feature of A, a reference point candidate point is obtained from (Equation 8) and (Equation 9) below, and a vote is given to that point in the voting space. Then, as shown in FIG. 12C, since the peak of the vote value is obtained from the vote result for each rotation angle, the rotation angle at which the maximum value is obtained is detected as the face rotation angle.

ox’=L×cos(α+φ)+r’x …(式8)
oy’=L×cos(α+φ)+r’y …(式9)
φ:回転角(この回転角の値を変えることで角度情報を変化させる)
ところで、上記実施形態1〜5では顔位置検出処理及びズーム処理を行う画像処理手段をドアホン子器20及びカメラ子器40の映像処理部25,45で構成しているが、親機1の制御部3で画像処理手段を構成するようにしても構わない。また、ドアホン子器20及びカメラ子器40のカメラ部24,44及び映像処理部25,45を起動する撮像制御手段を親機1に備える構成としても構わない。
ox ′ = L × cos (α + φ) + r′x (Expression 8)
oy ′ = L × cos (α + φ) + r′y (Equation 9)
φ: Rotation angle (change the angle information by changing the value of this rotation angle)
In the first to fifth embodiments, the image processing means for performing the face position detection process and the zoom process is configured by the video processing units 25 and 45 of the doorphone slave unit 20 and the camera slave unit 40. The image processing means may be configured by the unit 3. The base unit 1 may be configured to include imaging control means for activating the camera units 24 and 44 and the video processing units 25 and 45 of the door phone slave unit 20 and the camera slave unit 40.

1 インターホン親機
20 ドアホン子器
24 カメラ部
25 映像処理部
40 カメラ子器
44 カメラ部
45 映像処理部
DESCRIPTION OF SYMBOLS 1 Intercom main unit 20 Door phone subunit 24 Camera part 25 Image processing part 40 Camera subunit 44 Camera part 45 Image processing part

Claims (2)

来訪者を撮像する撮像手段を備えて屋外に設置されるドアホン子器と、屋内に設置されてドアホン子器の撮像手段で撮像された画像を録画するとともに録画した画像を再生し且つドアホン子器との間で通話が可能であるインターホン親機とで構成されるインターホンシステムにおいて、
インターホン親機は、画像を記憶する画像記憶手段と、画像を表示する表示手段と、画像記憶手段に記憶されている画像を読み出して表示手段に表示させる画像制御手段とを備え、
ドアホン子器又はインターホン親機の何れか一方に、撮像手段で撮像された画像に対して画像処理を行うことにより当該画像における来訪者の顔の位置を検出するとともに検出された顔の位置の画像を拡大する画像処理手段と、来訪者の来訪を検知して撮像手段を動作させる撮像制御手段とを備え、
撮像制御手段が撮像手段を動作させたときに画像処理手段が動作して来訪者の顔の位置を拡大した画像がインターホン親機の画像記憶手段に記憶されることを特徴とするインターホンシステム。
Door phone slave installed outdoors with imaging means for imaging a visitor, and images recorded by the imaging means of the door phone slave installed indoors as well as playing back recorded images and door phone slaves In the intercom system composed of the interphone master unit that can talk with
The intercom base unit includes an image storage unit that stores an image, a display unit that displays an image, and an image control unit that reads an image stored in the image storage unit and displays the image on the display unit.
An image of the detected face position is detected by performing image processing on the image picked up by the image pickup means on either the door phone slave unit or the interphone master unit, thereby detecting the position of the face of the visitor in the image. Image processing means for enlarging the image, and imaging control means for operating the imaging means upon detecting the visit of a visitor,
An interphone system characterized in that when the image pickup control means operates the image pickup means, an image processing means is operated and an image obtained by enlarging the position of the visitor's face is stored in the image storage means of the interphone base unit.
前記画像処理手段をドアホン子器に備えたことを特徴とする請求項1記載のインターホンシステム。   2. The intercom system according to claim 1, wherein the image processing means is provided in a door phone slave unit.
JP2009180810A 2009-08-03 2009-08-03 Intercom system Pending JP2009261007A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009180810A JP2009261007A (en) 2009-08-03 2009-08-03 Intercom system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009180810A JP2009261007A (en) 2009-08-03 2009-08-03 Intercom system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004341084A Division JP4379313B2 (en) 2004-11-25 2004-11-25 Image recording and playback system

Publications (1)

Publication Number Publication Date
JP2009261007A true JP2009261007A (en) 2009-11-05

Family

ID=41387735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009180810A Pending JP2009261007A (en) 2009-08-03 2009-08-03 Intercom system

Country Status (1)

Country Link
JP (1) JP2009261007A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111182114A (en) * 2019-12-09 2020-05-19 国网河北省电力有限公司邢台县供电分公司 High-altitude operation intercom device, system and use method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04192985A (en) * 1990-11-27 1992-07-13 Matsushita Electric Works Ltd Video interphone
JPH0738884A (en) * 1993-07-19 1995-02-07 Sharp Corp Video interphone device
JPH09261625A (en) * 1996-03-22 1997-10-03 Sharp Corp Intercom camera communication equipment
JP2000083250A (en) * 1998-09-04 2000-03-21 Matsushita Electric Ind Co Ltd Monitoring camera device
JP2000209571A (en) * 1999-01-20 2000-07-28 Fujitsu General Ltd Supervisory camera system
JP2001222719A (en) * 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd Face extracting device, face extracting method and recording medium for face extraction program
JP2004135200A (en) * 2002-10-11 2004-04-30 Matsushita Electric Works Ltd Interphone system
JP2004302581A (en) * 2003-03-28 2004-10-28 Matsushita Electric Works Ltd Image processing method and device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04192985A (en) * 1990-11-27 1992-07-13 Matsushita Electric Works Ltd Video interphone
JPH0738884A (en) * 1993-07-19 1995-02-07 Sharp Corp Video interphone device
JPH09261625A (en) * 1996-03-22 1997-10-03 Sharp Corp Intercom camera communication equipment
JP2000083250A (en) * 1998-09-04 2000-03-21 Matsushita Electric Ind Co Ltd Monitoring camera device
JP2000209571A (en) * 1999-01-20 2000-07-28 Fujitsu General Ltd Supervisory camera system
JP2001222719A (en) * 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd Face extracting device, face extracting method and recording medium for face extraction program
JP2004135200A (en) * 2002-10-11 2004-04-30 Matsushita Electric Works Ltd Interphone system
JP2004302581A (en) * 2003-03-28 2004-10-28 Matsushita Electric Works Ltd Image processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111182114A (en) * 2019-12-09 2020-05-19 国网河北省电力有限公司邢台县供电分公司 High-altitude operation intercom device, system and use method
CN111182114B (en) * 2019-12-09 2021-08-10 国网河北省电力有限公司邢台县供电分公司 High-altitude operation intercom device

Similar Documents

Publication Publication Date Title
JP4677245B2 (en) Image display method, program, image display apparatus, and image display system
KR100986228B1 (en) Camera apparatus and image recording/reproducing method
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP4344568B2 (en) Head mounted display and content reproduction method thereof
JP2019220848A (en) Data processing apparatus, data processing method and program
JP2016213674A (en) Display control system, display control unit, display control method, and program
CN108920113A (en) Video frame images Method of printing, device and computer readable storage medium
WO2015198964A1 (en) Imaging device provided with audio input/output function and videoconferencing system
JP2008113396A (en) Intercom system and entrance subunit
JP2013186750A (en) Communication device, communication method, and program
JP2011087218A (en) Loud speaker system
JP2009261007A (en) Intercom system
JP2017228969A (en) Mobile terminal
JP4379313B2 (en) Image recording and playback system
KR101950355B1 (en) A Smart Device For Personal Mobile Broadcasting
JP2004228737A (en) Conference supporting device, system and program therefor
JP4135702B2 (en) Intercom system
JP5750590B2 (en) Imaging device, intercom device, intercom system
JP2008211660A (en) Video entryphone system
JP5033218B2 (en) Door phone system
JP2010004480A (en) Imaging apparatus, control method thereof and program
JP6450604B2 (en) Image acquisition apparatus and image acquisition method
JP2011035644A (en) Intercom system
JP2007060015A (en) Interphone system
JP5096251B2 (en) Intercom device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090806

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111212

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121023