JP2006279796A - Cellphone, holder therefor, program therefor, and semiconductor device - Google Patents

Cellphone, holder therefor, program therefor, and semiconductor device Download PDF

Info

Publication number
JP2006279796A
JP2006279796A JP2005098767A JP2005098767A JP2006279796A JP 2006279796 A JP2006279796 A JP 2006279796A JP 2005098767 A JP2005098767 A JP 2005098767A JP 2005098767 A JP2005098767 A JP 2005098767A JP 2006279796 A JP2006279796 A JP 2006279796A
Authority
JP
Japan
Prior art keywords
mobile phone
procedure
image
unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005098767A
Other languages
Japanese (ja)
Inventor
Yoshinori Hayashi
好典 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005098767A priority Critical patent/JP2006279796A/en
Publication of JP2006279796A publication Critical patent/JP2006279796A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a cellphone which can measure an automotive driver's physical body with a high precision and can contribute to a safety driving. <P>SOLUTION: This cellphone recognizes a human's face, eyes and mouth and the like from an image obtained by a camera 10. Further, simultaneously, the cellphone measures a time period from an utterance of conversation voices from a speaker 12 to an input of responsive voices to a microphone 11. The cellphone measures a frequency of a blink, the number of breathing and a conversation responsive time and the like per unit time to create reference data. When a measurement value goes out of the reference data at a given ratio or higher, it is considered that an abnormality occurs in a driver's physical body condition to issue an alarm. The alarm may be issued from the speaker 12, or issued from, for instance, an automotive audio apparatus or the like by communication with the other apparatus. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、自動車運転者の身体状況を把握する携帯電話、携帯電話用ホルダ、携帯電話用プログラム、および半導体素子に関する。   The present invention relates to a mobile phone, a mobile phone holder, a mobile phone program, and a semiconductor device for grasping the physical condition of a car driver.

近年、交通の安全性を高めるために様々な方法が考えられている。たとえば、自動車の運転者の疲労による居眠りなどは事故の主要な原因となる為、近年、運転者の身体状態を把握して警告を発する装置が提案されている(たとえば特許文献1参照)。   In recent years, various methods have been considered to improve traffic safety. For example, since snoozing due to fatigue of a driver of a car is a major cause of an accident, in recent years, a device that recognizes the physical condition of the driver and issues a warning has been proposed (for example, see Patent Document 1).

この装置は、CCDカメラで運転者の運転状況を監視するものであり、画像処理によって運転者の白目の面積の時間変化を検出して疲労度を検出する。また、ハンドルを握る位置、両手間の電流電圧から緊張度を測定したりすることも可能である。
特開平11−175895号公報
This device monitors a driver's driving situation with a CCD camera, and detects the degree of fatigue by detecting temporal changes in the driver's white eye area by image processing. It is also possible to measure the degree of tension from the position where the handle is gripped and the current voltage between both hands.
Japanese Patent Laid-Open No. 11-175895

しかし、特許文献1に記載されているドライバー状況依存コミュニケーション装置は、運転者の白目の面積の時間変化のみから疲労度を検出するものである。このように単一の項目で運転者の疲労度を判断するだけでは誤りが多くなり、誤った警報はかえって運転の妨げになることがある。   However, the driver situation-dependent communication device described in Patent Document 1 detects the degree of fatigue only from the time change of the driver's white eye area. Thus, just judging the driver's fatigue level with a single item increases the number of errors, and an erroneous alarm may hinder driving.

また、特許文献1に記載のドライバー状況依存コミュニケーション装置は、CCDカメラや両手間の電流電圧を測定する電極などを自動車本体に設置する必要があり、このような検出器を後から自動車に組み込むには非常に手間がかかる問題があった。   Further, the driver situation-dependent communication device described in Patent Document 1 requires that a CCD camera, an electrode for measuring the current / voltage between both hands, etc. be installed in the automobile body, and such a detector is later incorporated into the automobile. Had a very time-consuming problem.

この発明は、自動車に後から組み込む必要なく、自動車運転者の身体状態を高精度に測定することができ、安全運転に寄与する携帯電話を提供することを目的とする。   An object of the present invention is to provide a mobile phone that can measure the body condition of a car driver with high accuracy without having to be incorporated into the car later, and contributes to safe driving.

請求項1に記載の発明は、人間の顔面の画像を取得する画像取得手段と、前記画像取得手段で取得した画像からその人間の身体状態を検出する画像分析手段と、検出した身体状態が所定の基準外となったときに異常であると判断し、警告を発する、または警告を発する旨の情報を外部に出力する異常通知手段と、を備えたことを特徴とする。   According to the first aspect of the present invention, there is provided an image acquisition unit that acquires an image of a human face, an image analysis unit that detects the human body state from the image acquired by the image acquisition unit, and the detected body state is predetermined. And an abnormality notification means for determining that an abnormality occurs when the standard is not met and issuing a warning or outputting information indicating that a warning is issued to the outside.

この発明では、CCDカメラなどの撮像素子を用いて人間の顔面の画像を取得する。取得した画像を用いて、画像分析をし、その人間の身体状態を検出する。身体状態が異常であると判断した場合、警告を発する。例えば、携帯電話のスピーカから警告音声を発する。また、別途BlueTooth等の通信手段を用いて、カーオーディオ機器から警告音が発せられるようにしてもよい。また、警告を外部に出力するようにしてもよい。携帯電話の通話機能を用いて、センタサーバ等に異常発生を通知する。センタサーバは、異常発生の通知を受けて、携帯電話を呼び出すようにしてもよいし、予め指定された連絡先に通知を転送するようにしてもよい。   In the present invention, an image of a human face is acquired using an image sensor such as a CCD camera. Using the acquired image, image analysis is performed to detect the human body condition. If it is determined that the physical condition is abnormal, a warning is issued. For example, a warning voice is emitted from a speaker of a mobile phone. In addition, a warning sound may be emitted from the car audio device using a separate communication means such as BlueTooth. Further, a warning may be output to the outside. Using the call function of the mobile phone, the center server is notified of the occurrence of an abnormality. The center server may receive the notification of the occurrence of the abnormality and call the mobile phone, or may transfer the notification to a contact point designated in advance.

請求項2に記載の発明は、上記発明において、前記画像分析手段は、所定時間あたりの瞬き回数、または呼吸数を検出することで身体状態を検出することを特徴とする。   The invention according to claim 2 is characterized in that, in the above-mentioned invention, the image analysis means detects a body state by detecting the number of blinks per a predetermined time or the number of breaths.

この発明では、所定時間あたりの瞬き回数、または所定時間あたりの呼吸数を検出する。呼吸数は、例えばCCDカメラの赤外領域で吐息の熱を検出してこれをカウントする。単位時間あたりの瞬き回数または呼吸回数が基準外となった場合に異常であると判断する。   In the present invention, the number of blinks per predetermined time or the number of breaths per predetermined time is detected. For example, the respiratory rate is detected by detecting the heat of breathing in the infrared region of a CCD camera. When the number of blinks or breathing per unit time is out of the standard, it is judged as abnormal.

請求項3に記載の発明は、上記発明において、会話音声を発する音声出力部と、人間の音声を入力する音声入力手段と、音声出力部が会話音声を発してから前記音声入力手段に人間の音声が入力されるまでの時間を計測することで身体状態を検出する会話反応検出手段をさらに備えたことを特徴とする。   According to a third aspect of the present invention, in the above invention, a voice output unit that emits a conversational voice, a voice input unit that inputs a human voice, and a voice input unit that generates a human voice to the voice input unit after the voice output unit emits a conversation voice. It is further characterized by further comprising a conversation reaction detecting means for detecting a physical state by measuring a time until voice is input.

この発明では、会話音声を発し、それを聞いた人間が返答音声を発して入力されるまでの時間を測定する。返答が入力までの時間が基準外となった場合に異常であると判断する。   In the present invention, a conversation voice is emitted, and a time until a person who hears the voice speaks and inputs a response voice is measured. It is determined that the response is abnormal when the time until the input is out of the standard.

請求項4に記載の発明は、上記発明において、3軸方向の加速度を検出する加速度センサと、前記加速度センサの検出した加速度から自動車車両の運転状況を判定する運転状況判定手段と、をさらに備え、前記異常通知手段は、前記運転状況判定手段が検出した運転状況が所定の基準外となったときに異常であると判断することを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the apparatus further comprises: an acceleration sensor that detects acceleration in three-axis directions; and a driving state determination unit that determines a driving state of the automobile vehicle from the acceleration detected by the acceleration sensor. The abnormality notifying means determines that the abnormality is detected when the driving situation detected by the driving situation judging means is out of a predetermined standard.

この発明では、3軸加速度センサを用いて検出した自動車車両の姿勢から運転者の運転状況を判定する。携帯電話を自動車に備え付け、この携帯電話の姿勢変動を自動車の姿勢変動として測定する。姿勢変動が基準外となった場合に異常であると判断する。例えば、自動車がフラフラと走行していれば異常であると判断する。   In the present invention, the driving situation of the driver is determined from the attitude of the automobile vehicle detected using the three-axis acceleration sensor. A mobile phone is mounted on a car, and the change in posture of the mobile phone is measured as the change in posture of the car. When the posture variation is out of the standard, it is determined to be abnormal. For example, it is determined that the vehicle is abnormal if the vehicle is running flat.

請求項5に記載の発明は、上記発明において、前記画像分析手段が検出する所定時間あたりの瞬き回数、呼吸数、前記会話反応検出手段が検出する会話音声を発してから人間の音声が入力されるまでの時間、および前記運転状況判定手段が検出する運転状況、のうち少なくとも2項目の検出を行い、前記異常通知手段は、いずれか1項目について異常が発生したと判断したときに警告を発することを特徴とする。   According to a fifth aspect of the present invention, in the above invention, a human voice is input after the number of blinks per predetermined time detected by the image analysis means, the respiratory rate, and the conversation voice detected by the conversation reaction detection means are emitted. And at least two items of the driving situation detected by the driving situation determination unit, and the abnormality notification unit issues a warning when it is determined that an abnormality has occurred in any one item It is characterized by that.

請求項6に記載の発明は、携帯電話を固定する台座と、該携帯電話とデータ通信を行うデータ通信部と、前記台座を回動させる駆動部と、前記駆動部の回動角度を制御する制御部と、を備えた携帯電話用ホルダであって、前記制御部は、前記データ通信部を介して該携帯電話から入力される駆動制御信号に基づいて駆動部を制御することを特徴とする。   The invention according to claim 6 controls a pedestal for fixing a mobile phone, a data communication unit for performing data communication with the mobile phone, a drive unit for rotating the pedestal, and a rotation angle of the drive unit. A mobile phone holder including a control unit, wherein the control unit controls the drive unit based on a drive control signal input from the mobile phone via the data communication unit. .

この発明では、携帯電話から駆動制御信号を受信して回動角度を制御する。駆動制御信号は、台座の移動方向と移動量を示す情報であり、例えば携帯電話が認識した特定の画像(例えば人間の顔面)がカメラ撮影範囲の中心位置にくるように計算されたものである。制御部は、駆動制御信号を受信して特定画像がカメラ撮影範囲の中心位置にくるように台座を回動させる。台座を左右方向、上下方向の2軸で回動させればよい。これにより、特定の画像を自動で追尾することが可能となり、手動で調整しなくても正確に目的の画像を撮影することができる。   In the present invention, the rotation angle is controlled by receiving a drive control signal from the mobile phone. The drive control signal is information indicating the moving direction and moving amount of the pedestal, and is calculated so that, for example, a specific image (for example, a human face) recognized by the mobile phone comes to the center position of the camera shooting range. . The control unit receives the drive control signal and rotates the pedestal so that the specific image comes to the center position of the camera photographing range. What is necessary is just to rotate a base by 2 axis | shafts of the left-right direction and an up-down direction. As a result, a specific image can be automatically tracked, and a target image can be accurately captured without manual adjustment.

請求項7に記載の発明は、携帯電話を固定する台座と、該携帯電話とデータ通信を行うデータ通信部と、前記台座を回動させる駆動部と、前記駆動部の回動角度を制御する制御部と、を備えた携帯電話用ホルダであって、前記制御部は、前記データ通信部を介して携帯電話から受信した特定の画像が、該携帯電話画面の中心に表示されるように回動角度を制御することを特徴とする。   The invention according to claim 7 controls a pedestal for fixing a mobile phone, a data communication unit for performing data communication with the mobile phone, a drive unit for rotating the pedestal, and a rotation angle of the drive unit. A mobile phone holder including a control unit, wherein the control unit rotates the specific image received from the mobile phone through the data communication unit so that the specific image is displayed at the center of the mobile phone screen. The moving angle is controlled.

この発明では、携帯電話から画像データを取得し、特定の画像(例えば人間の顔面)を認識する。画像中の顔面の位置に基づいてカメラの方向ずれを検出し、カメラ撮影範囲中心に人間の顔面が表示されるように台座を回動させる。台座を左右方向、上下方向の2軸で回動させればよい。これにより、携帯電話は画像データを送信するのみで、特定の画像を自動で追尾することが可能となり、手動で調整しなくても正確に目的の画像を撮影することができる。   In the present invention, image data is acquired from a mobile phone, and a specific image (for example, a human face) is recognized. A camera direction shift is detected based on the face position in the image, and the pedestal is rotated so that the human face is displayed at the center of the camera shooting range. What is necessary is just to rotate a base by 2 axis | shafts of the left-right direction and an up-down direction. Accordingly, the mobile phone can automatically track a specific image only by transmitting image data, and can accurately capture a target image without manual adjustment.

請求項8に記載の発明は、携帯電話に、人間の顔面の画像を取得する画像取得手順、前記画像取得手順で取得した画像からその人間の身体状態を検出する身体状態検出手順、検出した身体状態が所定の基準外となったときに警告を発する、または警告を発する旨の情報を外部に出力する異常通知手順、を実行させることを特徴とする。   The invention according to claim 8 is an image acquisition procedure for acquiring an image of a human face on a mobile phone, a body state detection procedure for detecting the human body state from the image acquired by the image acquisition procedure, and a detected body An abnormality notification procedure for issuing a warning when the state is out of a predetermined standard or outputting information indicating that a warning is issued to the outside is executed.

請求項9に記載の発明は、上記発明において、前記身体状態検出手順は、所定時間あたりの瞬き回数、または呼吸数を検出、または会話音声を発してから人間の音声が入力されるまでの時間を計測することで身体状態を検出する手順を含む、ことを特徴とする。   According to a ninth aspect of the present invention, in the above invention, the body state detection procedure is a time from when the number of blinks per predetermined time or the number of breaths is detected or when a human voice is input after a conversation voice is generated. It includes a procedure for detecting a physical state by measuring.

請求項10に記載の発明は、上記発明において、3軸方向の加速度を検出する加速度検出手順、前記身体状態検出手順で検出した身体状態と、前記加速度検出手順で検出した加速度から自動車車両の運転状況を判定する運転状況判定手順、をさらに実行させ、前記異常通知手順は、前記運転状況判定手順で検出した運転状況が所定の基準外となったときに異常であると判断する手順を含むことを特徴とする。   According to a tenth aspect of the present invention, in the above invention, an acceleration detection procedure for detecting triaxial acceleration, a body state detected by the body state detection procedure, and driving of an automobile from the acceleration detected by the acceleration detection procedure An operation condition determination procedure for determining a situation is further executed, and the abnormality notification procedure includes a procedure for determining that an abnormality is detected when the operation condition detected in the operation condition determination procedure is outside a predetermined standard. It is characterized by.

請求項11に記載の発明は、携帯電話に組み込まれ、該携帯電話に、人間の顔面の画像を取得する画像取得手順、前記画像取得手順で取得した画像からその人間の身体状態を検出する身体状態検出手順、検出した身体状態が所定の基準外となったときに警告を発する、または警告を発する旨の情報を外部に出力する異常通知手順、を実行させるための携帯電話用プログラムを記録したことを特徴とする。   The invention according to claim 11 is incorporated in a mobile phone, and an image acquisition procedure for acquiring an image of a human face in the mobile phone, and a body for detecting the human body state from the image acquired by the image acquisition procedure. Recorded a mobile phone program for executing a condition detection procedure, an abnormality notification procedure for issuing a warning when the detected physical condition falls outside a predetermined standard, or outputting information indicating that a warning is issued to the outside It is characterized by that.

請求項12に記載の発明は、上記発明において、前記身体状態検出手順は、所定時間あたりの瞬き回数、または呼吸数を検出、または会話音声を発してから人間の音声が入力されるまでの時間を計測することで身体状態を検出する手順を含む、ことを特徴とする。   According to a twelfth aspect of the present invention, in the above invention, the physical condition detection procedure is a time from detection of the number of blinks per predetermined time or breathing rate or generation of a conversational voice to input of human voice. It includes a procedure for detecting a physical state by measuring.

請求項13に記載の発明は、上記発明において、3軸方向の加速度を検出する加速度検出手順、前記身体状態検出手順で検出した身体状態と、前記加速度検出手順で検出した加速度から自動車車両の運転状況を判定する運転状況判定手順、をさらに実行させるプログラムを記録し、前記異常通知手順は、前記運転状況判定手順で検出した運転状況が所定の基準外となったときに異常であると判断する手順を含むことを特徴とする。   According to a thirteenth aspect of the present invention, in the above-described invention, an acceleration detection procedure for detecting acceleration in three axes, a body state detected by the body state detection procedure, and driving of an automobile vehicle from the acceleration detected by the acceleration detection procedure. A program for further executing a driving situation determination procedure for determining a situation is recorded, and the abnormality notification procedure is determined to be abnormal when the driving situation detected in the driving situation determination procedure is out of a predetermined standard. It includes a procedure.

以上のようにこの発明によれば、携帯電話に搭載したCCDカメラなどの撮像素子で人間の顔面の画像を取得したり、会話音声を発するなどして身体状態を検出するので、自動車に後から組み込む必要なく、自動車運転者の身体状態を高精度に測定することができる。   As described above, according to the present invention, the body state is detected by acquiring an image of a human face with an image sensor such as a CCD camera mounted on a mobile phone or by producing a conversational voice. Without being incorporated, the body condition of the automobile driver can be measured with high accuracy.

この実施形態の携帯電話は、搭載したCCDカメラなどの撮像素子で取得した画像から人間の顔面を認識し、認識した顔面の画像分析をすることで瞬き回数や呼吸回数などの身体状態を検出する。身体状態が異常(瞬き、呼吸回数が基準よりも少なすぎる等)であると判断した場合にはスピーカや接続されたカーオーディオ機器から警告音声を発することで安全運転に寄与する。   The mobile phone of this embodiment recognizes a human face from an image acquired by an image sensor such as a mounted CCD camera, and detects a body state such as the number of blinks and the number of breaths by analyzing the image of the recognized face. . When it is determined that the body condition is abnormal (blinks, the number of breathing is too small from the reference, etc.), a warning sound is emitted from a speaker or a connected car audio device, which contributes to safe driving.

以下、図面を参照してこの発明の実施形態である携帯電話、および携帯電話用ホルダについて説明する。図1は、携帯電話の外観図である。図2は携帯電話用ホルダの外観図である。   Hereinafter, a mobile phone and a mobile phone holder according to embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an external view of a mobile phone. FIG. 2 is an external view of a mobile phone holder.

図1に示すように、携帯電話1は、前面の画像を撮影するカメラ10、音声を入力するマイク11、着信用音声等を出力するスピーカ12、種々の映像を表示する表示部13、および複数のボタンなどからなる操作部14を備えている。これらの機能部は、携帯電話装置全体の制御を行う制御部(後述する)に接続されており、携帯電話1のユーザは、操作部14を操作して外部と音声通話、情報通信等を行うことができる。また、カメラ10で静止画および動画を撮影して内蔵記憶部(図示せず)に保存し、取得した画像について様々な画像処理を行うこともできる。   As shown in FIG. 1, a mobile phone 1 includes a camera 10 that captures a front image, a microphone 11 that inputs sound, a speaker 12 that outputs incoming sound, a display unit 13 that displays various images, and a plurality of images. The operation unit 14 including buttons is provided. These functional units are connected to a control unit (described later) that controls the entire mobile phone device, and the user of the mobile phone 1 operates the operation unit 14 to perform voice calls, information communication, and the like with the outside. be able to. In addition, still images and moving images can be taken by the camera 10 and stored in a built-in storage unit (not shown), and various image processing can be performed on the acquired images.

図2において、この携帯電話用ホルダ2は、自動車内等の平坦部に固定され、携帯電話を保持するためのものである。また、自動車から電源供給を受けて動作し、接続される携帯電話1のバッテリ(図示せず)に電源を供給することができる。携帯電話用ホルダ2は、自動車内等の平坦部に固定される固定台26、固定台の上部に接続されて回動可能な円形台27、および円形台27に接合されて携帯電話を保持するL型台28を備えている。   In FIG. 2, the mobile phone holder 2 is fixed to a flat part in an automobile or the like, and is for holding the mobile phone. Moreover, it can operate by receiving power supply from the automobile and can supply power to a battery (not shown) of the mobile phone 1 to be connected. The mobile phone holder 2 holds the mobile phone by being joined to a fixed base 26 fixed to a flat part in an automobile or the like, a circular base 27 connected to the upper part of the fixed base and rotatable, and the circular base 27. An L-shaped table 28 is provided.

L型台28は、携帯電話下部のI/Oコネクタ(レセプタクル)21(図3参照)と接続するためのI/Oコネクタ(プラグ)22を上面部に備えている。I/Oコネクタ22は凸形状であり、携帯電話1の凹形状のI/Oコネクタ21がはめ込まれることによって携帯電話1と結合される。I/Oコネクタ22は、携帯電話1に電源を供給するための接点と、携帯電話1とデータ送受信を行う端子を備えている。同図(B)にL型台28の断面図を示す。このI/Oコネクタ22、L型台28の上面部、および背面部で同図(B)に示すように携帯電話1を携帯電話用ホルダ2に保持することが可能である。なお、L型台28の上面部前側(携帯電話1の前面側)にさらに凸部を設けてもよい。これにより携帯電話を背面、前面で挟み込むことが可能となり、携帯電話をさらに安定に保持することができる。   The L-shaped base 28 has an I / O connector (plug) 22 for connecting to an I / O connector (receptacle) 21 (see FIG. 3) at the lower part of the mobile phone on the upper surface. The I / O connector 22 has a convex shape, and is coupled to the cellular phone 1 by fitting the concave I / O connector 21 of the cellular phone 1. The I / O connector 22 includes a contact for supplying power to the mobile phone 1 and a terminal for transmitting / receiving data to / from the mobile phone 1. A sectional view of the L-shaped table 28 is shown in FIG. The cellular phone 1 can be held in the cellular phone holder 2 at the I / O connector 22, the upper surface portion of the L-shaped base 28, and the rear surface portion as shown in FIG. A convex portion may be further provided on the front side of the upper surface of the L-shaped table 28 (front side of the mobile phone 1). Accordingly, the mobile phone can be sandwiched between the back surface and the front surface, and the mobile phone can be held more stably.

L型台28は、駆動部24Bによって水平方向の回転軸を中心として回動することが可能である。駆動部24Bは、図示は省略するがL型台28を回動させる駆動力を発生するモータやギヤ機構(オームギヤ)などを備えている。なお、この例では携帯電話1を保持するための台を、L型台として説明しているが、外観形状は図示したようなL型に限るものではなく、携帯電話を保持し、水平方向を軸として回動可能なものであればどのような形状であってもよい。   The L-shaped table 28 can be rotated around a horizontal rotation axis by the drive unit 24B. Although not shown, the drive unit 24B includes a motor, a gear mechanism (ohm gear), and the like that generate a driving force for rotating the L-shaped table 28. In this example, the stand for holding the mobile phone 1 is described as an L-type stand, but the external shape is not limited to the L-type as shown, and the mobile phone is held and the horizontal direction is set. Any shape may be used as long as the shaft is rotatable.

L型台28に接合される円形台27は、固定台26に備えた駆動部24Aによって鉛直方向の回転軸を中心として回動することが可能である。駆動部24Aは、図示は省略するが円形台27を回動させる駆動力を発生するモータやギヤ機構(オームギヤ)などを備えている。なお、この例では円形台として説明しているが、外観形状は円形に限るものではなく、固定台に接続され、鉛直方向を軸として回動可能なものであればどのような形状であってもよい。また、固定台も図2に示すような円柱形状に限るものではない。   The circular base 27 joined to the L-shaped base 28 can be rotated about a vertical rotation axis by a drive unit 24A provided in the fixed base 26. The drive unit 24A includes a motor, a gear mechanism (ohm gear), and the like that generate a driving force that rotates the circular platform 27, although not shown. In this example, it is described as a circular platform, but the external shape is not limited to a circle, and any shape can be used as long as it is connected to a fixed platform and can rotate about a vertical direction. Also good. Further, the fixed base is not limited to the cylindrical shape as shown in FIG.

駆動部24Aおよび駆動部24Bは、携帯電話用ホルダ2に内蔵の制御部(後述する)に接続され、携帯電話1のカメラ10が目的の画像を撮影できるように(画像撮影対象が存在する方向に向くように)回動角度を制御される。   The drive unit 24A and the drive unit 24B are connected to a control unit (described later) built in the mobile phone holder 2 so that the camera 10 of the mobile phone 1 can capture a target image (direction in which an image capturing target exists). The angle of rotation is controlled (towards

次に、図3を参照して携帯電話1と携帯電話用ホルダ2の各機能部の接続構成について説明する。図3は、携帯電話1および携帯電話用ホルダ2の構成を示すブロック図である。同図に示すように、携帯電話1の画像取得手段であるカメラ10、音声入力手段であるマイク11、音声出力手段であるスピーカ12、表示部13および操作部14はバスを介して制御部16に接続されている。また、制御部16は、バスを介して、加速度センサ15、RAM17、ROM18、サーバ通信部19、シリアル通信部20、およびI/Oコネクタ21と接続されている。マイク11に入力された音声は、制御部16で音声データに変換される。音声データは、サーバ通信部19に出力され、センタサーバ(図示せず)などを介して他の電話等に送信される。また、サーバ通信部19から受信された他の電話からの音声データは、制御部16で音声信号に変換され、通話用のスピーカ(図示せず)から発音される。これにより、他の電話等と音声会話が可能となる。なお、着信用音声等を出力するスピーカ12と通話用のスピーカは別に備えていてもよいし、いずれか1つのスピーカを共用としてもよい。例えばスピーカ12から通話音声を出力すればよい。   Next, with reference to FIG. 3, a connection configuration of each functional unit of the mobile phone 1 and the mobile phone holder 2 will be described. FIG. 3 is a block diagram showing the configuration of the mobile phone 1 and the mobile phone holder 2. As shown in the figure, a camera 10 as an image acquisition unit, a microphone 11 as an audio input unit, a speaker 12 as an audio output unit, a display unit 13 and an operation unit 14 are connected to a control unit 16 via a bus. It is connected to the. The control unit 16 is connected to the acceleration sensor 15, the RAM 17, the ROM 18, the server communication unit 19, the serial communication unit 20, and the I / O connector 21 via a bus. The sound input to the microphone 11 is converted into sound data by the control unit 16. The voice data is output to the server communication unit 19 and transmitted to another telephone or the like via a center server (not shown). In addition, voice data from another telephone received from the server communication unit 19 is converted into a voice signal by the control unit 16 and is emitted from a speaker for call (not shown). Thereby, a voice conversation with another telephone or the like becomes possible. Note that the speaker 12 for outputting incoming call sound and the like and the speaker for calling may be provided separately, or any one of the speakers may be shared. For example, a call voice may be output from the speaker 12.

また、制御部16は、ユーザが操作部14で入力したテキストデータ、カメラ10で撮影した画像データ等の各種データをサーバ通信部19からセンタサーバなどを介して他の携帯電話に送信することが可能である。   In addition, the control unit 16 may transmit various data such as text data input by the user via the operation unit 14 and image data captured by the camera 10 from the server communication unit 19 to another mobile phone via the center server. Is possible.

また、制御部16は、ROM18に記憶されているプログラムを読み出し、RAM17に展開することで様々な処理を行うことができる。例えば、ユーザがカメラ10で撮影した画像データについて、特定の画像を認識する画像認識処理を行うことが可能である。   Further, the control unit 16 can perform various processes by reading a program stored in the ROM 18 and developing it in the RAM 17. For example, it is possible to perform image recognition processing for recognizing a specific image for image data captured by the user with the camera 10.

加速度センサ15は、3軸(X軸,Y軸,Z軸)センサであり、各軸方向への加速度を検出する。検出した各軸方向への加速度は、制御部16に入力され、制御部16は、携帯電話1の揺動方向を判断することが可能である。   The acceleration sensor 15 is a three-axis (X-axis, Y-axis, Z-axis) sensor, and detects acceleration in the direction of each axis. The detected acceleration in each axial direction is input to the control unit 16, and the control unit 16 can determine the swinging direction of the mobile phone 1.

シリアル通信部20は、他の機器とデータ送受信をすることができるインタフェースであり、BlueTooth等の無線通信によって構成されている。なお、これ以外にもシリアルデータ通信が可能なものであればどのようなものであってもよい。   The serial communication unit 20 is an interface that can exchange data with other devices, and is configured by wireless communication such as BlueTooth. Any other serial data communication can be used.

I/Oコネクタ21は、携帯電話1の電源供給端子であるとともに、シリアルデータ通信可能な汎用インタフェースである。I/Oコネクタ21には様々な機器を接続することができるが、本実施形態では、このI/Oコネクタ21を携帯電話用ホルダ2のI/Oコネクタ22に接続することで、携帯電話1と携帯電話用ホルダ2の間で通信を行う。   The I / O connector 21 is a general-purpose interface capable of serial data communication as well as a power supply terminal of the mobile phone 1. Various devices can be connected to the I / O connector 21. In this embodiment, the mobile phone 1 is connected to the I / O connector 22 of the mobile phone holder 2 by connecting the I / O connector 21 to the I / O connector 21. And communication between the mobile phone holder 2.

携帯電話用ホルダ2のI/Oコネクタ22は、制御部23に接続されている。制御部23は、I/Oコネクタ22を介して携帯電話1とデータ送受信を行う。制御部23は、駆動部24Aおよび駆動部24Bに接続され、携帯電話1のカメラ10が所定の画像を撮影できるように回動角度を制御する。すなわち、以下のような処理を行う。   The I / O connector 22 of the mobile phone holder 2 is connected to the control unit 23. The control unit 23 performs data transmission / reception with the mobile phone 1 via the I / O connector 22. The control unit 23 is connected to the drive unit 24A and the drive unit 24B, and controls the rotation angle so that the camera 10 of the mobile phone 1 can capture a predetermined image. That is, the following processing is performed.

携帯電話1のI/Oコネクタ21と携帯電話用ホルダ2のI/Oコネクタ22が接続されると、携帯電話1のカメラ10は画像を撮影し、制御部16に入力する。制御部16は、入力された画像から特定の画像(ここでは人間の顔面)を認識する。制御部16は、認識した画像について、カメラ撮影範囲の座標位置の情報に変換する。この座標位置に基づいて駆動制御信号をI/Oコネクタ21およびI/Oコネクタ22を介して携帯電話用ホルダ2の制御部23に伝達する。制御部23は、駆動制御信号に基づいて、カメラ撮影範囲の中心座標位置に認識画像の座標位置が一致するように、すなわち、カメラ10の撮影範囲の中心に撮影対象がくるように、駆動部24Aと駆動部24Bを制御する。具体的には後に詳しく述べるが、携帯電話1が向きを変えられたことによる画像移動方向と移動偏差からフィードバックされた信号で円形台27とL型台28を駆動させ、偏差が無くなるように制御する。   When the I / O connector 21 of the mobile phone 1 and the I / O connector 22 of the mobile phone holder 2 are connected, the camera 10 of the mobile phone 1 captures an image and inputs it to the control unit 16. The control unit 16 recognizes a specific image (here, a human face) from the input image. The control unit 16 converts the recognized image into information on the coordinate position of the camera shooting range. Based on this coordinate position, a drive control signal is transmitted to the control unit 23 of the mobile phone holder 2 via the I / O connector 21 and the I / O connector 22. Based on the drive control signal, the control unit 23 drives the drive unit so that the coordinate position of the recognized image matches the center coordinate position of the camera shooting range, that is, the shooting target comes to the center of the shooting range of the camera 10. 24A and the drive unit 24B are controlled. Specifically, as will be described in detail later, the circular base 27 and the L-shaped base 28 are driven by a signal fed back from the image movement direction and the movement deviation due to the change of the direction of the mobile phone 1, and the deviation is eliminated. To do.

このようにして、携帯電話用ホルダ2が人間の顔面を自動追尾し、ユーザが手動で調整することなくカメラ10で目的の画像を正確に撮影することができる。   In this manner, the mobile phone holder 2 automatically tracks the human face, and the user can accurately capture a target image without manual adjustment by the user.

なお、上記例では携帯電話1の制御部16が、特定の画像(人間の顔面)を認識する例を示したが、携帯電話1に画像認識専用の処理部を備えていてもよい。画像認識専用の処理部としては、例えば専用ICチップ、またはDSP等を用いる。   In the above example, the control unit 16 of the mobile phone 1 recognizes a specific image (human face), but the mobile phone 1 may include a processing unit dedicated to image recognition. As the processing unit dedicated to image recognition, for example, a dedicated IC chip or a DSP is used.

以上の例では、携帯電話が追尾対象の画像を認識し、その座標を割り出して撮影範囲中心部に撮影対象がくるように、携帯電話用ホルダ2に駆動制御信号を送信する構成としたが、これらの画像認識は、携帯電話用ホルダ2の制御部23が行ってもよいし、携帯電話用ホルダ2に画像認識専用の処理部を設けてもよい。このようにすれば、携帯電話1は、カメラ10で撮影した画像を携帯電話用ホルダ2に送信するのみで、自動追尾処理を携帯電話用ホルダ2側が行うこともできる。   In the above example, the mobile phone recognizes the image to be tracked, determines the coordinates, and transmits the drive control signal to the mobile phone holder 2 so that the shooting target comes to the center of the shooting range. Such image recognition may be performed by the control unit 23 of the mobile phone holder 2, or a processing unit dedicated to image recognition may be provided in the mobile phone holder 2. In this way, the mobile phone 1 can transmit the image captured by the camera 10 only to the mobile phone holder 2, and the mobile phone holder 2 side can perform the automatic tracking process.

また、上記自動追尾処理は、携帯電話1のI/Oコネクタ21と携帯電話用ホルダ2のI/Oコネクタ22を接続することがトリガとなる例を示したが、ユーザが携帯電話1の操作部14を操作して、自動追尾処理を開始する指示をしてもよい。   Moreover, although the example in which the automatic tracking process is triggered by the connection of the I / O connector 21 of the mobile phone 1 and the I / O connector 22 of the mobile phone holder 2 has been described, the user operates the mobile phone 1. The unit 14 may be operated to instruct to start the automatic tracking process.

画像認識プログラムは、人間の顔面の画像を所定の認識アルゴリズムに基づいて認識する。例えば、カメラ10で取得した画像を複数の小領域に分割して、それぞれの画像をあらかじめ登録しておいた顔パターンと照合する等の処理である。また、カラー画像を取得して肌色と一致するか判定してもよい。   The image recognition program recognizes an image of a human face based on a predetermined recognition algorithm. For example, an image acquired by the camera 10 is divided into a plurality of small areas, and each image is collated with a face pattern registered in advance. Alternatively, a color image may be acquired to determine whether the color matches the skin color.

携帯電話用ホルダ2の制御部23は、通信部25に接続されている。この通信部25は自動車のオーディオ機器と接続される。制御部23は、通信部25を介して自動車のオーディオ機器から異常発生の警告音を発する。通信部25は、有線で直接接続されるように構成されていてもよいし、BlueTooth等の無線通信により自動車のオーディオ機器と接続されてもよい。なお、FM放送電波を介して自動車のオーディオ機器から警告音を発するようにしてもよい。   The control unit 23 of the mobile phone holder 2 is connected to the communication unit 25. The communication unit 25 is connected to an audio device of the automobile. The control unit 23 emits an alarm sound for occurrence of abnormality from the audio device of the automobile via the communication unit 25. The communication unit 25 may be configured to be directly connected by wire, or may be connected to an audio device of an automobile by wireless communication such as BlueTooth. In addition, you may make it emit a warning sound from the audio equipment of a motor vehicle via FM broadcast electric wave.

ここで言う異常発生とは、携帯電話1の制御部16が人間の顔面を認識できない状態を言う。また、認識した人間の顔面が円形台27とL型台28の回動可能範囲の限界に近く(例えば認識している人間が大きく移動したとき等)、カメラ10の撮影範囲の中心に人間の顔面がくるように移動することができない場合も異常発生として警告音を発するようにする。警告音としては、「認識されません」、「追尾可能範囲外です」などの音声を発するようにすればよい。   The occurrence of abnormality here refers to a state in which the control unit 16 of the mobile phone 1 cannot recognize a human face. In addition, the recognized human face is close to the limit of the rotatable range of the circular platform 27 and the L-shaped platform 28 (for example, when the recognized human has moved greatly), and the human 10 is centered on the shooting range of the camera 10. Even when the face cannot be moved, a warning sound is generated as an abnormality. As a warning sound, a sound such as “not recognized” or “out of tracking range” may be emitted.

また、携帯電話1のスピーカ12から警告音を発するようにしてもよい。携帯電話1の制御部16は、人間の顔面を認識できない場合、内部音源(ROM18に記憶)などを用いて警告音をスピーカ12から発するようにする。人間の顔面を認識したとしても、携帯電話用ホルダ2の制御部23が、円形台27とL型台28の回動可能範囲外に存在すると判断した場合、異常発生を通知する情報を携帯電話1の制御部16に送信し、制御部16は、警告音をスピーカ12から発するようにする。   Further, a warning sound may be emitted from the speaker 12 of the mobile phone 1. When the human face cannot be recognized, the control unit 16 of the mobile phone 1 emits a warning sound from the speaker 12 using an internal sound source (stored in the ROM 18). Even if the human face is recognized, if the control unit 23 of the mobile phone holder 2 determines that it exists outside the rotatable range of the circular base 27 and the L-shaped base 28, information notifying the occurrence of abnormality is sent to the mobile phone. 1 is transmitted to the control unit 16, and the control unit 16 emits a warning sound from the speaker 12.

次に、運転者の身体状態を検出する処理である運転者モニタ処理について説明する。以下の運転者モニタ処理は、上述した携帯電話用ホルダ2の自動追尾と連動して行うこともでき、携帯電話単体で行うこともできる。   Next, a driver monitor process that is a process for detecting the physical state of the driver will be described. The following driver monitor processing can be performed in conjunction with the automatic tracking of the mobile phone holder 2 described above, or can be performed by a single mobile phone.

上述したように、携帯電話1のカメラ10は、人間の顔面の画像を取得する。取得した画像に基づいて以下の2種類の検出動作を行う。   As described above, the camera 10 of the mobile phone 1 acquires an image of a human face. The following two types of detection operations are performed based on the acquired image.

(1)瞬き回数測定
制御部16は、人間の顔面を認識し、輪郭の座標から人間の目の位置を検出する。このとき、画像処理によって目を直接認識するようにしてもよい。その後、制御部16は、取得した目の画像から瞬きの頻度を測定する。例えば1分間の瞬き回数を測定する。これを継続的に行い、所定の測定数(例えば5個)で移動平均を算出し、単位時間あたりの瞬きの平均回数を測定する。
(1) Measurement of number of blinks The control unit 16 recognizes the human face and detects the position of the human eye from the coordinates of the contour. At this time, the eyes may be directly recognized by image processing. Thereafter, the control unit 16 measures the blink frequency from the acquired eye image. For example, the number of blinks per minute is measured. This is continuously performed, the moving average is calculated with a predetermined number of measurements (for example, 5), and the average number of blinks per unit time is measured.

制御部16は、瞬きの回数がこの平均回数から所定範囲外(例えば±20%)となった場合に、内部音源などを用いて警告音をスピーカ12から発するようにする。なお、シリアル通信部20を介して自動車のオーディオ機器から警告音が発せられるように、異常発生を通知する情報を伝達するようにしてもよい。また、携帯電話用ホルダ2に接続されている場合は、この携帯電話用ホルダ2を介して自動車のオーディオ機器から警告音が発せられるようにしてもよい。ここでの警告音としては、「休憩をとりましょう」など、身体状態に異常が発生している旨を通知する音声を発する。   The controller 16 emits a warning sound from the speaker 12 using an internal sound source or the like when the number of blinks is outside a predetermined range (for example, ± 20%) from this average number. Note that information notifying the occurrence of abnormality may be transmitted so that a warning sound is emitted from the audio device of the automobile via the serial communication unit 20. When connected to the mobile phone holder 2, a warning sound may be emitted from an audio device of the automobile via the mobile phone holder 2. As the warning sound here, a sound notifying that an abnormality has occurred in the physical condition such as “Let's take a break” is emitted.

このように、携帯電話1は、瞬きの回数から人間の疲労度測定を行うことができる。これは、疲労が蓄積されると瞬きが極端に少なくなる現象を利用するものである。また、瞬きが多すぎる場合も何らかの身体的異常(目が乾いて痛みを覚えているなど)が発生している可能性が高いため警告音を発するようにする。   Thus, the mobile phone 1 can measure human fatigue based on the number of blinks. This utilizes a phenomenon in which blinking is extremely reduced when fatigue is accumulated. Also, if there are too many blinks, it is highly likely that some kind of physical abnormality (such as dry eyes and pain) has occurred.

(2)呼吸回数測定
携帯電話1のカメラ10は、人間の顔面の画像を取得する。制御部16は、人間の顔面を認識し、顔の輪郭の座標から人間の口および鼻の位置を検出する。このとき、画像処理によって口および鼻を直接認識するようにしてもよい。その後、制御部16は、取得した画像の赤外領域を検出する。携帯電話1のカメラ10は、赤外領域に感度を有するものであり、制御部16は、取得した画像について赤外領域を切り出すことができる。制御部16は、切り出した赤外領域の画像から吐息を検出する。人間の吐息は、周囲よりも温度が高くなるため、赤外領域の画像ではこの吐息を画像認識により検出することができる。その後、制御部16は、呼吸の頻度を測定する。例えば1分間の呼吸回数を測定する。これを継続的に行い、所定の測定回数(例えば5回)で移動平均を算出し、単位時間あたりの標準呼吸回数を測定する。
(2) Respiration frequency measurement The camera 10 of the mobile phone 1 acquires an image of a human face. The control unit 16 recognizes the human face and detects the positions of the human mouth and nose from the coordinates of the contour of the face. At this time, the mouth and nose may be directly recognized by image processing. Thereafter, the control unit 16 detects an infrared region of the acquired image. The camera 10 of the mobile phone 1 has sensitivity in the infrared region, and the control unit 16 can cut out the infrared region of the acquired image. The control unit 16 detects breathing from the extracted infrared region image. Since the temperature of human exhalation is higher than that of the surroundings, this exhalation can be detected by image recognition in an infrared region image. Thereafter, the control unit 16 measures the frequency of breathing. For example, the number of breaths per minute is measured. This is continuously performed, a moving average is calculated at a predetermined number of times of measurement (for example, 5 times), and the standard number of breaths per unit time is measured.

制御部16は、呼吸回数がこの標準呼吸回数から所定範囲外となった場合に、内部音源などを用いて警告音をスピーカ12から発するようにする。なお、シリアル通信部20を介して自動車のオーディオ機器から警告音が発せられるように、異常発生を通知する情報を伝達するようにしてもよい。また、携帯電話用ホルダ2に接続されている場合は、この携帯電話用ホルダ2を介して自動車のオーディオ機器から警告音が発せられるようにしてもよい。   The controller 16 emits a warning sound from the speaker 12 using an internal sound source or the like when the number of breaths falls outside the predetermined range from the standard number of breaths. Note that information notifying the occurrence of abnormality may be transmitted so that a warning sound is emitted from the audio device of the automobile via the serial communication unit 20. When connected to the mobile phone holder 2, a warning sound may be emitted from an audio device of the automobile via the mobile phone holder 2.

このように、携帯電話1は、呼吸回数から人間の緊張度測定を行うことができる。これは、緊張度が高まると呼吸回数が極端に多くなる現象を利用するものである。また、呼吸回数が少なすぎる場合も何らかの異常(居眠りをしているなど)が発生している可能性が高いため警告音を発するようにする。   As described above, the mobile phone 1 can measure the human tension based on the number of breaths. This utilizes the phenomenon that the number of breaths increases extremely as the degree of tension increases. Also, when the number of breathing is too small, a warning sound is generated because there is a high possibility that some kind of abnormality (such as dozing) has occurred.

また、運転者モニタ処理は、以下の2種類の検出動作によっても行うことができる。   The driver monitor process can also be performed by the following two types of detection operations.

(1)会話反応時間測定
携帯電話1の制御部16は、内部音源などを用いて会話音声をスピーカ12から発するようにする。会話音声を発した後、マイク11に返答が入力されるまでの時間を測定する。これを継続的に行い、所定の測定回数(例えば5回)で移動平均を算出し、平均反応時間を測定する。
(1) Measurement of conversation reaction time The control unit 16 of the mobile phone 1 emits a conversation voice from the speaker 12 using an internal sound source or the like. After the conversation voice is uttered, the time until the reply is input to the microphone 11 is measured. This is continuously performed, a moving average is calculated at a predetermined number of measurements (for example, 5 times), and an average reaction time is measured.

制御部16は、反応時間がこの平均時間から所定範囲外となった場合に、内部音源などを用いて警告音をスピーカ12から発するようにする。なお、シリアル通信部20を介して自動車のオーディオ機器から警告音が発せられるように、異常発生を通知する情報を伝達するようにしてもよい。また、携帯電話用ホルダ2に接続されている場合は、この携帯電話用ホルダ2を介して自動車のオーディオ機器から警告音が発せられるようにしてもよい。   The control unit 16 emits a warning sound from the speaker 12 using an internal sound source or the like when the reaction time is outside the predetermined range from the average time. Note that information notifying the occurrence of abnormality may be transmitted so that a warning sound is emitted from the audio device of the automobile via the serial communication unit 20. When connected to the mobile phone holder 2, a warning sound may be emitted from an audio device of the automobile via the mobile phone holder 2.

このように、携帯電話1は、反応時間から人間の集中度測定を行うことができる。これは、集中度が低下すると反応時間が極端に遅くなる現象を利用するものである。   Thus, the mobile phone 1 can measure the human concentration level from the reaction time. This utilizes the phenomenon that the reaction time becomes extremely slow as the concentration decreases.

(2)姿勢変動測定
携帯電話1の加速度センサ15は、検出した加速度を制御部16に入力する。制御部16は、入力された3軸の加速度から、携帯電話の揺動方向(携帯電話の姿勢変動)を演算する。ここでは、携帯電話の姿勢変動から、自動車の姿勢変動を推測する。これを継続的に行い、所定の測定回数(例えば5回)で移動平均を算出し、平均姿勢変動を測定する。
(2) Attitude variation measurement The acceleration sensor 15 of the mobile phone 1 inputs the detected acceleration to the control unit 16. The control unit 16 calculates the swinging direction of the mobile phone (change in posture of the mobile phone) from the input triaxial acceleration. Here, the attitude change of the automobile is estimated from the attitude change of the mobile phone. This is continuously performed, a moving average is calculated at a predetermined number of measurements (for example, 5 times), and an average posture variation is measured.

制御部16は、姿勢変動がこの平均から所定範囲外となった場合に、内部音源などを用いて警告音をスピーカ12から発するようにする。なお、シリアル通信部20を介して自動車のオーディオ機器から警告音が発せられるように、異常発生を通知する情報を伝達するようにしてもよい。また、携帯電話用ホルダ2に接続されている場合は、この携帯電話用ホルダ2を介して自動車のオーディオ機器から警告音が発せられるようにしてもよい。   The control unit 16 emits a warning sound from the speaker 12 using an internal sound source or the like when the posture variation is out of the predetermined range from this average. Note that information notifying the occurrence of abnormality may be transmitted so that a warning sound is emitted from the audio device of the automobile via the serial communication unit 20. When connected to the mobile phone holder 2, a warning sound may be emitted from an audio device of the automobile via the mobile phone holder 2.

このように、携帯電話1は、自動車の姿勢変動から人間の集中度測定を行うことができる。これは、集中度が低下するとハンドル、アクセル、ブレーキなどの操作がばらついて自動車がフラつくことを利用するものである。   As described above, the mobile phone 1 can measure the human concentration level from the change in posture of the automobile. This uses the fact that the operation of the steering wheel, the accelerator, the brake, etc., varies when the degree of concentration decreases, and the car flutters.

以上の処理(瞬き、呼吸、会話反応、自動車姿勢)は、いずれか1つを行ってもよいし、2つ以上の処理を同時に行うようにしてもよい。無論全てを同時に行うことも可能である。2以上の処理を同時に行う場合であっても、いずれか1つで身体状態に異常(過度の疲労、過度の緊張、など)が発生したときは警告を発するようにしてもよいし、複数の項目で異常が発生したときに警告を発するようにしてもよい。例えば、呼吸回数が少なすぎる状態で、かつ自動車の姿勢変動が大きくなったときは運転者が居眠り運転をしているとして警告を発する。また、瞬き回数が少なすぎる状態で、かつ会話反応時間が極端に遅くなったとき、集中力が極端に低下して運転に集中できていないと判断して警告を発する。これにより、自動車運転者の身体状態を高精度に測定することができる。   Any one of the above processes (blinking, breathing, conversation reaction, car posture) may be performed, or two or more processes may be performed simultaneously. Of course, all can be done at the same time. Even when two or more processes are performed at the same time, if any one of the physical conditions is abnormal (excessive fatigue, excessive tension, etc.), a warning may be issued. A warning may be issued when an abnormality occurs in an item. For example, when the number of breaths is too small and the posture change of the car becomes large, a warning is issued that the driver is sleeping and driving. Further, when the number of blinks is too small and the conversation reaction time is extremely slow, it is determined that the concentration is extremely low and the driver cannot concentrate on driving, and a warning is issued. Thereby, the body condition of the automobile driver can be measured with high accuracy.

なお、異常が発生した場合、携帯電話の通話機能を用いてセンタサーバなどに異常発生を通知してもよい。センタサーバは異常発生の通知を受けたとき、その携帯電話を呼び出すようにしてもよいし、予め指定された連絡先に異常発生の通知を転送するようにしてもよい。   If an abnormality occurs, the center server or the like may be notified of the occurrence of the abnormality using a call function of the mobile phone. When the center server receives the notification of the occurrence of an abnormality, the center server may call the mobile phone, or may forward the notification of the occurrence of the abnormality to a contact point designated in advance.

次に、図4を参照して本実施形態の携帯電話1および携帯電話用ホルダ2の動作について詳細に説明する。図4は、携帯電話1および携帯電話用ホルダ2の自動追尾動作を示すフローチャートである。   Next, operations of the mobile phone 1 and the mobile phone holder 2 of the present embodiment will be described in detail with reference to FIG. FIG. 4 is a flowchart showing the automatic tracking operation of the mobile phone 1 and the mobile phone holder 2.

携帯電話1を携帯電話用ホルダ2に接続することがこの動作を開始するトリガとなる。なお、接続後にユーザが携帯電話1の操作部14を用いてプログラムを読み出すように指示することがトリガとなってもよい。まず携帯電話1は、運転者モニタ処理を行うプログラムを読み出す(s10)。つまり、携帯電話1のカメラ10を起動し、画像撮影の準備を行う。携帯電話用ホルダ2は、イニシャライズ処理を行う(s20)。イニシャライズ処理は、駆動部24Aと駆動部24Bの駆動位置を駆動可能範囲の中心位置にする。このとき、前回自動追尾をしており、駆動部24Aと駆動部24Bの位置を変更していた場合は、前回の駆動位置を携帯電話用ホルダ2の内蔵記憶部(図示せず)に記憶させておき、この位置に設定するようにしてもよい。また、携帯電話1の記憶部に記憶させておき、これを読み出すようにしてもよい。イニシャライズ処理を終えると携帯電話用ホルダ2は、携帯電話1にスタンバイが完了した情報を送信し(s21)、携帯電話1はこれを受信する(s11)。   Connecting the cellular phone 1 to the cellular phone holder 2 is a trigger for starting this operation. In addition, it may be a trigger that the user instructs to read the program using the operation unit 14 of the mobile phone 1 after connection. First, the mobile phone 1 reads a program for performing driver monitoring processing (s10). That is, the camera 10 of the mobile phone 1 is activated to prepare for image shooting. The mobile phone holder 2 performs an initialization process (s20). In the initialization process, the drive positions of the drive unit 24A and the drive unit 24B are set to the center position of the drivable range. At this time, if the previous automatic tracking was performed and the positions of the drive unit 24A and the drive unit 24B were changed, the previous drive position is stored in a built-in storage unit (not shown) of the mobile phone holder 2. It may be set at this position. Alternatively, it may be stored in the storage unit of the mobile phone 1 and read out. When the initialization process is completed, the mobile phone holder 2 transmits information indicating that the standby is completed to the mobile phone 1 (s21), and the mobile phone 1 receives the information (s11).

携帯電話1は、スタンバイが完了した情報を受信すると、カメラ10から画像を取得し、人間の顔面を画像処理によって認識する(s12)。このとき、顔面が認識できなければ異常発生として警告を発する(s13)。上述したように、警告は、携帯電話1のスピーカ12から発してもよいし、自動車のオーディオ機器から発するようにしてもよい。   When the mobile phone 1 receives the information indicating that the standby has been completed, the mobile phone 1 acquires an image from the camera 10 and recognizes the human face by image processing (s12). At this time, if the face cannot be recognized, a warning is issued as occurrence of an abnormality (s13). As described above, the warning may be issued from the speaker 12 of the mobile phone 1 or from an audio device of the automobile.

人間の顔面が認識された場合、カメラ撮影範囲内のどの位置に存在するかの座標を取得する(s14)。その後、この位置座標から、台座をどの方向に移動するかを計算して駆動制御信号を携帯電話用ホルダ2に送信する(s15)。例えば人間の顔面がカメラ撮影範囲の左側に位置する場合、円形台27を左側に回転させて、人間の顔面がカメラ撮影範囲の上側に位置する場合、L型台28を上側に回転させるように駆動制御信号を送信する。移動量は、最低移動単位量だけ移動するようにしてもよいし、あらかじめ定めた移動量だけ移動するようにしてもよい。携帯電話用ホルダ2は、これを受信し(s22)、所定の量だけ駆動部24Aと駆動部24Bを駆動し、円形台27とL型台28を移動させる(s23)。   When the human face is recognized, the coordinates of the position within the camera shooting range are acquired (s14). Thereafter, the direction in which the pedestal is moved is calculated from the position coordinates, and a drive control signal is transmitted to the mobile phone holder 2 (s15). For example, when the human face is located on the left side of the camera shooting range, the circular platform 27 is rotated to the left side, and when the human face is located above the camera shooting range, the L-shaped table 28 is rotated upward. A drive control signal is transmitted. The movement amount may be moved by the minimum movement unit amount or may be moved by a predetermined movement amount. The mobile phone holder 2 receives this (s22), drives the drive unit 24A and the drive unit 24B by a predetermined amount, and moves the circular platform 27 and the L-shaped platform 28 (s23).

その後、移動が完了した情報を携帯電話1に送信する(s24)。携帯電話1はこれを受信し(s16)、再度画像を取得して人間の顔面を認識する(s17)。ここで前回取得した人間の顔面の位置座標と、再取得した人間の顔面の位置座標とを比較し、画像の移動方向と移動偏差を計算する(s18)。携帯電話1は、画像の移動偏差と直前の台の移動量とを比較して、画像撮影範囲の中心位置に人間の顔面がくるように台の移動方向と移動量を計算して、再度駆動制御信号を携帯電話用ホルダ2に送信する(s19)。携帯電話用ホルダ2は、これを受信し(s25)、移動量が台の可動範囲内にあるか否かを判断し、可動範囲内になければ異常発生として警告を発する(s26)。上述したように、警告は自動車のオーディオ機器から発してもよいし、携帯電話1のスピーカ12から発するようにしてもよい。   Thereafter, the information that the movement has been completed is transmitted to the mobile phone 1 (s24). The mobile phone 1 receives this (s16), acquires an image again, and recognizes the human face (s17). Here, the position coordinate of the human face acquired last time is compared with the position coordinate of the human face acquired again, and the moving direction and movement deviation of the image are calculated (s18). The mobile phone 1 compares the movement deviation of the image with the movement amount of the previous stage, calculates the movement direction and movement amount of the stage so that the human face is at the center position of the image capturing range, and is driven again. A control signal is transmitted to the mobile phone holder 2 (s19). The mobile phone holder 2 receives this (s25), determines whether or not the movement amount is within the movable range of the table, and issues a warning as an abnormality if it is not within the movable range (s26). As described above, the warning may be issued from the audio device of the automobile, or may be issued from the speaker 12 of the mobile phone 1.

可動範囲内にあれば、駆動制御信号の指示する移動方向と移動量で駆動部24Aと駆動部24Bを駆動し、円形台27とL型台28を移動させる(s27)。その後、s24の処理に戻り、移動偏差が無くなるように、すなち人間の顔面がカメラ10の撮影範囲中心に正確に保持されるように処理を繰り返す。   If within the movable range, the drive unit 24A and the drive unit 24B are driven with the movement direction and movement amount indicated by the drive control signal, and the circular platform 27 and the L-shaped platform 28 are moved (s27). Thereafter, the processing returns to s24, and the processing is repeated so that the human face is accurately held at the center of the photographing range of the camera 10 so that the movement deviation is eliminated.

以上のようにして、携帯電話1と携帯電話用ホルダ2は、人間の顔面を自動追尾することができる。なお、上述したように、携帯電話1から携帯電話用ホルダ2に画像データを送信し、携帯電話用ホルダ2が追尾対象の画像を認識して撮影範囲中心付近に撮影対象がくるように追尾制御するようにしてもよい。   As described above, the mobile phone 1 and the mobile phone holder 2 can automatically track the human face. Note that, as described above, image data is transmitted from the mobile phone 1 to the mobile phone holder 2, and the mobile phone holder 2 recognizes the tracking target image, and the tracking control is performed so that the shooting target comes near the center of the shooting range. You may make it do.

次に、図5〜図8を参照して、運転者モニタ処理を行うプログラムの動作について詳細に説明する。運転者モニタ処理は、上述した携帯電話用ホルダ2の自動追尾と連動して行うこともでき、携帯電話1単体で行うこともできる。また、運転者モニタ処理は、上述した携帯電話用ホルダ2に携帯電話1を接続することをトリガとしてもよいし、ユーザが操作部14を操作してこのプログラムを読み出すように指示することをトリガとしてもよい。また、ユーザがこのプログラムを読み出すように指示し、さらに加速度センサ15が加速度(携帯電話1が揺動されたこと)を検出したことをトリガとしてもよい。   Next, with reference to FIGS. 5 to 8, the operation of the program for performing the driver monitoring process will be described in detail. The driver monitoring process can be performed in conjunction with the automatic tracking of the mobile phone holder 2 described above, or can be performed by the mobile phone 1 alone. The driver monitoring process may be triggered by connecting the cellular phone 1 to the cellular phone holder 2 described above, or triggered by the user operating the operation unit 14 to instruct to read this program. It is good. Moreover, it is good also as a trigger that the user instruct | indicates to read this program, and also the acceleration sensor 15 detected the acceleration (the mobile telephone 1 was rock | fluctuated).

図5は、疲労測定動作を示すフローチャートである。まず、カメラ10から画像を取得し(s30)、人間の顔面および目を画像処理によって認識する(s31)。目の認識については顔の輪郭の座標から位置を検出するが、画像処理によって直接目を認識するようにしてもよい。上述したように、所定の認識アルゴリズムに基づいて認識する。   FIG. 5 is a flowchart showing the fatigue measurement operation. First, an image is acquired from the camera 10 (s30), and a human face and eyes are recognized by image processing (s31). For eye recognition, the position is detected from the coordinates of the contour of the face, but the eyes may be directly recognized by image processing. As described above, recognition is performed based on a predetermined recognition algorithm.

その後、取得した目の画像から瞬きの頻度を測定する(s32)。例えば1分間の瞬き回数を測定する。瞬きは、白目の面積を検出し、この面積が所定割合以下に低下したときに目を閉じたと判定し、瞬きとして測定すればよい。その後、所定の測定数(例えば5個)で移動平均データを算出する(s33)。なお、動作開始直後で測定数が5個未満の場合は、その測定数で平均データを算出しておいてもよいし、5個以上になるまで平均データを算出しないようにしてもよい。   Thereafter, the blink frequency is measured from the acquired eye image (s32). For example, the number of blinks per minute is measured. For blinking, the area of the white eye is detected, and when the area falls below a predetermined ratio, it is determined that the eyes are closed, and the blink may be measured. Thereafter, moving average data is calculated with a predetermined number of measurements (for example, 5) (s33). If the number of measurements is less than 5 immediately after the start of the operation, the average data may be calculated based on the number of measurements, or the average data may not be calculated until the number is 5 or more.

移動平均を算出した後、動作開始してから15分が経過したか否かを判断する(s34)。15分が経過していなければ画像取得から処理を繰り返す(s34→s30)。15分が経過した場合、動作開始から5分以後の10分間の移動平均データを基準データとして算出する(s35)。   After calculating the moving average, it is determined whether 15 minutes have elapsed since the start of the operation (s34). If 15 minutes have not elapsed, the processing is repeated from the image acquisition (s34 → s30). When 15 minutes have elapsed, moving average data for 10 minutes after the start of operation is calculated as reference data (s35).

なお、基準データは5〜15分の移動平均データに限るものではなく、どのような時間であってもよいが、瞬き回数が平均的に落ち着いてから(例えば動作開始後5分以降)複数のデータで算出するものとする。運転開始直後は運転者の身体状態が落ち着いていないためである。   The reference data is not limited to the moving average data of 5 to 15 minutes, but may be any time, but after the average number of blinks has settled (for example, after 5 minutes from the start of operation) It shall be calculated with data. This is because the physical condition of the driver is not settled immediately after the start of driving.

その後、最新の測定データ(最新の移動平均データ)が基準データの±20%以内であるか否かを判断し(s36)、範囲内であれば画像取得から処理を繰り返す(s36→s30)。基準データの±20%外であれば疲労状態にあるとして警告を発する(s37)。なお、判断基準は±20%に限るものではない。実際に使用する環境に応じて疲労状態にあると判断できる平均的な基準に予め調整しておけばよい。   Thereafter, it is determined whether or not the latest measurement data (latest moving average data) is within ± 20% of the reference data (s36). If it is within the range, the process is repeated from the image acquisition (s36 → s30). If it is outside ± 20% of the reference data, a warning is issued as being in a fatigue state (s37). Note that the criterion is not limited to ± 20%. What is necessary is just to adjust beforehand to the average reference | standard which can be judged that it is in a fatigue state according to the environment actually used.

警告は、内部音源などを用いて警告音をスピーカ12から発するようにする。なお、シリアル通信部20を介して自動車のオーディオ機器から警告音が発せられるように、異常発生を通知する情報を伝達するようにしてもよい。また、携帯電話用ホルダ2に接続されている場合は、この携帯電話用ホルダ2を介して自動車のオーディオ機器から警告音が発せられるようにしてもよい。   For the warning, an alarm sound is emitted from the speaker 12 using an internal sound source or the like. Note that information notifying the occurrence of abnormality may be transmitted so that a warning sound is emitted from the audio device of the automobile via the serial communication unit 20. When connected to the mobile phone holder 2, a warning sound may be emitted from an audio device of the automobile via the mobile phone holder 2.

次に、図6は、緊張度測定動作を示すフローチャートである。まず、カメラ10から画像を取得し(s40)、人間の顔面、口および鼻を画像処理によって認識する(s41)。口および鼻の認識については顔の輪郭の座標から位置を検出するが、画像処理によって直接口および鼻を認識するようにしてもよい。   Next, FIG. 6 is a flowchart showing the tension measuring operation. First, an image is acquired from the camera 10 (s40), and the human face, mouth, and nose are recognized by image processing (s41). Regarding the recognition of the mouth and nose, the position is detected from the coordinates of the contour of the face, but the mouth and nose may be directly recognized by image processing.

その後、取得した画像について赤外領域を切り出す(s42)。上述したように、携帯電話1のカメラ10は、赤外領域に感度を有するので、この領域の画像を取得する。取得した画像から呼吸回数を測定する(s43)。例えば1分間の呼吸回数を測定する。呼吸回数は、吐息を検出することで測定する。人間の吐息は、周囲よりも温度が高くなるため、赤外領域の画像ではこの吐息を画像認識により検出することができる。吐息1回につき、呼吸回数1回とする。その後、所定の測定数(例えば5回)で移動平均データを算出する(s44)。なお、動作開始直後で測定数が5回未満の場合は、その測定数で平均データを算出しておいてもよいし、5回以上になるまで平均データを算出しないようにしてもよい。   Thereafter, an infrared region is cut out from the acquired image (s42). As described above, since the camera 10 of the mobile phone 1 has sensitivity in the infrared region, the image of this region is acquired. The respiratory rate is measured from the acquired image (s43). For example, the number of breaths per minute is measured. The number of breaths is measured by detecting exhalation. Since the temperature of human exhalation is higher than that of the surroundings, this exhalation can be detected by image recognition in an infrared region image. The number of breaths is one per breath. Thereafter, moving average data is calculated with a predetermined number of measurements (for example, 5 times) (s44). If the number of measurements is less than 5 immediately after the start of the operation, the average data may be calculated based on the number of measurements, or the average data may not be calculated until 5 or more times.

移動平均を算出した後、動作開始してから15分が経過したか否かを判断する(s45)。15分が経過していなければ画像取得から処理を繰り返す(s45→s40)。15分が経過した場合、動作開始から5分以後の10分間の移動平均データを基準データとして算出する(s46)。   After calculating the moving average, it is determined whether 15 minutes have passed since the operation started (s45). If 15 minutes have not elapsed, the processing is repeated from the image acquisition (s45 → s40). When 15 minutes have elapsed, moving average data for 10 minutes after the start of operation is calculated as reference data (s46).

この動作においても、基準データは5〜15分の移動平均データに限るものではない。その後、最新の測定データ(最新の移動平均データ)が基準データの±20%以内であるか否かを判断し(s47)、範囲内であれば画像取得から処理を繰り返す(s47→s40)。基準データの±20%外であれば緊張状態にあるとして警告を発する(s48)。なお、判断基準は±20%に限るものではない。実際に使用する環境に応じて緊張状態にあると判断できる平均的な基準に調整しておけばよい。警告は、上述したようにスピーカ12から発するようにしてもよいし、自動車のオーディオ機器から警告音を発するようにしてもよい。   Even in this operation, the reference data is not limited to moving average data of 5 to 15 minutes. Thereafter, it is determined whether or not the latest measurement data (latest moving average data) is within ± 20% of the reference data (s47). If it is within the range, the process is repeated from the image acquisition (s47 → s40). If it is outside ± 20% of the reference data, a warning is issued as being in tension (s48). Note that the criterion is not limited to ± 20%. What is necessary is just to adjust to the average reference | standard which can be judged that it is in the tension state according to the environment actually used. The warning may be emitted from the speaker 12 as described above, or a warning sound may be emitted from an audio device of the automobile.

次に、図7は、会話反応度測定動作を示すフローチャートである。まず、スピーカ12を用いて会話音声を出力する(s50)。会話音声はどのような音声であってもよいが、例えば「大丈夫ですか?」など問いかけをする音声を発する。問いかけの音声会話出力に対し、運転者からの返答音声を入力する(s51)。所定レベル以上の入力がマイク11からあれば返答音声として判断するが、音声認識により特定の音声(例えば「はい」)を返答音声として判断するようにしてもよい。なお、運転者からの返答音声が無ければ、警告を発してもよいし、この動作を終了するようにしてもよい。   Next, FIG. 7 is a flowchart showing the conversation reaction degree measurement operation. First, a conversation voice is output using the speaker 12 (s50). The conversation voice may be any voice, but for example, a voice for asking “Is it all right?” Is issued. A reply voice from the driver is input for the voice conversation output for the inquiry (s51). If there is an input of a predetermined level or more from the microphone 11, it is determined as a response voice, but a specific voice (for example, “Yes”) may be determined as a response voice by voice recognition. If there is no response voice from the driver, a warning may be issued or this operation may be terminated.

その後、会話音声を出力してから返答音声が入力されるまでの時間を測定し(s52)、所定の測定数(例えば5回)で移動平均データを算出する(s53)。なお、動作開始直後で測定数が5回未満の場合は、その測定数で平均データを算出しておいてもよいし、5回以上になるまで平均データを算出しないようにしてもよい。   Thereafter, the time from when the conversation voice is output until the response voice is input is measured (s52), and the moving average data is calculated with a predetermined number of measurements (for example, five times) (s53). If the number of measurements is less than 5 immediately after the start of the operation, the average data may be calculated based on the number of measurements, or the average data may not be calculated until 5 or more times.

移動平均を算出した後、動作開始してから15分が経過したか否かを判断する(s54)。15分が経過していなければ会話音声出力から処理を繰り返す(s54→s50)。15分が経過した場合、動作開始から5分以後の10分間の移動平均データを基準データとして算出する(s55)。この動作においても、基準データは5〜15分の移動平均データに限るものではない。   After calculating the moving average, it is determined whether or not 15 minutes have elapsed since the start of the operation (s54). If 15 minutes have not elapsed, the process is repeated from the conversation voice output (s54 → s50). When 15 minutes have elapsed, moving average data for 10 minutes after the start of operation is calculated as reference data (s55). Even in this operation, the reference data is not limited to moving average data of 5 to 15 minutes.

その後、最新の測定データ(最新の移動平均データ)が基準データの±20%以内であるか否かを判断し(s56)、範囲内であれば会話音声出力から処理を繰り返す(s56→s50)。基準データの±20%外であれば警告を発する(s57)。なお、判断基準は±20%に限るものではない。実際に使用する環境に応じて平均的な会話反応のばらつきを考慮して調整しておけばよい。警告は、上述したようにスピーカ12から発するようにしてもよいし、自動車のオーディオ機器から警告音を発するようにしてもよい。   Thereafter, it is determined whether or not the latest measurement data (latest moving average data) is within ± 20% of the reference data (s56). If within the range, the process is repeated from the conversation voice output (s56 → s50). . If it is outside ± 20% of the reference data, a warning is issued (s57). Note that the criterion is not limited to ± 20%. It may be adjusted in consideration of the average conversational response variation according to the actual environment. The warning may be emitted from the speaker 12 as described above, or a warning sound may be emitted from an audio device of the automobile.

次に、図8は、姿勢変動測定動作を示すフローチャートである。まず、加速度センサ15から加速度情報を取得し(s60)、携帯電話の揺動(姿勢変動)を演算する(s61)。加速度情報は3軸(X,Y,Z)検出できるので、携帯電話の姿勢変動方向とその加速度を演算する。この携帯電話の姿勢変動から自動車の姿勢変動を推測測定する(s62)。携帯電話1が携帯電話用ホルダ2に接続されている場合は、携帯電話用ホルダ2から現在の携帯電話の向き情報を取得して自動車の進行方向と対応付ける。携帯電話用ホルダ2は、携帯電話1が自動車の進行方向と逆方向を向くように自動車に備え付けるものであり、駆動部24Aと駆動部24Bの移動方向から、携帯電話1と自動車の向きを対応付ける。   Next, FIG. 8 is a flowchart showing the posture variation measuring operation. First, acceleration information is acquired from the acceleration sensor 15 (s60), and the mobile phone swing (posture fluctuation) is calculated (s61). Since the acceleration information can be detected in three axes (X, Y, Z), the orientation change direction of the mobile phone and its acceleration are calculated. The attitude change of the automobile is estimated and measured from the attitude change of the mobile phone (s62). When the mobile phone 1 is connected to the mobile phone holder 2, current mobile phone orientation information is acquired from the mobile phone holder 2 and associated with the traveling direction of the automobile. The mobile phone holder 2 is provided in a vehicle so that the mobile phone 1 faces in a direction opposite to the traveling direction of the vehicle, and associates the direction of the mobile phone 1 and the vehicle from the moving direction of the drive unit 24A and the drive unit 24B. .

なお、携帯電話1が携帯電話用ホルダ2に接続されていなければ、携帯電話1が自動車の進行方向と逆方向に備え付けられているものとみなし、携帯電話1と自動車の向きを対応付ければよい。なお、ユーザがマニュアルで携帯電話の向きを入力するようにしてもよい。   If the mobile phone 1 is not connected to the mobile phone holder 2, it is assumed that the mobile phone 1 is provided in a direction opposite to the traveling direction of the automobile, and the orientation of the mobile phone 1 and the automobile may be associated with each other. . Note that the user may manually input the direction of the mobile phone.

このようにして、自動車の姿勢変動を測定し、所定の測定数(例えば5回)で移動平均データを算出する(s63)。なお、動作開始直後で測定数が5回未満の場合は、その測定数で平均データを算出しておいてもよいし、5回以上になるまで平均データを算出しないようにしてもよい。   In this way, the attitude variation of the automobile is measured, and moving average data is calculated with a predetermined number of measurements (for example, 5 times) (s63). If the number of measurements is less than 5 immediately after the start of the operation, the average data may be calculated based on the number of measurements, or the average data may not be calculated until 5 or more times.

移動平均を算出した後、動作開始してから15分が経過したか否かを判断する(s64)。15分が経過していなければ加速度情報取得から処理を繰り返す(s64→s60)。15分が経過した場合、動作開始から5分以後の10分間の移動平均データを基準データとして算出する(s65)。この動作においても、基準データは5〜15分の移動平均データに限るものではない。   After calculating the moving average, it is determined whether 15 minutes have passed since the operation started (s64). If 15 minutes have not elapsed, the process is repeated from the acceleration information acquisition (s64 → s60). When 15 minutes have elapsed, moving average data for 10 minutes after the start of operation is calculated as reference data (s65). Even in this operation, the reference data is not limited to moving average data of 5 to 15 minutes.

その後、最新の測定データ(最新の移動平均データ)が基準データの±20%以内であるか否かを判断し(s66)、範囲内であれば加速度情報取得から処理を繰り返す(s66→s60)。基準データの±20%外であれば自動車の姿勢がフラついていると判断して警告を発する(s67)。なお、判断基準は±20%に限るものではない。実際に使用する環境に応じて自動車がフラついていると判断できるように予め調整しておけばよい。警告は、上述したようにスピーカ12から発するようにしてもよいし、自動車のオーディオ機器から警告音を発するようにしてもよい。   Thereafter, it is determined whether or not the latest measurement data (latest moving average data) is within ± 20% of the reference data (s66). If it is within the range, the process is repeated from acquisition of acceleration information (s66 → s60). . If it is outside ± 20% of the reference data, it is determined that the attitude of the vehicle is fluttering and a warning is issued (s67). Note that the criterion is not limited to ± 20%. It may be adjusted in advance so that it can be determined that the automobile is fluttering according to the environment in which it is actually used. The warning may be emitted from the speaker 12 as described above, or a warning sound may be emitted from an audio device of the automobile.

以上に述べた動作項目(疲労度測定動作、緊張度測定動作、会話反応度測定動作、および姿勢変動測定動作)は、いずれか1項目を行ってもよいし、2以上の複数の項目を同時に行うようにしてもよい。無論全てを同時に行うことも可能である。どの動作を同時に行うかは、ユーザが手動で設定してもよいし、予めプログラムに規定しておいてもよい。   Any one of the action items described above (fatigue level measurement action, tension level measurement action, conversational reactivity measurement action, and posture fluctuation measurement action) may be performed, or two or more items may be simultaneously performed. You may make it perform. Of course, all can be done at the same time. Which operation is performed simultaneously may be manually set by the user or may be defined in advance in the program.

2以上の動作を同時に行う場合であっても、いずれか1つで身体状態に異常(過度の疲労、過度の緊張、会話反応遅延による集中力低下など)が発生したと判断したときは警告を発するようにしてもよいし、複数の項目で異常が発生したときに警告を発するようにしてもよい。なお、警告は音声に限るものではない。表示部13に警告画面を表示し、運転者に身体状態の異常を通知するようにしてもよい。   Even when two or more movements are performed simultaneously, if any one of the physical conditions is abnormal (excessive fatigue, excessive tension, reduced concentration due to delay in conversation reaction, etc.), a warning is issued. A warning may be issued when an abnormality occurs in a plurality of items. The warning is not limited to voice. A warning screen may be displayed on the display unit 13 to notify the driver of an abnormality in the physical condition.

また、本実施形態においては制御部16がプログラムを読み出すことで種々の処理を行う例を示したが、これらの処理を行う専用のICチップセットを携帯電話に設けることで実現してもよい。これにより携帯電話の制御部に負担をかけることなく、運転者モニタ処理を行うことができる。   In the present embodiment, an example is shown in which the control unit 16 performs various processes by reading out a program. However, the control unit 16 may be realized by providing a dedicated IC chip set for performing these processes in the mobile phone. Accordingly, the driver monitoring process can be performed without imposing a burden on the control unit of the mobile phone.

なお、本実施形態において、携帯電話1と携帯電話用ホルダ2を接続し、携帯電話用ホルダ2が、カメラ10の撮影範囲中心に人間の顔面が認識されるように向きを変更する例を示したが、携帯電話1のカメラ10が単独で回転機構を備えているような場合は、カメラ10が運転者の顔面に向くように、制御部16がコントロールすればよい。   In the present embodiment, an example is shown in which the mobile phone 1 and the mobile phone holder 2 are connected, and the mobile phone holder 2 changes the orientation so that the human face is recognized at the center of the shooting range of the camera 10. However, when the camera 10 of the mobile phone 1 has a rotation mechanism alone, the control unit 16 may control so that the camera 10 faces the driver's face.

この発明の実施形態である携帯電話の外観図External view of a mobile phone according to an embodiment of the present invention この発明の実施形態である携帯電話用ホルダの外観図External view of a mobile phone holder according to an embodiment of the present invention 携帯電話と携帯電話用ホルダのブロック図Block diagram of mobile phone and mobile phone holder 携帯電話および携帯電話用ホルダの自動追尾動作を示すフローチャートFlow chart showing automatic tracking operation of mobile phone and holder for mobile phone 疲労度測定動作を示すフローチャートFlow chart showing fatigue measurement operation 緊張度測定動作を示すフローチャートFlow chart showing tension measurement operation 会話反応度測定動作を示すフローチャートFlow chart showing conversation reactivity measurement operation 姿勢変動測定動作を示すフローチャートFlow chart showing posture fluctuation measurement operation

符号の説明Explanation of symbols

1−携帯電話
2−携帯電話用ホルダ
10−カメラ
11−マイク
12−スピーカ
15−加速度センサ
24−駆動部
1-mobile phone 2-mobile phone holder 10-camera 11-microphone 12-speaker 15-acceleration sensor 24-drive unit

Claims (13)

人間の顔面の画像を取得する画像取得手段と、
前記画像取得手段で取得した画像からその人間の身体状態を検出する画像分析手段と、
検出した身体状態が所定の基準外となったときに異常であると判断し、警告を発する、または警告を発する旨の情報を外部に出力する異常通知手段と、
を備えた携帯電話。
Image acquisition means for acquiring an image of a human face;
Image analysis means for detecting the human body condition from the image acquired by the image acquisition means;
An abnormality notification means for judging that the detected physical condition is abnormal when it falls outside a predetermined standard and issuing a warning, or outputting information indicating that a warning is issued to the outside;
Mobile phone equipped with.
前記画像分析手段は、所定時間あたりの瞬き回数、または呼吸数を検出することで身体状態を検出する請求項1に記載の携帯電話。   The mobile phone according to claim 1, wherein the image analysis unit detects a physical state by detecting the number of blinks or the number of breaths per predetermined time. 会話音声を発する音声出力部と、
人間の音声を入力する音声入力手段と、
音声出力部が会話音声を発してから前記音声入力手段に人間の音声が入力されるまでの時間を計測することで身体状態を検出する会話反応検出手段をさらに備えた請求項1、または請求項2に記載の携帯電話。
An audio output unit that emits conversational audio;
Voice input means for inputting human voice;
2. The conversation reaction detecting means for detecting a body state by measuring a time from when a voice output unit emits a conversation voice until a human voice is input to the voice input means. 2. The mobile phone according to 2.
3軸方向の加速度を検出する加速度センサと、
前記加速度センサの検出した加速度から自動車車両の運転状況を判定する運転状況判定手段と、をさらに備え、
前記異常通知手段は、前記運転状況判定手段が検出した運転状況が所定の基準外となったときに異常であると判断する請求項1、請求項2または請求項3に記載の携帯電話。
An acceleration sensor that detects acceleration in three axial directions;
Driving condition determining means for determining the driving condition of the automobile vehicle from the acceleration detected by the acceleration sensor,
4. The mobile phone according to claim 1, wherein the abnormality notifying unit determines that the abnormality is detected when the driving state detected by the driving state determining unit is out of a predetermined standard.
前記画像分析手段が検出する所定時間あたりの瞬き回数、呼吸数、前記会話反応検出手段が検出する会話音声を発してから人間の音声が入力されるまでの時間、および前記運転状況判定手段が検出する運転状況、のうち少なくとも2項目の検出を行い、
前記異常通知手段は、いずれか1項目について異常が発生したと判断したときに警告を発する請求項2乃至請求項4のいずれかに記載の携帯電話。
The number of blinks per predetermined time detected by the image analysis means, the number of breaths, the time from when the conversational sound detected by the conversation reaction detection means is emitted until the human voice is input, and the driving condition determination means Detect at least two of the driving conditions
5. The mobile phone according to claim 2, wherein the abnormality notification unit issues a warning when it is determined that an abnormality has occurred in any one item.
携帯電話を固定する台座と、
該携帯電話とデータ通信を行うデータ通信部と、
前記台座を回動させる駆動部と、
前記駆動部の回動角度を制御する制御部と、
を備えた携帯電話用ホルダであって、
前記制御部は、前記データ通信部を介して該携帯電話から入力される駆動制御信号に基づいて駆動部を制御する携帯電話用ホルダ。
A base for fixing the mobile phone;
A data communication unit for performing data communication with the mobile phone;
A drive unit for rotating the pedestal;
A control unit for controlling a rotation angle of the driving unit;
A mobile phone holder comprising:
The mobile phone holder for controlling the drive unit based on a drive control signal input from the mobile phone via the data communication unit.
携帯電話を固定する台座と、
該携帯電話とデータ通信を行うデータ通信部と、
前記台座を回動させる駆動部と、
前記駆動部の回動角度を制御する制御部と、
を備えた携帯電話用ホルダであって、
前記制御部は、前記データ通信部を介して携帯電話から受信した特定の画像が、該携帯電話画面の中心に表示されるように回動角度を制御する携帯電話用ホルダ。
A base for fixing the mobile phone;
A data communication unit for performing data communication with the mobile phone;
A drive unit for rotating the pedestal;
A control unit for controlling a rotation angle of the driving unit;
A mobile phone holder comprising:
The control unit is a mobile phone holder that controls a rotation angle so that a specific image received from the mobile phone via the data communication unit is displayed at the center of the mobile phone screen.
携帯電話に、
人間の顔面の画像を取得する画像取得手順、
前記画像取得手順で取得した画像からその人間の身体状態を検出する身体状態検出手順、
検出した身体状態が所定の基準外となったときに警告を発する、または警告を発する旨の情報を外部に出力する異常通知手順、
を実行させる携帯電話用プログラム。
On the mobile phone
Image acquisition procedure to acquire the image of the human face,
A physical state detection procedure for detecting the human physical state from the image acquired in the image acquisition procedure;
An abnormality notification procedure for issuing a warning when the detected physical condition falls outside a predetermined standard, or outputting information indicating that a warning is issued to the outside,
A mobile phone program that runs
前記身体状態検出手順は、所定時間あたりの瞬き回数、または呼吸数を検出、または会話音声を発してから人間の音声が入力されるまでの時間を計測することで身体状態を検出する手順を含む、
請求項8に記載の携帯電話用プログラム。
The physical condition detection procedure includes a procedure of detecting a physical condition by detecting the number of blinks per predetermined time or the number of breaths, or measuring the time from when a voice is spoken until a human voice is input. ,
The mobile phone program according to claim 8.
3軸方向の加速度を検出する加速度検出手順、
前記加速度検出手順で検出した加速度から自動車車両の運転状況を判定する運転状況判定手順、
をさらに実行させ、
前記異常通知手順は、前記運転状況判定手順で検出した運転状況が所定の基準外となったときに異常であると判断する手順を含む請求項8または請求項9に記載の携帯電話用プログラム。
An acceleration detection procedure for detecting acceleration in three axis directions;
Driving situation determination procedure for determining the driving situation of an automobile vehicle from the acceleration detected in the acceleration detection procedure
Is executed further,
10. The mobile phone program according to claim 8, wherein the abnormality notification procedure includes a procedure of determining an abnormality when the driving situation detected in the driving situation judging procedure is out of a predetermined standard.
携帯電話に組み込まれ、該携帯電話に、
人間の顔面の画像を取得する画像取得手順、
前記画像取得手順で取得した画像からその人間の身体状態を検出する身体状態検出手順、
検出した身体状態が所定の基準外となったときに警告を発する、または警告を発する旨の情報を外部に出力する異常通知手順、
を実行させるための携帯電話用プログラムを記録した半導体素子。
Built into a mobile phone,
Image acquisition procedure to acquire the image of the human face,
A physical state detection procedure for detecting the human physical state from the image acquired in the image acquisition procedure;
An abnormality notification procedure for issuing a warning when the detected physical condition falls outside a predetermined standard, or outputting information indicating that a warning is issued to the outside,
The semiconductor element which recorded the program for the cellular phone for executing.
前記身体状態検出手順は、所定時間あたりの瞬き回数、または呼吸数を検出、または会話音声を発してから人間の音声が入力されるまでの時間を計測することで身体状態を検出する手順を含む、請求項11に記載の半導体素子。   The physical condition detection procedure includes a procedure of detecting a physical condition by detecting the number of blinks per predetermined time or the number of breaths, or measuring the time from when a voice is spoken until a human voice is input. The semiconductor device according to claim 11. 3軸方向の加速度を検出する加速度検出手順、
前記加速度検出手順で検出した加速度から自動車車両の運転状況を判定する運転状況判定手順、
をさらに実行させるプログラムを記録し、
前記異常通知手順は、前記運転状況判定手順で検出した運転状況が所定の基準外となったときに異常であると判断する手順を含む請求項11、または請求項12に記載の半導体素子。
An acceleration detection procedure for detecting acceleration in three axis directions;
Driving situation determination procedure for determining the driving situation of an automobile vehicle from the acceleration detected in the acceleration detection procedure
Record the program that will execute
The semiconductor element according to claim 11, wherein the abnormality notification procedure includes a procedure for determining that the abnormality is detected when the driving condition detected in the driving condition determination procedure is out of a predetermined reference.
JP2005098767A 2005-03-30 2005-03-30 Cellphone, holder therefor, program therefor, and semiconductor device Pending JP2006279796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005098767A JP2006279796A (en) 2005-03-30 2005-03-30 Cellphone, holder therefor, program therefor, and semiconductor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005098767A JP2006279796A (en) 2005-03-30 2005-03-30 Cellphone, holder therefor, program therefor, and semiconductor device

Publications (1)

Publication Number Publication Date
JP2006279796A true JP2006279796A (en) 2006-10-12

Family

ID=37214022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005098767A Pending JP2006279796A (en) 2005-03-30 2005-03-30 Cellphone, holder therefor, program therefor, and semiconductor device

Country Status (1)

Country Link
JP (1) JP2006279796A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7764189B2 (en) 2007-09-06 2010-07-27 Tye Rubins Audio coordinated visual indicator
US7830271B2 (en) 2007-09-06 2010-11-09 Tye Rubins Audio coordinated visual indicator
JP2011217145A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Information transmitter and information transmission method
US8797408B2 (en) 2010-12-24 2014-08-05 Kabushiki Kaisha Toshiba Electronic apparatus
JP2015012496A (en) * 2013-06-28 2015-01-19 Kddi株式会社 Mobile terminal, control method therefor and computer program
JP2016524939A (en) * 2013-06-19 2016-08-22 レイセオン カンパニー Image-based monitoring of stress and fatigue
KR20170055939A (en) * 2017-04-27 2017-05-22 안성욱 Apparatus and method for caring eye
KR101733553B1 (en) * 2013-07-09 2017-05-24 안성욱 Apparatus and method for caring eye
KR101822853B1 (en) * 2017-03-07 2018-01-29 안성욱 Apparatus and method for caring eye
JP2018124648A (en) * 2017-01-30 2018-08-09 楽天株式会社 Terminal device, control method of terminal device, and computer program
JP2018191102A (en) * 2017-05-01 2018-11-29 パイオニア株式会社 Terminal holding device
CN109059953A (en) * 2017-06-07 2018-12-21 丰田自动车株式会社 It wakes up support system and wakes up support method
JP2019165913A (en) * 2018-03-23 2019-10-03 日本光電工業株式会社 Biological information monitor and program
JP2020054782A (en) * 2018-09-26 2020-04-09 日本電信電話株式会社 Biological information analysis device, biological information analysis method, and biological information analysis system

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830271B2 (en) 2007-09-06 2010-11-09 Tye Rubins Audio coordinated visual indicator
US7764189B2 (en) 2007-09-06 2010-07-27 Tye Rubins Audio coordinated visual indicator
JP2011217145A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Information transmitter and information transmission method
US8797408B2 (en) 2010-12-24 2014-08-05 Kabushiki Kaisha Toshiba Electronic apparatus
JP2016524939A (en) * 2013-06-19 2016-08-22 レイセオン カンパニー Image-based monitoring of stress and fatigue
JP2015012496A (en) * 2013-06-28 2015-01-19 Kddi株式会社 Mobile terminal, control method therefor and computer program
KR101733553B1 (en) * 2013-07-09 2017-05-24 안성욱 Apparatus and method for caring eye
JP2018124648A (en) * 2017-01-30 2018-08-09 楽天株式会社 Terminal device, control method of terminal device, and computer program
KR101822853B1 (en) * 2017-03-07 2018-01-29 안성욱 Apparatus and method for caring eye
KR101885513B1 (en) * 2017-04-27 2018-08-06 안성욱 Apparatus and method for caring eye
KR20170055939A (en) * 2017-04-27 2017-05-22 안성욱 Apparatus and method for caring eye
JP2018191102A (en) * 2017-05-01 2018-11-29 パイオニア株式会社 Terminal holding device
JP7027045B2 (en) 2017-05-01 2022-03-01 パイオニア株式会社 Terminal holding device
CN109059953A (en) * 2017-06-07 2018-12-21 丰田自动车株式会社 It wakes up support system and wakes up support method
JP2018206197A (en) * 2017-06-07 2018-12-27 トヨタ自動車株式会社 Awakening support apparatus and awakening support method
US11511755B2 (en) 2017-06-07 2022-11-29 Toyota Jidosha Kabushiki Kaisha Arousal support system and arousal support method
JP2019165913A (en) * 2018-03-23 2019-10-03 日本光電工業株式会社 Biological information monitor and program
JP7001514B2 (en) 2018-03-23 2022-01-19 日本光電工業株式会社 Biometric information monitor and program
US11291414B2 (en) 2018-03-23 2022-04-05 Nihon Kohden Corporation Patient monitor
JP2020054782A (en) * 2018-09-26 2020-04-09 日本電信電話株式会社 Biological information analysis device, biological information analysis method, and biological information analysis system

Similar Documents

Publication Publication Date Title
JP2006279796A (en) Cellphone, holder therefor, program therefor, and semiconductor device
US10841682B2 (en) Communication network of in-ear utility devices having sensors
US9236050B2 (en) System and method for improving speech recognition accuracy in a work environment
JP5549721B2 (en) Driver monitor device
US20170291544A1 (en) Adaptive alert system for autonomous vehicle
JP5201031B2 (en) Human body wearing sensor device and behavior analysis monitoring device including the same
CN107925713B (en) Image pickup system and image pickup control method
JP2007190641A (en) Communication robot
US20060058920A1 (en) Control apparatus for movable robot
JP2009125507A (en) Golf improvement support device
CN107411701A (en) Measure it is oculomotor can head-wearing device
KR102605835B1 (en) Method, electronic device, and storage medium for detecting biometric information
US20170347178A1 (en) In-Ear Utility Device Having a Humidity Sensor
JP2009222969A (en) Speech recognition robot and control method for speech recognition robot
US20170347183A1 (en) In-Ear Utility Device Having Dual Microphones
WO2017205558A1 (en) In-ear utility device having dual microphones
JP2006340175A (en) Mobile phone, mobile phone program, and semiconductor device
JP2022184841A (en) Head mounted information processing device
CN110177240B (en) Video call method of wearable device and wearable device
JP7238286B2 (en) Information presentation device and information presentation method
WO2019176491A1 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, computer program, and storage medium
JP2007156689A (en) Light source position detection device and face recognition device using the same and self-propelled robot
JP6289047B2 (en) Imaging apparatus, imaging system, imaging method, and imaging program
JP2002310642A (en) Surface property measuring instrument
KR20190033723A (en) Headset and collision warning method thereof