JP2003264877A - Mobile terminal - Google Patents

Mobile terminal

Info

Publication number
JP2003264877A
JP2003264877A JP2002066234A JP2002066234A JP2003264877A JP 2003264877 A JP2003264877 A JP 2003264877A JP 2002066234 A JP2002066234 A JP 2002066234A JP 2002066234 A JP2002066234 A JP 2002066234A JP 2003264877 A JP2003264877 A JP 2003264877A
Authority
JP
Japan
Prior art keywords
mobile terminal
person
user
display
warning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002066234A
Other languages
Japanese (ja)
Inventor
Makoto Takeda
真 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2002066234A priority Critical patent/JP2003264877A/en
Publication of JP2003264877A publication Critical patent/JP2003264877A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile terminal capable of more effectively preventing displayed information from being viewed by other person. <P>SOLUTION: When a generating menu for generating a sentence to be sent as electronic mail is displayed on an LCD (liquid crystal display) 35, a CCD (charge coupled device) camera 33 photographs a prescribed range which a front of the mobile phone 1 faces. Iris data denoting a pattern of an iris of a person included in a photographed image are extracted and discriminated whether or not the iris data are identical to iris data of a user of the mobile telephone 1 registered in advance in a memory card 43. When the extracted iris data are not identical to the iris data registered in advance, the mobile telephone 1 displays a warning display on the LCD 35 for warning the risk of other person than the user of the mobile telephone 1 peeping into the display of the LCD 35. This invention is applicable to a mobile terminal such as a mobile telephone. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、携帯端末に関し、
特に、携帯端末に表示されている情報が他人に見られる
ことを、より効果的に防止できるようにする携帯端末に
関する。
TECHNICAL FIELD The present invention relates to a mobile terminal,
In particular, the present invention relates to a mobile terminal that can more effectively prevent others from viewing information displayed on the mobile terminal.

【0002】[0002]

【従来の技術】近年、携帯電話機等の携帯端末を利用し
て電子メールを送受信することがよく行われるようにな
ってきた。ユーザは、場所や時間等の制約を受けること
なく、気軽に電子メールとして送信する文章を作成し、
それを相手側の端末に送信することができる。
2. Description of the Related Art In recent years, it has become common to send and receive e-mail using mobile terminals such as mobile phones. Users can easily create texts to be sent as e-mails without being restricted by location or time.
It can be sent to the other terminal.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、例え
ば、駅のホーム等の人が密集した場所においては、電子
メールとして送信する文章を作成している最中、また
は、受信された電子メールの文章を読んでいる最中に、
携帯電話機に表示されている内容を自分自身の後ろにい
る人に読まれてしまうことがあるという課題があった。
However, for example, in a place where people are crowded, such as at a platform of a station, while writing a sentence to be sent as an email, or when writing a sentence of a received email, While reading,
There is a problem that the contents displayed on the mobile phone may be read by a person behind himself.

【0004】今後、例えば、仕事に関する重要な情報や
個人の重要な情報などを、携帯電話機やPDA(Personal D
igital Assistants)などの携帯端末を利用して確認する
ことが日常的に行われるようになることも予想され、そ
の場合、この課題は、より一層深刻なものとなるおそれ
がある。
In the future, for example, important information about work and important personal information will be sent to mobile phones and PDAs (Personal D
It is expected that confirmation will be performed on a daily basis using mobile terminals such as digital assistants), and in that case, this problem may become more serious.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、携帯電話機やPDAなどの携帯端末に表示さ
れている情報が他人に見られることを、より効果的に防
止できるようにしたものである。
The present invention has been made in view of such circumstances, and it is possible to more effectively prevent others from seeing information displayed on a mobile terminal such as a mobile phone or PDA. It is a thing.

【0006】[0006]

【課題を解決するための手段】本発明の携帯端末は、近
傍に存在する人物の特徴を検出し、それに対応する特徴
情報を出力する検出手段と、検出手段により出力された
特徴情報に基づいて、携帯端末のユーザと異なる人物に
より、携帯端末の表示が目視されているか否かを判定す
る判定手段と、判定手段により、携帯端末のユーザと異
なる人物により、表示が目視されていると判定された場
合、警告を出力する警告手段とを備えることを特徴とす
る。
A portable terminal of the present invention detects a characteristic of a person existing in the vicinity and outputs characteristic information corresponding to the characteristic, and based on the characteristic information output by the detecting means. A determining unit that determines whether or not the display of the mobile terminal is viewed by a person different from the user of the mobile terminal; and the determination unit determines that the display is viewed by a person different from the user of the mobile terminal. In this case, a warning means for outputting a warning is provided.

【0007】被写体を撮影する撮影手段をさらに備え、
検出手段は、撮影手段により撮影された画像に基づい
て、特徴を検出するようにすることができる。
[0007] Further comprising a photographing means for photographing the subject,
The detection means may detect the feature based on the image captured by the image capturing means.

【0008】携帯端末のユーザの第1の特徴情報を記憶
する記憶手段をさらに備え、検出手段は、撮影手段によ
り撮影された人物の特徴を検出し、それに対応する第2
の特徴情報を出力し、判定手段は、記憶手段により記憶
されている第1の特徴情報と、検出手段により検出され
た第2の特徴情報が同一であるか否かに基づいて、携帯
端末のユーザと異なる人物により、表示が目視されてい
るか否かを判定するようにすることができる。
[0008] The mobile terminal further comprises storage means for storing the first characteristic information of the user, and the detecting means detects the characteristic of the person photographed by the photographing means, and the corresponding second characteristic is detected.
Of the mobile terminal based on whether the first feature information stored in the storage means and the second feature information detected by the detection means are the same. It is possible to determine whether or not the display is viewed by a person different from the user.

【0009】第1の特徴情報は、携帯端末のユーザの虹
彩のパターンに関する情報であり、第2の特徴情報は、
被写体として撮影された人物の虹彩のパターンに関する
情報であるようにすることができる。
The first characteristic information is information on the iris pattern of the user of the mobile terminal, and the second characteristic information is
The information can be information about an iris pattern of a person photographed as a subject.

【0010】検出手段は、特徴として、撮影手段により
撮影された画像上における、人物の目の大きさを検出
し、判定手段は、検出手段により、所定の大きさ以上の
目が、複数人分検出されたか否かに基づいて、携帯端末
のユーザと異なる人物により、表示が目視されているか
否かを判定するようにすることができる。
As a feature, the detecting means detects the size of the eyes of a person on the image photographed by the photographing means, and the judging means causes the detecting means to detect the eyes of a predetermined size or more for a plurality of persons. It is possible to determine whether or not the display is visually observed by a person different from the user of the mobile terminal based on whether or not the display is detected.

【0011】検出手段は、特徴として、撮影手段により
撮影された画像に基づいて、人物の目までの距離を検出
し、判定手段は、検出手段により、所定の距離内に、複
数の人物の目が存在することが検出されたか否かに基づ
いて、携帯端末のユーザと異なる人物により、表示が目
視されているか否かを判定するようにすることができ
る。
As a characteristic, the detecting means detects the distance to the eyes of the person based on the image photographed by the photographing means, and the judging means causes the detecting means to detect the eyes of the plurality of persons within a predetermined distance. It is possible to determine whether or not the display is visually observed by a person different from the user of the mobile terminal based on whether or not the presence is detected.

【0012】検出手段は、特徴として、撮影手段により
撮影された画像に基づいて、携帯端末から見た人物の目
の方向を検出し、判定手段は、検出手段により、携帯端
末のユーザの領域と近接する所定の領域の方向に、人物
の目があることが検出されたか否かに基づいて、携帯端
末のユーザと異なる人物により、表示が目視されている
か否かを判定するようにすることができる。
As a characteristic, the detecting means detects the direction of the eyes of the person seen from the mobile terminal based on the image photographed by the photographing means, and the judging means causes the detecting means to detect the area of the user of the mobile terminal. It is possible to determine whether or not the display is visually observed by a person different from the user of the mobile terminal, based on whether or not it is detected that a person's eyes are present in the direction of a predetermined adjacent area. it can.

【0013】警告手段は、警告として、所定の色の画面
を表示するようにすることができる。
The warning means may display a screen of a predetermined color as a warning.

【0014】警告手段は、警告として、表示の中断を指
示し、警告手段による指示に応じて表示が中断されたと
き、表示の内容を保存する保存手段をさらに備えるよう
にすることができる。
The warning means may further include a storage means for instructing to interrupt the display as a warning and for saving the content of the display when the display is interrupted in response to the instruction from the warning means.

【0015】携帯端末は、折り畳み可能に形成され、警
告手段は、表示の中断を指示する警告として、携帯端末
の折り畳みを指示するようにすることができる。
The portable terminal is formed to be foldable, and the warning means may instruct folding of the portable terminal as a warning for instructing interruption of display.

【0016】本発明の携帯端末においては、近傍に存在
する人物の特徴が検出され、それに対応する特徴情報が
出力される。また、出力された特徴情報に基づいて、携
帯端末のユーザと異なる人物により、携帯端末の表示が
目視されているか否かが判定され、携帯端末のユーザと
異なる人物により、表示が目視されていると判定された
場合、警告が出力される。
In the portable terminal of the present invention, the characteristics of a person existing in the vicinity are detected, and the characteristic information corresponding to them is output. Further, based on the output characteristic information, it is determined whether or not the display of the mobile terminal is viewed by a person different from the user of the mobile terminal, and the display is viewed by a person different from the user of the mobile terminal. If it is determined that, a warning is output.

【0017】[0017]

【発明の実施の形態】図1は、本発明を適用した携帯電
話機1の外観の構成例を示す斜視図である。
FIG. 1 is a perspective view showing an example of the external configuration of a mobile phone 1 to which the present invention is applied.

【0018】図1に示されるように、携帯電話機1は、
基本的に、表示部22および本体23から構成され、中
央のヒンジ部21により折り畳み可能に形成されてい
る。
As shown in FIG. 1, the mobile telephone 1 is
Basically, it is composed of a display portion 22 and a main body 23, and is formed so as to be foldable by a hinge portion 21 at the center.

【0019】表示部22の上面左部には、アンテナ31
が設けられており、このアンテナ31を介して、基地局
との間で電波が送受信される。
An antenna 31 is provided on the left side of the upper surface of the display unit 22.
Are provided, and radio waves are transmitted and received to and from the base station via the antenna 31.

【0020】表示部22の上端には、水平方向(筐体の
左右方向)を軸として回動自在なカメラ部32が設けら
れており、カメラ部32に設けられているCCD(Charge C
oupled Device)カメラ33により撮影が行われる。カメ
ラ部32がユーザによってほぼ180度回動された場
合、図2に示されるように、カメラ部32の背面側(図
1に示される面を正面とした背面側)中央近傍に設けら
れたスピーカ34が正面側に位置する状態となる。
At the upper end of the display unit 22, there is provided a camera unit 32 which is rotatable about a horizontal direction (horizontal direction of the housing), and a CCD (Charge C) provided on the camera unit 32.
The captured image is taken by the camera 33. When the camera unit 32 is rotated by approximately 180 degrees by the user, as shown in FIG. 2, a speaker provided near the center of the rear side of the camera unit 32 (the rear side with the surface shown in FIG. 1 as the front). 34 is located on the front side.

【0021】また、CCDカメラ33は、カメラ部32の
部材32Aに設けられており、部材32Aの駆動によ
り、部材32Aの上面中央と下面中央を結ぶ線を軸とし
て、左右方向に所定の角度の範囲内で回動自在とされて
いる。例えば、電子メールとして送信する文章がユーザ
により作成されている最中、CCDカメラ33により、携
帯電話機1の正面に臨む空間が所定の範囲で撮影され
る。
Further, the CCD camera 33 is provided on the member 32A of the camera unit 32, and by driving the member 32A, a line connecting the center of the upper surface and the center of the lower surface of the member 32A is used as an axis to form a predetermined angle in the left-right direction. It is supposed to be rotatable within the range. For example, while the text to be transmitted as an electronic mail is being created by the user, the CCD camera 33 captures an image of the space in front of the mobile phone 1 within a predetermined range.

【0022】後に詳述するように、CCDカメラ33によ
り撮影された画像に基づいて、携帯電話機1のユーザ
(以下、単にユーザと称する)以外に、LCD(Liquid Cry
stal Display)35の表示(例えば、作成中の文章)を
見ている人物が存在するか否かが判定され、LCD35の
表示を見ている人物がいると判定されたとき、他人に画
面が覗かれている(目視されている)ことをユーザに警
告する所定の警告画面がLCD35に表示される。具体的
には、CCDカメラ33により撮影された人物がユーザで
あるか、または他人であるかは、撮影された画像から抽
出された、虹彩データ(アイリスコード)の照合結果、
目の大きさ、その人物までの距離、または、目が検出さ
れた方向等に基づいて判定される。
As will be described in detail later, based on the image taken by the CCD camera 33, in addition to the user of the mobile phone 1 (hereinafter, simply referred to as a user), an LCD (Liquid Cry) is displayed.
stal Display) 35 It is determined whether or not there is a person looking at the display (for example, the text being created), and when it is determined that there is a person looking at the display of LCD 35, the screen is seen by another person. A predetermined warning screen is displayed on the LCD 35 to warn the user that it is being (visually viewed). Specifically, it is determined whether the person photographed by the CCD camera 33 is a user or another person by comparing the iris data (iris code) extracted from the photographed image,
The determination is made based on the size of the eyes, the distance to the person, the direction in which the eyes are detected, or the like.

【0023】表示部22のほぼ中央に、LCD35が設け
られている。LCD35には、電波の受信状態、電池の残
量、電話帳として登録されている氏名や電話番号、およ
び発信履歴の他、電子メールの内容等がユーザからの指
示に応じて表示される。
An LCD 35 is provided substantially in the center of the display section 22. On the LCD 35, the reception status of electric waves, the remaining battery level, the name and telephone number registered as a telephone directory, the outgoing call history, and the contents of e-mail are displayed according to the instruction from the user.

【0024】一方、本体23には、「0」乃至「9」の
数字キー、発呼キー、電源キー等の操作キー36が設け
られており、その下方には、メモボタン37およびマイ
クロフォン38が設けられている。また、本体23の操
作キー36の上方正面には、水平方向(筐体の左右方
向)を軸として回動自在なジョグダイヤル39が、本体
23の表面から僅かに突出した状態で設けられている。
携帯電話機1は、ジョグダイヤル39に対する回動操作
に応じて、LCD35に表示されている電子メールのスク
ロール動作等の様々な処理を実行する。このジョグダイ
ヤル39の左右には、左方向ボタン40、および右方向
ボタン41がそれぞれ設けられている。
On the other hand, the main body 23 is provided with operation keys 36 such as numeral keys "0" to "9", a calling key, a power key, and the like, and a memo button 37 and a microphone 38 are provided below the operation keys 36. It is provided. A jog dial 39, which is rotatable about a horizontal direction (the left-right direction of the housing) as an axis, is provided on the upper front surface of the operation key 36 of the main body 23 in a state of slightly protruding from the surface of the main body 23.
The mobile phone 1 executes various processes such as a scrolling operation of the electronic mail displayed on the LCD 35 in response to a rotating operation on the jog dial 39. A left direction button 40 and a right direction button 41 are provided on the left and right of the jog dial 39, respectively.

【0025】本体23の左側面には、メモリカード43
を装着するためのメモリカードスロット42が設けられ
ている。メモリカード43には、各種データの他、CCD
カメラ33により撮影された画像から抽出された、ユー
ザの虹彩データなどが記憶される。メモリカード43に
記憶された虹彩データは、例えば、CCDカメラ33によ
り撮影された人物が、ユーザであるか否かを識別するた
めに利用される。
A memory card 43 is provided on the left side of the main body 23.
There is provided a memory card slot 42 for mounting a memory card. The memory card 43 has a CCD as well as various data.
The iris data of the user and the like extracted from the image captured by the camera 33 are stored. The iris data stored in the memory card 43 is used, for example, to identify whether the person photographed by the CCD camera 33 is a user.

【0026】図3は、携帯電話機1の内部の構成例を示
すブロック図である。
FIG. 3 is a block diagram showing an example of the internal structure of the mobile phone 1.

【0027】CPU(Central Processing Unit)51は、RO
M(Read Only Memory)52に記憶されている制御プログ
ラムをRAM(Random Access Memory)53に展開し、バス
57を介して携帯電話機1の全体の動作を制御する。
The CPU (Central Processing Unit) 51 is an RO
The control program stored in the M (Read Only Memory) 52 is expanded in the RAM (Random Access Memory) 53, and the entire operation of the mobile phone 1 is controlled via the bus 57.

【0028】例えば、CPU51は、電子メールを作成す
ることがユーザにより指示されたとき、表示制御部55
を制御し、文章の作成画面をLCD35に表示させるとと
もに、カメラ制御部56を制御し、所定の周期で周囲を
撮影させる。また、CPU51は、カメラ制御部56の主
制御部71(図4参照)に、CCDカメラ33により撮影
された画像に基づいて、LCD35の表示を見ているユー
ザ以外の人物がいるか否かを判定させ、LCD35の表示
を見ているユーザ以外の人物がいることが判定されたと
き、ユーザに対して警告すべく、所定の警告画面をLCD
35に表示させる(出力させる)。
For example, the CPU 51, when instructed by the user to create an electronic mail, the display control unit 55.
To display a text creation screen on the LCD 35 and control the camera control unit 56 to photograph the surroundings at a predetermined cycle. Further, the CPU 51 determines whether or not there is a person other than the user looking at the display of the LCD 35 on the main control unit 71 (see FIG. 4) of the camera control unit 56 based on the image captured by the CCD camera 33. Then, when it is determined that there is a person other than the user who is viewing the display on the LCD 35, a predetermined warning screen is displayed on the LCD to warn the user.
35 (display).

【0029】通信制御部54は、アンテナ31を介して
基地局との間で電波を送受信し、例えば、音声通話モー
ド時において、アンテナ31で受信されたRF(Radio Fre
quency)信号を増幅して周波数変換処理、アナログディ
ジタル変換処理、スペクトラム逆拡散処理等の所定の処
理を施し、得られた音声データを音声コーデック59に
出力する。また、通信制御部54は、音声コーデック5
9から音声データが供給されてきたとき、ディジタルア
ナログ変換処理、周波数変換処理、およびスペクトラム
拡散処理等の所定の処理を施し、得られた音声信号をア
ンテナ31から送信する。
The communication controller 54 transmits and receives radio waves to and from the base station via the antenna 31, and, for example, in the voice call mode, RF (Radio Frequency) received by the antenna 31.
The quency) signal is amplified and subjected to predetermined processing such as frequency conversion processing, analog-digital conversion processing, and spectrum despreading processing, and the obtained audio data is output to the audio codec 59. In addition, the communication control unit 54 uses the audio codec 5
When the audio data is supplied from 9, the audio data obtained is subjected to predetermined processing such as digital-analog conversion processing, frequency conversion processing, and spread spectrum processing, and the obtained audio signal is transmitted from the antenna 31.

【0030】表示制御部55は、LCD35の表示を制御
し、電子メールとして送信する文章の作成画面や、CCD
カメラ33により撮影された画像等をLCD35に表示す
る。
The display control unit 55 controls the display of the LCD 35 and creates a text creation screen to be sent as an electronic mail or a CCD.
The image and the like taken by the camera 33 are displayed on the LCD 35.

【0031】カメラ制御部56は、CCDカメラ33の駆
動を制御するとともに、CCDカメラ33により撮影さ
れ、得られた画像に対して各種の処理を施す。例えば、
カメラ制御部56は、ユーザの虹彩データを登録すると
き、CCDカメラ33により撮影された画像から虹彩デー
タを取得し、それを、バス57を介してメモリカードイ
ンタフェース60に出力する。出力された虹彩データ
は、メモリカードインタフェース60により、メモリカ
ード43に保存される。
The camera control unit 56 controls the driving of the CCD camera 33, and also performs various kinds of processing on the image taken by the CCD camera 33 and obtained. For example,
When registering the iris data of the user, the camera control unit 56 acquires the iris data from the image captured by the CCD camera 33 and outputs it to the memory card interface 60 via the bus 57. The output iris data is stored in the memory card 43 by the memory card interface 60.

【0032】折り畳み検出部58は、図1のヒンジ部2
1の近傍に設けられ、携帯電話機1の開閉状態を監視
し、開かれた状態から折り畳まれたことを検出したと
き、または、折り畳まれた状態から開かれたことを検出
したとき、それをCPU51に通知する。後述するよう
に、例えば、電子メールとして送信する文章の作成中
に、携帯電話機1が折り畳まれたとき、折り畳み検出部
58からCPU51に折り畳まれたことが通知され、その
通知に応じて、作成中の文章が保存される。
The folding detection unit 58 is the hinge unit 2 of FIG.
1 is provided in the vicinity of 1 to monitor the open / closed state of the mobile phone 1, and when it is detected that the mobile phone 1 is folded from the opened state or when it is opened from the folded state, the CPU 51 To notify. As will be described later, for example, when the mobile phone 1 is folded during the creation of a sentence to be sent as an electronic mail, the folding detection unit 58 notifies the CPU 51 that the text has been folded, and in response to the notification, it is being created. Is saved.

【0033】音声コーデック59は、通信制御部54か
ら供給されてきた音声データを音声信号に変換し、対応
する音声信号をスピーカ34から出力する。また、音声
コーデック59は、マイクロフォン38により集音され
たユーザの音声を音声データに変換し、それを通信制御
部54に出力する。
The voice codec 59 converts the voice data supplied from the communication controller 54 into a voice signal and outputs the corresponding voice signal from the speaker 34. The voice codec 59 also converts the voice of the user collected by the microphone 38 into voice data, and outputs the voice data to the communication control unit 54.

【0034】メモリカードインタフェース60は、メモ
リカードスロット42に装着されたメモリカード43に
対するデータの読み書きを制御し、CPU51からの要求
に応じて、適宜、メモリカード43に記憶されているデ
ータを提供する。
The memory card interface 60 controls the reading and writing of data with respect to the memory card 43 mounted in the memory card slot 42, and provides the data stored in the memory card 43 as appropriate in response to a request from the CPU 51. .

【0035】バス57には、必要に応じてドライブ61
が接続され、磁気ディスク62、光ディスク63、或い
は光磁気ディスク64などが適宜装着され、それから読
み出されたコンピュータプログラム、または、メモリカ
ードインタフェース60によりメモリカード43から読
み出されたコンピュータプログラムが、必要に応じて携
帯電話機1にインストールされる。なお、図示は省略す
るが、ジョグダイヤル39によるユーザからの指示、メ
モボタン37によるユーザからの指示なども、バス57
を介してCPU51に出力される。
A drive 61 is connected to the bus 57 as needed.
Is required, and a magnetic disk 62, an optical disk 63, a magneto-optical disk 64, or the like is mounted as appropriate, and a computer program read from it or a computer program read from the memory card 43 by the memory card interface 60 is required. Is installed on the mobile phone 1. Although illustration is omitted, the bus 57 also receives an instruction from the user using the jog dial 39, an instruction from the user using the memo button 37, and the like.
Is output to the CPU 51 via.

【0036】図4は、図3のカメラ制御部56の構成例
を示すブロック図である。
FIG. 4 is a block diagram showing a configuration example of the camera control unit 56 of FIG.

【0037】主制御部71は、図3のCPU51からの指
示に基づいて、角度設定部72、撮影制御部73、およ
び画像処理部74を制御し、例えば、撮影制御部73に
より取得されたデータが供給されてきたとき、供給され
たデータを、バス57を介して、CPU51等に出力す
る。
The main control unit 71 controls the angle setting unit 72, the photographing control unit 73, and the image processing unit 74 based on an instruction from the CPU 51 of FIG. 3, and, for example, data acquired by the photographing control unit 73. Is supplied, the supplied data is output to the CPU 51 and the like via the bus 57.

【0038】角度設定部72は、例えば、文章の作成画
面、または、受信した電子メールがLCD35に表示され
ているとき、主制御部71による制御に基づいて、CCD
カメラ33の撮影範囲を、図5および図6に示されるよ
うな範囲内で制御する。
The angle setting unit 72, for example, when the text creation screen or the received electronic mail is displayed on the LCD 35, the angle setting unit 72 controls the CCD based on the control by the main control unit 71.
The shooting range of the camera 33 is controlled within the range shown in FIGS. 5 and 6.

【0039】図5に示されるように、角度設定部72
は、CCDカメラ33の正面(図の一点鎖線)を中心とし
て、例えば、左右45度の範囲が撮影できるように、CC
Dカメラ33(部材32A)を駆動させる。例えば、図
5の左側から右側に、撮影範囲が順次切り替えられて撮
影される。なお、図5においては、携帯電話機1の正面
に対して、若干斜め上方から携帯電話機1の撮影範囲が
示されている。
As shown in FIG. 5, the angle setting section 72
Indicates the CC camera 33 so that, for example, a range of 45 degrees to the left and right can be photographed centering on the front of the CCD camera 33 (dashed line in the figure).
The D camera 33 (member 32A) is driven. For example, the shooting range is sequentially switched from the left side to the right side in FIG. Note that, in FIG. 5, the photographing range of the mobile phone 1 is shown from slightly above the front of the mobile phone 1.

【0040】また、角度設定部72は、図6に示される
ように、水平に対して、例えば、上側30度、下側15
度の範囲が撮影できるように、カメラ部32(CCDカメ
ラ33)を駆動させる。例えば、図6の上側から下側
に、撮影範囲が順次切り替えられて撮影される。
Further, as shown in FIG. 6, the angle setting section 72 has an upper side of 30 degrees and a lower side of 15 degrees with respect to the horizontal.
The camera unit 32 (CCD camera 33) is driven so that the range of degrees can be photographed. For example, the shooting range is sequentially switched from the upper side to the lower side of FIG.

【0041】図4の説明に戻り、撮影制御部73は、CC
Dカメラ33による撮影を制御し、主制御部71により
撮影することが指示されたとき、その瞬間に、CCDカメ
ラ33により取り込まれている画像を画像処理部74に
出力する。
Returning to the explanation of FIG. 4, the photographing control section 73
When the main controller 71 controls shooting by the D camera 33 and the main controller 71 instructs shooting, the image captured by the CCD camera 33 is output to the image processor 74 at that moment.

【0042】画像処理部74は、撮影制御部74から供
給された画像から、例えば、被写体の目の画像データや
虹彩データを抽出し、抽出した情報を主制御部71に出
力する。
The image processing unit 74 extracts, for example, image data of the eyes of the subject and iris data from the image supplied from the photographing control unit 74, and outputs the extracted information to the main control unit 71.

【0043】図7は、図4の画像処理部74の詳細な構
成例を示すブロック図である。
FIG. 7 is a block diagram showing a detailed configuration example of the image processing section 74 of FIG.

【0044】画像取得部81は、撮影制御部73により
取り込まれた画像を取得し、それを顔領域検出部82に
出力する。
The image acquisition unit 81 acquires the image captured by the photographing control unit 73 and outputs it to the face area detection unit 82.

【0045】顔領域検出部82は、例えば、画像取得部
81により取得された複数の画像に基づいて、被写体
(人物)の移動による画像のずれなどから人物の顔の領
域を検出し、または、予め用意されているテンプレート
に基づいて人物の顔の領域を検出し、検出した顔領域の
画像データを顔部品検出部83に出力する。
The face area detecting section 82 detects a person's face area based on a plurality of images acquired by the image acquiring section 81, for example, from image shifts due to movement of a subject (person), or A face area of a person is detected based on a template prepared in advance, and the image data of the detected face area is output to the face part detection unit 83.

【0046】顔部品検出部83は、例えば、顔領域検出
部82から供給されてきた顔領域の画像データから顔の
各部品の特徴量を抽出し、撮影された人物の目、鼻、
口、耳等の顔部品のそれぞれの位置を検出する。顔部品
検出部83により検出された顔部品の画像データは、目
画像取得部84に出力される。
The face part detecting section 83 extracts the feature amount of each part of the face from the image data of the face area supplied from the face area detecting section 82, and the eyes, nose,
The positions of face parts such as mouth and ears are detected. The image data of the face parts detected by the face part detection unit 83 is output to the eye image acquisition unit 84.

【0047】目画像取得部84は、顔部品検出部83に
より検出された顔部品の画像データに基づいて、人物の
目の画像データのみを取得し、ユーザ以外の人物がLCD
35の表示を見ているか否かを、虹彩データに基づいて
判定すること(人物を識別すること)が主制御部71に
より指示されている場合、検出した人物の目の画像デー
タを虹彩データ抽出部85に出力する。また、ユーザ以
外の人物がLCD35の表示を見ているか否かを、例え
ば、携帯電話機1(CCDカメラ33)から人物の目まで
の距離に基づいて判定することが指示されている場合、
若しくは、撮影された画像上における人物の目の大きさ
に基づいて判定することが指示されている場合、目画像
取得部84は、目の画像データを主制御部71に出力す
る。
The eye image acquisition unit 84 acquires only the image data of the eyes of the person based on the image data of the face parts detected by the face part detection unit 83, and a person other than the user can use the LCD.
When the main control unit 71 instructs to determine whether or not the display 35 is viewed based on the iris data (to identify the person), the image data of the detected eyes of the person is extracted as iris data. Output to the unit 85. In addition, when it is instructed to determine whether or not a person other than the user is looking at the display of the LCD 35, for example, based on the distance from the mobile phone 1 (CCD camera 33) to the eyes of the person,
Alternatively, when it is instructed to make a determination based on the size of the person's eyes on the captured image, the eye image acquisition unit 84 outputs the eye image data to the main control unit 71.

【0048】虹彩データ抽出部85は、目画像取得部8
4から供給された目の画像データに基づいて、撮影され
た人物の虹彩データを抽出する。虹彩は、人間の目の瞳
孔の外側から、黒目と白目の境界までの径方向の部分
に、瞳孔を中心として放射状に現れ、それぞれの人が固
有のパターンを有するものである。具体的には、虹彩デ
ータ抽出部85は、目の中心を原点とする極座標におけ
る、径方向と周方向に予め分割された複数の領域毎の虹
彩パターンの濃淡を示すデータから、例えば、256バ
イト(片目分)の虹彩データ(アイリスコード)を抽出
する。虹彩データ抽出部85により抽出された虹彩デー
タは、主制御部71に出力され、例えば、主制御部71
により、抽出された虹彩データが、ユーザによりメモリ
カード43に予め登録されている虹彩データと同一のも
のであるか否かが判定される(照合される)。
The iris data extracting section 85 includes an eye image acquiring section 8
The iris data of the photographed person is extracted on the basis of the image data of the eyes supplied from No. 4. The iris appears radially from the outside of the pupil of the human eye to the boundary between the black and white eyes, with the pupil as the center, and each person has a unique pattern. Specifically, the iris data extraction unit 85 uses, for example, 256 bytes from data indicating the shading of the iris pattern for each of a plurality of regions divided in the radial direction and the circumferential direction in polar coordinates with the center of the eye as the origin. Iris data (iris code) for one eye is extracted. The iris data extracted by the iris data extraction unit 85 is output to the main control unit 71. For example, the main control unit 71
Thus, it is determined (checked) whether the extracted iris data is the same as the iris data registered in the memory card 43 by the user in advance.

【0049】次に、以上のような構成を有する携帯電話
機1の動作について説明する。
Next, the operation of the mobile phone 1 having the above configuration will be described.

【0050】始めに、図8のフローチャートを参照し
て、ユーザの虹彩データを登録する携帯電話機1の登録
処理について説明する。
First, the registration process of the mobile phone 1 for registering the iris data of the user will be described with reference to the flowchart of FIG.

【0051】ユーザにより所定の操作が行われ、虹彩デ
ータを登録することが指示されたとき、CPU51は、ス
テップS1において、カメラ制御部56を制御し、撮影
を行わせる。すなわち、カメラ制御部56の主制御部7
1は、CPU51からの指示に基づいて、撮影制御部73
を制御し、CCDカメラ33により取り込まれている画像
を画像処理部74に出力させる。
When the user performs a predetermined operation and gives an instruction to register the iris data, the CPU 51 controls the camera control unit 56 in step S1 to perform photographing. That is, the main controller 7 of the camera controller 56
1 is based on an instruction from the CPU 51, and the photographing control unit 73
The image processing unit 74 is caused to output the image captured by the CCD camera 33.

【0052】画像処理部74の画像取得部81は、撮影
制御部73から画像データが供給されてきたとき、ステ
ップS2において、それを取得する。画像取得部81に
より取得された画像データは、顔領域検出部82に出力
される。
When the image data is supplied from the photographing control unit 73, the image acquisition unit 81 of the image processing unit 74 acquires it in step S2. The image data acquired by the image acquisition unit 81 is output to the face area detection unit 82.

【0053】ステップS3において、顔領域検出部82
は、例えば、画像取得部81により取得された複数の画
像に基づいて、人物の移動による画像のずれなどから人
物の顔の領域を検出し、検出した顔領域の画像データを
顔部品検出部83に出力する。
In step S3, the face area detecting unit 82
For example, based on the plurality of images acquired by the image acquisition unit 81, the area of the face of the person is detected from the image shift due to the movement of the person, and the image data of the detected face area is detected by the face component detection unit 83. Output to.

【0054】顔部品検出部83は、ステップS4におい
て、顔領域検出部82から供給された顔領域の画像デー
タに基づいて、人物の目、鼻、口、耳等の顔部品のそれ
ぞれの位置を検出し、各部品の画像データを取得する。
顔部品検出部83により取得された顔部品のそれぞれの
画像データや、その位置情報等は、目画像取得部84に
出力される。
In step S4, the face part detecting section 83 determines the positions of the face parts such as the eyes, nose, mouth, and ears of the person based on the image data of the face area supplied from the face area detecting section 82. Detect and acquire image data of each part.
The image data of each face part acquired by the face part detection unit 83, its position information, and the like are output to the eye image acquisition unit 84.

【0055】ステップS5において、目画像取得部84
は、顔部品検出部83から供給されてきた顔部品の画像
データ等に基づいて、人物の目の画像データを取得し、
それを虹彩データ抽出部85に出力する。
In step S5, the eye image acquisition unit 84
Acquires the image data of the eyes of the person based on the image data of the face parts supplied from the face part detection unit 83,
It is output to the iris data extraction unit 85.

【0056】ステップS6において、虹彩データ抽出部
85は、上述したように、目の中心を原点とする極座標
における、径方向と周方向に予め分割された複数の領域
毎の虹彩パターンの濃淡を示すデータから、例えば、2
56バイトの片目分の虹彩データ、または512バイト
の両目分の虹彩データを抽出し、それを主制御部71に
出力する。
In step S6, as described above, the iris data extraction unit 85 indicates the shading of the iris pattern for each of a plurality of regions divided in the radial direction and the circumferential direction in polar coordinates with the center of the eye as the origin. From the data, for example, 2
The 56-byte iris data for one eye or the 512-byte iris data for both eyes are extracted and output to the main control unit 71.

【0057】主制御部71は、虹彩データ抽出部85か
ら虹彩データが供給されてきたとき、ステップS7にお
いて、メモリカードインタフェース60を介して、ユー
ザの虹彩データをメモリカード43に登録する。
When the iris data is supplied from the iris data extraction unit 85, the main control unit 71 registers the iris data of the user in the memory card 43 via the memory card interface 60 in step S7.

【0058】以上の処理により、ユーザの虹彩データが
メモリカード43に保存され、それ以降、登録されたデ
ータに基づいて、LCD35の表示を見ている人物の照合
(撮影された人物がユーザであるか否かの判定処理)を
行うことが可能となる。
By the above processing, the iris data of the user is stored in the memory card 43, and thereafter, based on the registered data, the person looking at the display of the LCD 35 is collated (the photographed person is the user. It is possible to perform (determination processing of whether or not).

【0059】次に、図9のフローチャートを参照して、
LCD35の表示を見ている人物を検出する携帯電話機1
の検出処理について説明する。
Next, referring to the flowchart of FIG.
Mobile phone 1 for detecting a person looking at the display of LCD 35
The detection process of will be described.

【0060】この処理は、例えば、電子メールとして送
信する文章を作成する作成画面がLCD35に表示されて
いるとき、または、受信した電子メールの文章がLCD3
5に表示されているときに、所定の周期で行われる。当
然、簡易ホームページが表示されているとき、アドレス
帳に登録されているデータが表示されているときなどに
行われるようにしてもよい。
This processing is performed, for example, when the LCD 35 displays a creation screen for creating a text to be sent as an electronic mail, or when the text of the received electronic mail is displayed on the LCD 3.
When it is displayed at 5, it is performed in a predetermined cycle. Of course, it may be performed when the simple home page is displayed or when the data registered in the address book is displayed.

【0061】ステップS21において、CPU51は、LCD
35の表示を見ている人物を検出する所定のタイミング
になったか否かを判定し、所定のタイミングになったと
判定するまで待機する。
In step S21, the CPU 51 causes the LCD
It is determined whether or not it is a predetermined timing for detecting the person watching the display 35, and the process waits until it is determined that the predetermined timing is reached.

【0062】CPU51は、ステップS21において、LCD
35の表示を見ている人物を検出する所定のタイミング
になったと判定した場合、ステップS22に進み、カメ
ラ制御部56を制御し、例えば、図5および図6に示さ
れる範囲内において、CCDカメラ33により撮影させ
る。
In step S21, the CPU 51 displays the LCD
If it is determined that the predetermined timing for detecting the person watching the display 35 is reached, the process proceeds to step S22, the camera control unit 56 is controlled, and, for example, within the range shown in FIG. 5 and FIG. It is made to photograph by 33.

【0063】CPU51は、ステップS23において、ス
テップS22で撮影され、得られた画像データに基づい
て、LCD35の表示を見ている人物がユーザであるか否
かを判定する判定処理をカメラ制御部56に実行させ
る。
In step S23, the CPU 51 performs a determination process for determining whether or not the person looking at the display on the LCD 35 is the user, based on the image data captured and obtained in step S22. To run.

【0064】ステップS23においては、例えば、撮影
された画像に基づいて抽出された虹彩データ、撮影され
た画像上における目の大きさ、撮影された目までの距
離、または、撮影された目の方向に基づいて、LCD35
の表示を見ている人物がユーザであるか否かが判定され
る。ステップS23において行われる、人物の虹彩デー
タに基づいて行われる判定処理については図11のフロ
ーチャートを参照して、撮影された画像上における目の
大きさに基づいて行われる判定処理については図12の
フローチャートを参照して、撮影された目までの距離に
基づいて行われる判定処理については図13のフローチ
ャートを参照して、撮影された目の方向に基づいて行わ
れる判定処理については図15のフローチャートを参照
して、それぞれ後述する。
In step S23, for example, the iris data extracted based on the photographed image, the size of the eye on the photographed image, the distance to the photographed eye, or the direction of the photographed eye. Based on LCD35
It is determined whether or not the person who is viewing the display is a user. For the determination process performed based on the iris data of the person performed in step S23, refer to the flowchart of FIG. 11, and for the determination process performed based on the size of the eyes on the captured image, the determination process of FIG. Referring to the flowchart, the determination process performed based on the distance to the captured eye is referred to the flowchart of FIG. 13, and the determination process performed based on the captured eye direction is the flowchart of FIG. Will be described later.

【0065】CPU51は、ステップS24において、カ
メラ制御部56からの通知に基づいて、携帯電話機1の
ユーザ以外の人物による視線が検出されたか否か、すな
わち、ユーザ以外の人物がLCD35の表示を見ているこ
とが検出されたか否かを判定する。
In step S24, the CPU 51 determines whether or not the line of sight of a person other than the user of the mobile phone 1 is detected based on the notification from the camera controller 56, that is, the person other than the user sees the display on the LCD 35. It is determined whether or not it is detected.

【0066】ステップS24において、CPU51は、ユ
ーザ以外の人物による視線が検出されていないと判定し
た場合、後述するステップS25乃至ステップS29の
処理をスキップし、ステップS30に進む。一方、CPU
51は、ステップS24において、携帯電話機1のユー
ザ以外の人物による視線が検出されたと判定した場合、
ステップS25に進み、LCD35の表示が他人に見られ
ているおそれがあることをユーザに対して通知すべく、
所定の警告画面をLCD35に表示させる。
When the CPU 51 determines in step S24 that the line of sight of a person other than the user has not been detected, it skips steps S25 to S29, which will be described later, and proceeds to step S30. On the other hand, CPU
If it is determined that the line of sight by a person other than the user of the mobile phone 1 is detected in step S24,
In step S25, in order to notify the user that the display on the LCD 35 may be seen by another person,
A predetermined warning screen is displayed on the LCD 35.

【0067】図10は、文章の作成中に、ユーザ以外の
人物による視線が検出されたとき、LCD35に表示され
る警告画面の例を示す図である。
FIG. 10 is a diagram showing an example of a warning screen displayed on the LCD 35 when a line of sight of a person other than the user is detected during the creation of a sentence.

【0068】図10の例においては、「他人がのぞきこ
んでいるおそれがあります。文章の作成を中断しますか
?」のメッセージが表示されており、ユーザは、その指
示に応じて、操作キー36、ジョグダイヤル39などを
操作し、メッセージの下に表示されているカーソル35
Aにより、文章の作成を中断するか否かを選択できるよ
うになされている。また、より確実にユーザに警告を促
すことができるように、図10に示されるLCD35の画
面は、例えば、赤色などの所定の色の画面とされる。
In the example of FIG. 10, a message "There is a possibility that another person is looking in. Are you sure you want to stop writing the text?" Is displayed, and the user operates the operation key 36 in response to the instruction. Operate the jog dial 39, etc. to display the cursor 35 displayed below the message.
By A, it is possible to select whether or not to interrupt the creation of the sentence. Further, in order to more surely warn the user, the screen of the LCD 35 shown in FIG. 10 is a screen of a predetermined color such as red.

【0069】図10に示されるような警告画面が表示さ
れている状態において、CPU51は、例えば、カーソル
35Aにより「YES」が選択された場合、文章の作成を
中断し(文章作成画面の表示を中断し)、一方、「NO」
が選択された場合、文章の作成を続行する(文章作成画
面の表示を続行する)。
When the warning screen as shown in FIG. 10 is displayed, for example, when "YES" is selected by the cursor 35A, the CPU 51 interrupts the creation of the sentence (display the sentence creation screen. Interrupted), while "NO"
If is selected, the text creation continues (the text creation screen continues to be displayed).

【0070】なお、受信された電子メールの文章がLCD
35に表示されている状態において、ユーザ以外の人物
による視線が検出されたとき、「他人がのぞきこんでい
るおそれがあります。文章の表示を中断しますか?」な
どのメッセージが、図10に示されているメッセージに
替えて表示される。
The text of the received e-mail is displayed on the LCD.
When the line of sight of a person other than the user is detected in the state displayed in 35, a message such as "There is a possibility that another person is looking in. Do you want to interrupt the text display?" It is displayed instead of the displayed message.

【0071】ステップS26において、CPU51は、操
作キー36、ジョグダイヤル39などに対するユーザか
らの入力に基づいて、文章作成画面の表示、または、受
信メールの内容の表示を続けることが指示されたか否か
を判定し、表示を中断することが指示されたと判定した
場合、ステップS27に進み、その表示の内容を保存す
る。また、CPU51は、ステップS28において、LCD3
5の表示を切り替える。
In step S26, the CPU 51 determines whether or not it is instructed to continue to display the sentence creation screen or the content of the received mail based on the user's input to the operation keys 36, the jog dial 39, or the like. If it is determined that it is instructed to suspend the display, the process proceeds to step S27 and the content of the display is saved. In addition, the CPU 51 determines in step S28 that the LCD 3
Switch the display of 5.

【0072】例えば、文章作成画面が表示されていたと
きに、ユーザ以外の人物の視線が検出され、表示を中断
することが指示された場合(図10の「YES」が選択さ
れた場合)、作成中の文章が保存され(ステップS27
の処理)、初期状態の待ち受け画面やメニュー画面など
に表示が切り替わる(ステップS28の処理)。また、
受信メールの内容が表示されていたときに、ユーザ以外
の人物の視線が検出され、表示を中断することが指示さ
れた場合、表示されていた受信メールに関する情報が保
存され(ステップS27の処理)、待ち受け画面やメニ
ュー画面などに表示が切り替わる(ステップS28の処
理)。
For example, when the line of sight of a person other than the user is detected and an instruction to interrupt the display is given while the text creation screen is displayed (when "YES" in FIG. 10 is selected), The text being created is saved (step S27).
Processing), the display is switched to a standby screen or a menu screen in the initial state (processing of step S28). Also,
When the line of sight of a person other than the user is detected and an instruction to interrupt the display is given while the content of the received mail is being displayed, the information regarding the displayed received mail is stored (processing of step S27). The display is switched to the standby screen, the menu screen, or the like (processing of step S28).

【0073】また、例えば、「他人がのぞきこんでいる
おそれがあります。折り畳んでください。」などのメッ
セージが表示された場合、ユーザは、その指示に応じ
て、携帯電話機1を折り畳むことにより、表示を中断す
ることができる。携帯電話機1が折り畳まれたとき、折
り畳み検出部58により、それが検出され、CPU51に
通知される。このとき、CPU51は、ステップS26に
おいて、表示を中断することが指示されたと判定し、ス
テップS27に進み、上述した保存処理を行い、画面の
表示を消す(ステップS28の処理)。その後、以上の
検出処理が終了される。
In addition, for example, when a message such as "There is a possibility that another person is looking into. Please fold." Is displayed, the user folds the mobile phone 1 according to the instruction to display the message. It can be interrupted. When the mobile phone 1 is folded, the folding detection unit 58 detects it and notifies the CPU 51 of it. At this time, the CPU 51 determines in step S26 that it is instructed to suspend the display, proceeds to step S27, performs the above-described saving process, and erases the screen display (process of step S28). Then, the above detection process is ended.

【0074】一方、ステップS26において、文章作成
画面等の表示を続けることが指示されたと判定した場合
(図10の「NO」が選択された場合)、CPU51は、ス
テップS29に進み、警告画面が表示される直前に表示
されていた画面の状態に、LCD35の表示を元に戻す。
例えば、LCD35に表示されている内容が他人に見られ
ても構わない内容である場合、ユーザは、図10に示さ
れるような警告画面において、カーソル35Aにより
「NO」を選択し、直前に表示されていた画面に、LCD3
5の表示を戻す。
On the other hand, when it is determined in step S26 that the instruction to continue the display of the sentence creation screen or the like is instructed (when "NO" in FIG. 10 is selected), the CPU 51 proceeds to step S29 and displays the warning screen. The display of the LCD 35 is returned to the original state of the screen displayed immediately before the display.
For example, when the contents displayed on the LCD 35 are contents that may be seen by others, the user selects "NO" with the cursor 35A on the warning screen as shown in FIG. LCD3 on the screen that was displayed
Return the display of 5.

【0075】CPU51は、ステップS30において、ユ
ーザにより、文章作成画面の表示の終了、または、受信
メールの表示の終了が指示されたか否かを判定し、終了
が指示されていないと判定した場合、ステップS21に
戻り、以降の処理を繰り返し実行する。また、CPU51
は、ステップS30において、文章作成画面の表示等の
終了が指示されたと判定した場合、処理を終了させる。
In step S30, the CPU 51 determines whether or not the user has instructed to end the display of the sentence creation screen or the end of display of the received mail, and when it is determined that the end has not been instructed, Returning to step S21, the subsequent processing is repeatedly executed. In addition, CPU51
If it is determined in step S30 that the end of displaying the text creation screen has been instructed, the process ends.

【0076】以上のように、近傍に存在する人物の虹彩
データなどの特徴情報を検出し、検出した特徴情報に基
づいて、携帯端末のユーザと異なる人物により、LCD3
5の表示が目視されているか否かを判定し、その判定結
果に応じて、所定の警告画面などの警告を出力するよう
にしたので、LCD35に表示されている情報が他人に見
られることを、より効果的に防止することができる。
As described above, the characteristic information such as iris data of the person existing in the vicinity is detected, and the LCD 3 is detected by the person different from the user of the portable terminal based on the detected characteristic information.
It is determined whether or not the display of No. 5 is visually observed, and a warning such as a predetermined warning screen is output according to the judgment result, so that the information displayed on the LCD 35 can be seen by others. , Can be more effectively prevented.

【0077】また、ユーザは、警告画面において、それ
まで表示されていた画面の表示を中断することを指示し
たとき、表示されていた画面の内容が保存されるため、
例えば、文章の作成中に、作成画面の表示を突然中断し
た場合であっても、途中まで作成されていた文章が消去
されるといったことを抑制することができる。なお、警
告画面が表示されるだけでなく、所定の警告音が出力さ
れたり、バイブレーション機能が駆動するなど、様々な
方法により、警告が出力されるようにしてもよい。
In addition, when the user gives an instruction to suspend the display of the screen that has been displayed on the warning screen, the contents of the displayed screen are saved.
For example, even if the display of the creation screen is suddenly interrupted during the creation of a sentence, it is possible to prevent the halfway created sentence from being erased. In addition to displaying the warning screen, the warning may be output by various methods such as outputting a predetermined warning sound or driving a vibration function.

【0078】次に、図11のフローチャートを参照し
て、図9のステップS23において実行される、虹彩デ
ータに基づいて、ユーザ以外の人物が表示を見ているか
否かを判定する携帯電話機1の判定処理について説明す
る。
Next, referring to the flowchart of FIG. 11, the portable telephone 1 which determines whether or not a person other than the user is viewing the display based on the iris data, which is executed in step S23 of FIG. The determination process will be described.

【0079】図11のステップS41乃至ステップS4
5の処理は、図8のステップS2乃至ステップS6の処
理と同様の処理である。
Steps S41 to S4 in FIG.
The process of 5 is the same as the process of steps S2 to S6 of FIG.

【0080】すなわち、ステップS41において、画像
取得部81は、図9のステップS22で撮影制御部73
により撮影された画像データを取得し、それを顔領域検
出部82に出力する。顔領域検出部82は、ステップS
42において、撮影された画像に含まれる、人物の顔の
領域を検出し、顔の画像データを顔部品検出部83に出
力する。従って、例えば、ユーザ以外の人物がユーザの
近傍にいる場合、その人物の顔領域も、ユーザの顔領域
とともに検出され、それぞれの顔の画像データが顔部品
検出部83に出力される。
That is, in step S41, the image acquisition section 81 uses the photographing control section 73 in step S22 of FIG.
The image data captured by is acquired and output to the face area detection unit 82. The face area detection unit 82 performs step S
At 42, the area of the face of the person included in the captured image is detected, and the image data of the face is output to the face part detection unit 83. Therefore, for example, when a person other than the user is near the user, the face area of the person is also detected together with the face area of the user, and the image data of each face is output to the face part detection unit 83.

【0081】ステップS43において、顔部品検出部8
3は、それぞれの人物の顔を構成する、目、鼻等の顔部
品の位置を検出し、顔部品の画像データと、位置情報等
を目画像取得部84に出力する。目画像取得部84は、
ステップS44において、顔部品検出部83から供給さ
れてきたデータに基づいて、目の画像データを取得し、
それを虹彩データ抽出部85に出力する。
In step S43, the face part detecting section 8
3 detects the positions of face parts such as eyes and noses that form the face of each person, and outputs the image data of the face parts and the position information to the eye image acquisition section 84. The eye image acquisition unit 84
In step S44, eye image data is acquired based on the data supplied from the facial part detection unit 83,
It is output to the iris data extraction unit 85.

【0082】虹彩データ抽出部85は、ステップS45
において、目画像取得部84から供給されてきた目の画
像データに基づいて、撮影された人物の虹彩データを抽
出する。例えば、ユーザのみが被写体として撮影された
場合、ユーザの虹彩データが虹彩データ抽出部85によ
り抽出され、ユーザと、携帯電話機1の方を向いている
ユーザ以外の人物が撮影された場合、ユーザの虹彩デー
タと、その人物の虹彩データが抽出される。また、撮影
角度によっては、ユーザ以外の人物の虹彩データのみが
虹彩データ抽出部85により抽出される。虹彩データ抽
出部85により抽出された虹彩データは、主制御部71
に出力される。
The iris data extraction section 85 determines in step S45.
At, the iris data of the photographed person is extracted based on the eye image data supplied from the eye image acquisition unit 84. For example, when only the user is photographed as a subject, the iris data of the user is extracted by the iris data extraction unit 85, and when the user and a person other than the user facing the mobile phone 1 are photographed, The iris data and the iris data of the person are extracted. Also, depending on the shooting angle, only the iris data of a person other than the user is extracted by the iris data extraction unit 85. The iris data extracted by the iris data extraction unit 85 is stored in the main control unit 71.
Is output to.

【0083】主制御部71は、ステップS46におい
て、虹彩データ抽出部85により抽出された虹彩データ
と、メモリカード43に予め登録されている(図8の処
理により登録されている)虹彩データとを照合し、ステ
ップS47に進み、抽出された虹彩データとメモリカー
ド43に登録されている虹彩データが同一であるか否か
を判定する。
In step S46, the main control unit 71 stores the iris data extracted by the iris data extraction unit 85 and the iris data pre-registered in the memory card 43 (registered by the processing of FIG. 8). Collation is performed, and the process proceeds to step S47 to determine whether the extracted iris data and the iris data registered in the memory card 43 are the same.

【0084】例えば、ユーザの虹彩データのみが虹彩デ
ータ抽出部85により抽出された場合、主制御部71
は、ステップS47において、抽出された虹彩データと
メモリカード43に登録されている虹彩データが同一で
あると判定し、ステップS48に進む。
For example, when only the iris data of the user is extracted by the iris data extraction unit 85, the main control unit 71.
Determines in step S47 that the extracted iris data and the iris data registered in the memory card 43 are the same, and proceeds to step S48.

【0085】ステップS48において、主制御部71
は、ユーザのものと異なる虹彩データが検出されなかっ
たため、ユーザ以外の視線が検出されなかったことをCP
U51に対して通知する。その後、図9のステップS2
4以降の処理が実行され、ユーザ以外の視線が検出され
なかったことがCPU51により判定される。
In step S48, the main controller 71
Is that the iris data different from that of the user has not been detected, so the gaze of anyone other than the user has not been detected.
Notify U51. Then, step S2 of FIG.
The processing after 4 is executed, and the CPU 51 determines that the line of sight other than the user has not been detected.

【0086】一方、虹彩データ抽出部85により、ユー
ザの虹彩データと、携帯電話機1の方を向いているユー
ザ以外の人物の虹彩データが抽出された場合、また、ユ
ーザ以外の人物の虹彩データのみが抽出された場合、主
制御部71は、ステップS47において、抽出された虹
彩データと、メモリカード43に登録されている虹彩デ
ータが同一でない(同一でない虹彩データが含まれてい
る)と判定し、ステップS49に進む。
On the other hand, when the iris data extracting unit 85 extracts the iris data of the user and the iris data of the person other than the user who is facing the mobile phone 1, or only the iris data of the person other than the user. If is extracted, the main control unit 71 determines in step S47 that the extracted iris data and the iris data registered in the memory card 43 are not the same (including iris data that are not the same). , And proceeds to step S49.

【0087】ステップS49において、主制御部71
は、ユーザ以外の視線が検出されたことをCPU51に対
して通知する。その後、図9のステップS24におい
て、ユーザ以外の視線が検出されたことが判定され、上
述したように、ユーザに対する警告画面が表示される。
In step S49, the main controller 71
Notifies the CPU 51 that a line of sight other than the user has been detected. Then, in step S24 of FIG. 9, it is determined that the line of sight of the user other than the user is detected, and the warning screen for the user is displayed as described above.

【0088】次に、図12のフローチャートを参照し
て、図9のステップS23において実行される、撮影さ
れた画像上における人物の目の大きさに基づいて、ユー
ザ以外の人物が表示を見ているか否かを判定する携帯電
話機1の判定処理について説明する。
Next, referring to the flowchart of FIG. 12, a person other than the user looks at the display based on the size of the person's eyes on the photographed image, which is executed in step S23 of FIG. A determination process of the mobile phone 1 for determining whether or not there is will be described.

【0089】例えば、ユーザ以外の人物の目が広い領域
にわたって(大きく)撮影されている場合、LCD35の
表示が、ユーザ以外の人物により見られているおそれが
あり、撮影された目の大きさが所定の大きさ以上である
か否かに基づいて、ユーザ以外の人物が、表示を見てい
るか否かを判定することができる。
For example, when the eyes of a person other than the user are photographed (largely) over a wide area, the display of the LCD 35 may be seen by a person other than the user, and the size of the photographed eye may be different. Whether or not a person other than the user is watching the display can be determined based on whether or not the size is equal to or larger than a predetermined size.

【0090】ステップS61乃至ステップS64の処理
は、図11のステップS41乃至ステップS44の処理
と同様の処理である。すなわち、図9のステップS22
の処理において撮影された画像が画像取得部81により
取得され(ステップS61の処理)、取得されたデータ
に基づいて顔領域検出部82により人物の顔領域が検出
される(ステップS62の処理)。また、顔部品検出部
83により顔の画像データから各部品が検出され(ステ
ップS63の処理)、目画像取得部84により、目の画
像データが取得される(ステップS64の処理)。目画
像取得部84により取得された目の画像データは、主制
御部71に出力される。
The processing of steps S61 to S64 is the same as the processing of steps S41 to S44 of FIG. That is, step S22 of FIG.
The image captured by the image acquisition unit 81 is acquired by the process (step S61), and the face area detection unit 82 detects the face area of the person based on the acquired data (step S62). Further, the face part detection unit 83 detects each part from the face image data (process of step S63), and the eye image acquisition unit 84 acquires eye image data (process of step S64). The image data of the eyes acquired by the eye image acquisition unit 84 is output to the main control unit 71.

【0091】主制御部71は、ステップS65におい
て、目画像取得部84により取得され、供給されてきた
目の画像データに基づいて、撮影された画像上におけ
る、人物の目の大きさを算出する。
In step S65, the main control section 71 calculates the size of a person's eyes on the photographed image based on the eye image data acquired and supplied by the eye image acquiring section 84. .

【0092】ステップS66において、主制御部71
は、撮影された画像上における、人物の目の大きさを算
出した結果、所定の閾値以上の大きさの目が複数人分検
出されたか否か、すなわち、所定の大きさ以上の、ユー
ザ以外の人物の目が検出されたか否かを判定する。
In step S66, the main controller 71
Is the result of calculating the size of the eyes of a person in the captured image, and whether or not eyes of a size equal to or larger than a predetermined threshold are detected for a plurality of people, that is, other than the user of a size equal to or larger than the predetermined size. It is determined whether the person's eyes have been detected.

【0093】主制御部71は、ステップS66におい
て、所定の閾値以上の大きさの目が複数人分検出されて
いないと判定した場合、ステップS67に進み、ユーザ
以外の視線が検出されなかったことをCPU51に対して
通知する。
When the main control unit 71 determines in step S66 that the eyes of the size equal to or larger than the predetermined threshold have not been detected for a plurality of persons, the process proceeds to step S67, and the line of sight other than the user is not detected. To the CPU 51.

【0094】一方、主制御部71は、ステップS66に
おいて、所定の閾値以上の大きさの目が複数人分検出さ
れたと判定した場合、ステップS68に進み、ユーザ以
外の視線が検出されたことをCPU51に対して通知す
る。
On the other hand, if the main control section 71 determines in step S66 that a plurality of eyes having a size equal to or larger than the predetermined threshold value have been detected, then the process proceeds to step S68, in which it is determined that a line of sight other than the user has been detected. Notify the CPU 51.

【0095】その後、図9のステップS24以降の処理
が実行され、CPU51により、ユーザ以外の視線が検出
されたと判定され、警告画面が表示される。
After that, the processes from step S24 onward in FIG. 9 are executed, the CPU 51 determines that the line of sight of the user other than the user is detected, and the warning screen is displayed.

【0096】次に、図13のフローチャートを参照し
て、図9のステップS23において実行される、人物の
目までの距離に基づいて、ユーザ以外の人物が表示を見
ているか否かを判定する携帯電話機1の処理について説
明する。
Next, with reference to the flowchart in FIG. 13, it is determined whether or not a person other than the user is viewing the display based on the distance to the person's eyes, which is executed in step S23 in FIG. The processing of the mobile phone 1 will be described.

【0097】例えば、ユーザ以外の人物の目が撮影され
ており、撮影された目までの距離が近い場合、その人物
によりLCD35の表示が見られているおそれがあり、撮
影された目までの距離が、所定の距離以下であるか否か
に基づいて、ユーザ以外の人物が表示を見ているか否か
を判定することができる。
For example, when the eyes of a person other than the user are photographed and the distance to the photographed eye is short, the display on the LCD 35 may be viewed by that person, and the distance to the photographed eye is high. However, it can be determined whether or not a person other than the user is viewing the display based on whether or not the distance is equal to or less than the predetermined distance.

【0098】ステップS81乃至ステップS84の処理
は、図12のステップS61乃至ステップS64の処理
と同様の処理であり、重複する説明は適宜省略する。す
なわち、CCDカメラ33により撮影され、得られた画像
データが画像取得部81により取得され(ステップS8
1の処理)、取得された画像データに基づいて、顔領域
検出部82、顔部品検出部83、および目画像取得部8
4により各種の処理(ステップS82,S83,S84
の処理)がそれぞれ行われ、目画像取得部84により取
得された、人物の目の画像データが主制御部71に出力
される。
The processing of steps S81 to S84 is the same as the processing of steps S61 to S64 of FIG. 12, and duplicate explanations are omitted as appropriate. That is, the image data obtained by the CCD camera 33 is acquired by the image acquisition unit 81 (step S8).
1 process), based on the acquired image data, the face area detection unit 82, the face part detection unit 83, and the eye image acquisition unit 8
4 for various processing (steps S82, S83, S84
The image data of the person's eyes acquired by the eye image acquisition unit 84 is output to the main control unit 71.

【0099】ステップS85において、主制御部71
は、携帯電話機1から、撮影された人物の目までの距離
を算出する。例えば、複数の人物が撮影されている場
合、それぞれの人物の目までの距離が算出される。
In step S85, the main controller 71
Calculates the distance from the mobile phone 1 to the photographed person's eyes. For example, when a plurality of persons are photographed, the distance to each person's eyes is calculated.

【0100】ステップS86において、主制御部71
は、所定の距離内に、ユーザのもの以外の目が検出され
たか否かを判定する。例えば、図14に示されるよう
に、携帯電話機1を保持しているユーザの目E1までの
距離がXとされている場合、主制御部71は、距離2X
までの間に、ユーザ以外の目が検出されたか否かを判定
する。従って、図14の例においては、携帯電話機1の
左右方向の撮影範囲内であって、ユーザの目E1までの
距離Xから距離2Xまでの径方向の範囲内に、ユーザ以
外の人物の目E11が検出された場合、その人物により
LCD35の表示が見られていると判定される。すなわ
ち、上述した、目の大きさに基づいて他人の存在の有無
を判定する場合と同様に、携帯電話機1の近傍にユーザ
以外の人物の目が検出された場合、その人物によりLCD
35の表示が見られているおそれがある。
In step S86, the main controller 71
Determines whether an eye other than that of the user has been detected within a predetermined distance. For example, as shown in FIG. 14, when the distance to the eye E1 of the user holding the mobile phone 1 is X, the main control unit 71 causes the distance 2X.
Until then, it is determined whether eyes other than the user have been detected. Therefore, in the example of FIG. 14, the eye E11 of a person other than the user is within the imaging range of the mobile phone 1 in the left-right direction and within the radial range from the distance X to the user's eye E1 to the distance 2X. Is detected by the person
It is determined that the display on the LCD 35 is being viewed. That is, when the eyes of a person other than the user are detected in the vicinity of the mobile phone 1 as in the case of determining the presence / absence of another person based on the size of the eye as described above, the LCD is displayed by the person.
The display of 35 may be seen.

【0101】なお、携帯電話機1から距離2X以上離れ
た位置に、目E12が検出された場合、距離が離れすぎ
ているため、ユーザ以外の人物によりLCD35の表示が
見られていないと判定される。
When the eye E12 is detected at a position 2X or more away from the mobile phone 1, it is determined that the display on the LCD 35 is not viewed by a person other than the user because the distance is too large. .

【0102】主制御部71は、ステップS86におい
て、所定の距離内にユーザのもの以外の目が検出されて
いないと判定した場合、ステップS87に進み、ユーザ
以外の視線が検出されなかったことをCPU51に対して
通知する。
If the main control unit 71 determines in step S86 that no eyes other than the user's eyes have been detected within the predetermined distance, the process proceeds to step S87, in which no line of sight of the user is detected. Notify the CPU 51.

【0103】一方、主制御部71は、ステップS86に
おいて、所定の距離内にユーザのもの以外の目が検出さ
れたと判定した場合、ステップS88に進み、ユーザ以
外の視線が検出されたことをCPU51に対して通知す
る。その後、図9のステップS24以降の処理が実行さ
れ、CPU51により、ユーザ以外の視線が検出されたと
判定され、警告画面が表示される。
On the other hand, if the main control unit 71 determines in step S86 that an eye other than that of the user has been detected within the predetermined distance, the process proceeds to step S88, and the CPU 51 confirms that the line of sight of the user other than the user has been detected. Notify. After that, the processes after step S24 in FIG. 9 are executed, the CPU 51 determines that the line of sight of the user other than the user is detected, and the warning screen is displayed.

【0104】次に、図15のフローチャートを参照し
て、図9のステップS23において実行される、撮影さ
れた人物の目の方向に基づいて、ユーザ以外の人物が表
示を見ているか否かを判定する携帯電話機1の処理につ
いて説明する。
Next, referring to the flowchart of FIG. 15, it is determined whether or not a person other than the user is looking at the display based on the eye direction of the photographed person, which is executed in step S23 of FIG. The process of the mobile phone 1 for determination will be described.

【0105】例えば、図5に示されるような撮影範囲内
において、ユーザが本来存在する範囲(携帯電話機1の
正面の範囲)と近接する範囲の方向に人物の目が検出さ
れた場合、ユーザ以外の人物によりLCD35の表示が見
られているおそれがあり、ユーザ以外の人物の目の方向
が、ユーザの領域と近接する領域の方向であるか否かに
基づいて、ユーザ以外の人物が表示を見ているか否かを
判定することができる。
For example, in the shooting range as shown in FIG. 5, when the eyes of a person are detected in the direction of the range close to the range where the user originally exists (the range in front of the mobile phone 1), the user other than the user is detected. There is a possibility that the display of the LCD 35 is being viewed by a person other than the user, and the person other than the user displays the image based on whether the direction of the eyes of the person other than the user is the direction of the area close to the area of the user. You can determine whether you are watching.

【0106】ステップS101乃至ステップS104の
処理は、図12のステップS61乃至ステップS64の
処理と同様の処理であり、重複する説明は適宜省略す
る。すなわち、CCDカメラ33により撮影され、取得さ
れた画像データが画像取得部81により取得され(ステ
ップS101の処理)、取得された画像データに基づい
て、顔領域検出部82、顔部品検出部83、および目画
像取得部84により各種の処理(ステップS102,S
103,S104の処理)が行われ、目画像取得部84
により取得された人物の目の画像データが主制御部71
に出力される。
The processes of steps S101 to S104 are the same as the processes of steps S61 to S64 of FIG. 12, and the redundant description will be omitted as appropriate. That is, the image data captured and acquired by the CCD camera 33 is acquired by the image acquisition unit 81 (processing of step S101), and the face area detection unit 82, the face part detection unit 83, based on the acquired image data. And various processing by the eye image acquisition unit 84 (steps S102, S
103, S104), and the eye image acquisition unit 84
The image data of the eyes of the person acquired by the main control unit 71
Is output to.

【0107】ステップS105において、主制御部71
は、携帯電話機1の正面を基準とした、撮影された人物
の目の方向を検出する。例えば、複数の人物が撮影され
ている場合、それぞれの人物の目の方向が検出される。
In step S105, the main controller 71
Detects the direction of the eyes of the photographed person, with the front of the mobile phone 1 as a reference. For example, when a plurality of persons are photographed, the eye direction of each person is detected.

【0108】主制御部71は、ステップS106で、携
帯電話機1を保持するユーザの領域として設定されてい
るユーザ領域と近接する領域の方向に、人物の目が検出
されたか否かを判定する。
In step S106, the main control section 71 determines whether or not the eyes of a person are detected in the direction of the area close to the user area set as the area of the user holding the mobile phone 1.

【0109】例えば、図16に示されるように、携帯電
話機1を保持するユーザの領域として、携帯電話機1の
正面側(図の上下方向に示される一点鎖線を中心とし
た、左右の所定の角度の範囲)にユーザ領域A1が設定
され、CCDカメラ33による撮影範囲内であって、ユー
ザ領域A1を挟む領域(ユーザ領域A1と近接する領
域)が左右に、領域A2、領域A3とそれぞれ設定され
ている場合、主制御部71は、この領域A2および領域
A3の方向に、人物の目があるか否かを判定する。例え
ば、主制御部71は、図16に示される、領域A2にお
いてユーザ以外の人物の目E22を検出した場合、ユー
ザ以外の視線が検出されたと認識する。
For example, as shown in FIG. 16, as the area of the user who holds the mobile phone 1, the front side of the mobile phone 1 (a predetermined left and right angle around the one-dot chain line shown in the vertical direction in the figure) Area), the user area A1 is set, and areas within the shooting range of the CCD camera 33 that sandwich the user area A1 (areas close to the user area A1) are set to the left and right, area A2 and area A3, respectively. If so, the main control unit 71 determines whether or not there is a human eye in the direction of the area A2 and the area A3. For example, when the main control unit 71 detects the eye E22 of a person other than the user in the area A2 shown in FIG. 16, the main control unit 71 recognizes that the line of sight of the user other than the user has been detected.

【0110】主制御部71は、ステップS106におい
て、ユーザ領域と近接する領域の方向に、人物の目が検
出されていないと判定した場合、ステップS107に進
み、ユーザ以外の視線が検出されなかったことをCPU5
1に対して通知する。
When the main control unit 71 determines in step S106 that the eyes of the person are not detected in the direction of the area close to the user area, the process proceeds to step S107, and the line of sight of a user other than the user is not detected. That CPU5
Notify 1.

【0111】一方、主制御部71は、ステップS106
において、ユーザ領域と近接する領域の方向に、人物の
目が検出されたと判定した場合、ステップS108に進
み、ユーザ以外の視線が検出されたことをCPU51に対
して通知する。その後、図9のステップS24以降の処
理が実行され、警告画面が表示される。
On the other hand, the main control unit 71 causes the step S106.
When it is determined that the eyes of the person are detected in the direction of the area close to the user area, the process proceeds to step S108, and the CPU 51 is notified that a line of sight other than the user has been detected. After that, the processing after step S24 in FIG. 9 is executed, and the warning screen is displayed.

【0112】以上のように、様々な方法により、撮影さ
れた人物がユーザであるか否かを判定することができ、
上述したものの他、例えば、顔認識を行い、予め登録さ
れているユーザの顔の特徴データ、または、顔部品の特
徴データと比較することにより、ユーザ以外の人物によ
り表示が見られているか否かを判定させるようにしても
よい。これらの特徴データは、上述した虹彩データと同
様に、例えば、メモリカード43に予め登録される。
As described above, by various methods, it is possible to determine whether the photographed person is the user,
In addition to the above, for example, whether or not the display is viewed by a person other than the user by performing face recognition and comparing it with the face feature data of the user or the feature data of the face parts that are registered in advance. May be determined. Similar to the above-mentioned iris data, these characteristic data are registered in advance in the memory card 43, for example.

【0113】以上においては、携帯電話機1により他人
の存在が検出され、必要に応じて警告画面が表示される
としたが、以上の処理が、例えば、撮影部が設けられて
いるPDA(Personal Digital Assistants)や携帯型のパー
ソナルコンピュータなどの携帯端末において実行される
ようにしてもよい。
In the above description, the presence of another person is detected by the mobile phone 1 and a warning screen is displayed if necessary. However, the above processing is performed by, for example, a PDA (Personal Digital It may be executed in a mobile terminal such as Assistants) or a mobile personal computer.

【0114】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例え
ば、汎用のパーソナルコンピュータなどに、ネットワー
クや記録媒体からインストールされる。
The series of processes described above can be executed not only by hardware but also by software. When a series of processes is executed by software, a program that constitutes the software can execute various functions by installing a computer in which dedicated hardware is installed or various programs. Possible, for example, installed in a general-purpose personal computer from a network or a recording medium.

【0115】この記録媒体は、図3に示されるように、
装置本体とは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されている磁気ディス
ク62(フロッピディスクを含む)、光ディスク63
(CD-ROM(Compact Disk-Read Only Memory),DVD(Digit
al Versatile Disk)を含む)、光磁気ディスク64(MD
(登録商標)(Mini-Disk)を含む)、もしくはメモリカ
ード43などよりなるパッケージメディアにより構成さ
れるだけでなく、装置本体に予め組み込まれた状態でユ
ーザに提供される、プログラムが記録されているROM
や、記憶部に含まれるハードディスクなどで構成され
る。
This recording medium, as shown in FIG.
A magnetic disk 62 (including a floppy disk) on which a program is recorded, which is distributed to provide a program to a user separately from the apparatus main body, and an optical disk 63.
(CD-ROM (Compact Disk-Read Only Memory), DVD (Digit
al Versatile Disk), magneto-optical disk 64 (MD
(Registered trademark (including Mini-Disk)), or a package medium including a memory card 43, etc. ROM
Or a hard disk included in the storage unit.

【0116】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
In the present specification, the steps for describing the program recorded on the recording medium are not limited to the processing performed in time series according to the order described, but are not necessarily performed in time series, but may be performed in parallel. Alternatively, it also includes processes that are individually executed.

【0117】[0117]

【発明の効果】以上のように、本発明によれば、携帯電
話機のユーザと異なる人物の存在を検出することができ
る。
As described above, according to the present invention, the presence of a person different from the user of the mobile phone can be detected.

【0118】また、本発明によれば、携帯端末に表示さ
れている情報が他人に見られることを、より効果的に防
止できる。
Further, according to the present invention, it is possible to more effectively prevent others from seeing the information displayed on the portable terminal.

【0119】さらに、本発明によれば、画面の表示を中
断させた場合であっても、直前の画面の状態を保存させ
ることができる。
Further, according to the present invention, the state of the immediately preceding screen can be saved even when the display of the screen is interrupted.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用した携帯電話機の外観の構成例を
示す斜視図である。
FIG. 1 is a perspective view showing an example of the external configuration of a mobile phone to which the present invention has been applied.

【図2】図1のカメラ部の裏側の構成例を示す斜視図で
ある。
FIG. 2 is a perspective view showing a configuration example of the back side of the camera unit in FIG.

【図3】図1の携帯電話機の内部の構成例を示すブロッ
ク図である。
FIG. 3 is a block diagram showing an internal configuration example of the mobile phone of FIG.

【図4】図3のカメラ制御部の構成例を示すブロック図
である。
FIG. 4 is a block diagram showing a configuration example of a camera control unit in FIG.

【図5】図1の携帯電話機の撮影範囲の例を示す図であ
る。
5 is a diagram showing an example of a shooting range of the mobile phone of FIG.

【図6】図1の携帯電話機の撮影範囲の他の例を示す図
である。
FIG. 6 is a diagram showing another example of a shooting range of the mobile phone of FIG.

【図7】図4の画像処理部の構成例を示すブロック図で
ある。
7 is a block diagram showing a configuration example of an image processing unit in FIG.

【図8】図1の携帯電話機の登録処理を説明するフロー
チャートである。
8 is a flowchart illustrating a registration process of the mobile phone of FIG.

【図9】図1の携帯電話機の検出処理を説明するフロー
チャートである。
9 is a flowchart illustrating a detection process of the mobile phone of FIG.

【図10】LCDの表示例を示す図である。FIG. 10 is a diagram showing a display example of an LCD.

【図11】図1の携帯電話機の判定処理を説明するフロ
ーチャートである。
11 is a flowchart illustrating a determination process of the mobile phone of FIG.

【図12】図1の携帯電話機の他の判定処理を説明する
フローチャートである。
12 is a flowchart illustrating another determination process of the mobile phone of FIG.

【図13】図1の携帯電話機のさらに他の判定処理を説
明するフローチャートである。
13 is a flowchart illustrating still another determination process of the mobile phone of FIG.

【図14】図1の携帯電話機により撮影された人物の目
の位置の例を示す図である。
FIG. 14 is a diagram showing an example of the positions of the eyes of a person photographed by the mobile phone of FIG.

【図15】図1の携帯電話機の判定処理を説明するフロ
ーチャートである。
15 is a flowchart illustrating a determination process of the mobile phone of FIG.

【図16】図1の携帯電話機により撮影された人物の目
の位置の他の例を示す図である。
16 is a diagram showing another example of the positions of the eyes of a person photographed by the mobile phone of FIG.

【符号の説明】[Explanation of symbols]

1 携帯電話機, 33 CCDカメラ, 35 LCD,
42 メモリカード,51 CPU, 55 表示制御
部, 56 カメラ制御部, 58 折り畳み検出部,
71 主制御部, 74 画像処理部, 84 目画
像検出部, 85 虹彩データ抽出部
1 mobile phone, 33 CCD camera, 35 LCD,
42 memory card, 51 CPU, 55 display control unit, 56 camera control unit, 58 fold detection unit,
71 main control unit, 74 image processing unit, 84 eye image detecting unit, 85 iris data extracting unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA19 BA02 CA12 CA16 DA06 DB02 DC01 DC36 5K027 AA11 BB01 FF01 FF22 HH29 5K067 AA30 BB04 EE02 FF23 KK17 5L096 BA02 CA02 DA03 FA00 JA11   ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B057 AA19 BA02 CA12 CA16 DA06                       DB02 DC01 DC36                 5K027 AA11 BB01 FF01 FF22 HH29                 5K067 AA30 BB04 EE02 FF23 KK17                 5L096 BA02 CA02 DA03 FA00 JA11

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 近傍に存在する人物の特徴を検出し、そ
れに対応する特徴情報を出力する検出手段と、 前記検出手段により出力された前記特徴情報に基づい
て、携帯端末のユーザと異なる人物により、前記携帯端
末の表示が目視されているか否かを判定する判定手段
と、 前記判定手段により、前記携帯端末のユーザと異なる人
物により、前記表示が目視されていると判定された場
合、警告を出力する警告手段とを備えることを特徴とす
る携帯端末。
1. A detecting means for detecting a characteristic of a person existing in the vicinity and outputting characteristic information corresponding to the characteristic, and a person different from a user of a mobile terminal based on the characteristic information output by the detecting means. When the display of the mobile terminal is determined to be viewed by a person different from the user of the mobile terminal, a warning is issued when the display of the mobile terminal is viewed. A mobile terminal, comprising: a warning unit for outputting.
【請求項2】 被写体を撮影する撮影手段をさらに備
え、 前記検出手段は、前記撮影手段により撮影された画像に
基づいて、前記特徴を検出することを特徴とする請求項
1に記載の携帯端末。
2. The mobile terminal according to claim 1, further comprising: photographing means for photographing a subject, wherein the detecting means detects the characteristic based on an image photographed by the photographing means. .
【請求項3】 前記携帯端末のユーザの第1の特徴情報
を記憶する記憶手段をさらに備え、 前記検出手段は、前記撮影手段により撮影された人物の
特徴を検出し、それに対応する第2の特徴情報を出力
し、 前記判定手段は、前記記憶手段により記憶されている前
記第1の特徴情報と、前記検出手段により出力された前
記第2の特徴情報が同一であるか否かに基づいて、前記
携帯端末のユーザと異なる人物により、前記表示が目視
されているか否かを判定することを特徴とする請求項2
に記載の携帯端末。
3. A storage unit for storing first characteristic information of a user of the mobile terminal, wherein the detection unit detects a characteristic of a person photographed by the photographing unit, and a second characteristic corresponding thereto is detected. Outputting the characteristic information, and the determining means is based on whether the first characteristic information stored by the storage means and the second characteristic information output by the detecting means are the same. 3. It is determined whether or not the display is viewed by a person different from the user of the mobile terminal.
The mobile terminal described in.
【請求項4】 前記第1の特徴情報は、前記携帯端末の
ユーザの虹彩のパターンに関する情報であり、 前記第2の特徴情報は、前記被写体として撮影された人
物の虹彩のパターンに関する情報であることを特徴とす
る請求項3に記載の携帯端末。
4. The first feature information is information about an iris pattern of a user of the mobile terminal, and the second feature information is information about an iris pattern of a person photographed as the subject. The mobile terminal according to claim 3, wherein the mobile terminal is a mobile terminal.
【請求項5】 前記検出手段は、前記特徴情報として、
前記撮影手段により撮影された画像上における、人物の
目の大きさを検出し、 前記判定手段は、前記検出手段により、所定の大きさ以
上の目が、複数人分検出されたか否かに基づいて、前記
携帯端末のユーザと異なる人物により、表示が目視され
ているか否かを判定することを特徴とする請求項2に記
載の携帯端末。
5. The detecting means, as the characteristic information,
The size of a person's eyes on the image captured by the image capturing unit is detected, and the determination unit determines whether or not the detection unit detects eyes of a predetermined size or more for a plurality of persons. The mobile terminal according to claim 2, wherein it is determined whether or not the display is viewed by a person different from the user of the mobile terminal.
【請求項6】 前記検出手段は、前記特徴として、前記
撮影手段により撮影された画像に基づいて、人物の目ま
での距離を検出し、 前記判定手段は、前記検出手段により、所定の距離内
に、複数の人物の目が存在することが検出されたか否か
に基づいて、前記携帯端末のユーザと異なる人物によ
り、前記表示が目視されているか否かを判定することを
特徴とする請求項2に記載の携帯端末。
6. The detecting means detects the distance to a person's eyes based on the image photographed by the photographing means as the characteristic, and the judging means causes the detecting means to detect a distance within a predetermined distance. 7. It is determined whether or not the display is visually observed by a person different from the user of the mobile terminal based on whether or not the presence of a plurality of persons' eyes is detected. The mobile terminal according to 2.
【請求項7】 前記検出手段は、前記特徴として、前記
撮影手段により撮影された画像に基づいて、前記携帯端
末から見た人物の目の方向を検出し、 前記判定手段は、前記検出手段により、前記携帯端末の
ユーザの領域と近接する所定の領域の方向に、人物の目
があることが検出されたか否かに基づいて、前記携帯端
末のユーザと異なる人物により、前記表示が目視されて
いるか否かを判定することを特徴とする請求項2に記載
の携帯端末。
7. The detecting means detects the direction of a person's eyes viewed from the mobile terminal based on an image captured by the capturing means, and the determining means uses the detecting means. , The display is visually observed by a person different from the user of the mobile terminal based on whether or not a person's eyes are detected in the direction of a predetermined area close to the area of the user of the mobile terminal. The mobile terminal according to claim 2, wherein it is determined whether or not the mobile terminal is present.
【請求項8】 前記警告手段は、前記警告として、所定
の色の画面を表示することを特徴とする請求項1に記載
の携帯端末。
8. The mobile terminal according to claim 1, wherein the warning unit displays a screen of a predetermined color as the warning.
【請求項9】 前記警告手段は、前記警告として、前記
表示の中断を指示し、 前記警告手段による指示に応じて表示が中断されたと
き、前記表示の内容を保存する保存手段をさらに備える
ことを特徴とする請求項1に記載の携帯端末。
9. The warning means further comprises storage means for, as the warning, instructing interruption of the display, and saving the content of the display when the display is interrupted in response to the instruction from the warning means. The mobile terminal according to claim 1, wherein the mobile terminal is a mobile terminal.
【請求項10】 前記携帯端末は、折り畳み可能に形成
され、 前記警告手段は、前記表示の中断を指示する警告とし
て、前記携帯端末の折り畳みを指示することを特徴とす
る請求項9に記載の携帯端末。
10. The portable terminal is formed so as to be foldable, and the warning means instructs folding of the portable terminal as a warning for instructing interruption of the display. Mobile terminal.
JP2002066234A 2002-03-12 2002-03-12 Mobile terminal Withdrawn JP2003264877A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002066234A JP2003264877A (en) 2002-03-12 2002-03-12 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002066234A JP2003264877A (en) 2002-03-12 2002-03-12 Mobile terminal

Publications (1)

Publication Number Publication Date
JP2003264877A true JP2003264877A (en) 2003-09-19

Family

ID=29198121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002066234A Withdrawn JP2003264877A (en) 2002-03-12 2002-03-12 Mobile terminal

Country Status (1)

Country Link
JP (1) JP2003264877A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031287A (en) * 2004-07-14 2006-02-02 Toshiba Corp Automatic transaction device
JP2006259930A (en) * 2005-03-15 2006-09-28 Omron Corp Display device and its control method, electronic device equipped with display device, display device control program, and recording medium recording program
WO2007004536A1 (en) * 2005-07-04 2007-01-11 Nec Corporation Information processing device and information processing method
JP2007249466A (en) * 2006-03-15 2007-09-27 Konica Minolta Holdings Inc Authentication system, controller and control method
JP2008244753A (en) * 2007-03-27 2008-10-09 Oki Electric Ind Co Ltd Peeping prevention method and peeping prevention device
JP2010128778A (en) * 2008-11-27 2010-06-10 Sony Ericsson Mobilecommunications Japan Inc Information display device, peep prevention method for the information display device and peep prevention program
JP2010177971A (en) * 2009-01-28 2010-08-12 Kyocera Corp Mobile terminal
JP2011029881A (en) * 2009-07-24 2011-02-10 Softbank Mobile Corp Portable information processing apparatus, portable information processing method and portable information processing program
JP2012203610A (en) * 2011-03-25 2012-10-22 Mitsubishi Electric Information Systems Corp Display device and display program
JP2017090553A (en) * 2015-11-04 2017-05-25 日本電信電話株式会社 Risk reduction system utilizing visual line, risk reduction device utilizing visual line, risk reduction method utilizing visual line

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031287A (en) * 2004-07-14 2006-02-02 Toshiba Corp Automatic transaction device
JP2006259930A (en) * 2005-03-15 2006-09-28 Omron Corp Display device and its control method, electronic device equipped with display device, display device control program, and recording medium recording program
WO2007004536A1 (en) * 2005-07-04 2007-01-11 Nec Corporation Information processing device and information processing method
JP2007249466A (en) * 2006-03-15 2007-09-27 Konica Minolta Holdings Inc Authentication system, controller and control method
JP2008244753A (en) * 2007-03-27 2008-10-09 Oki Electric Ind Co Ltd Peeping prevention method and peeping prevention device
JP2010128778A (en) * 2008-11-27 2010-06-10 Sony Ericsson Mobilecommunications Japan Inc Information display device, peep prevention method for the information display device and peep prevention program
JP2010177971A (en) * 2009-01-28 2010-08-12 Kyocera Corp Mobile terminal
JP2011029881A (en) * 2009-07-24 2011-02-10 Softbank Mobile Corp Portable information processing apparatus, portable information processing method and portable information processing program
JP2012203610A (en) * 2011-03-25 2012-10-22 Mitsubishi Electric Information Systems Corp Display device and display program
JP2017090553A (en) * 2015-11-04 2017-05-25 日本電信電話株式会社 Risk reduction system utilizing visual line, risk reduction device utilizing visual line, risk reduction method utilizing visual line

Similar Documents

Publication Publication Date Title
EP2553820B1 (en) Method and apparatus for determining interaction mode
US8170478B2 (en) Cell phone terminal, method for starting data processing, method for transferring data
JP4471898B2 (en) Portable information terminal device
CN110543287B (en) Screen display method and electronic equipment
JP4284309B2 (en) Emergency operation execution method and electronic device
CN106529339A (en) Picture display method, device and terminal
CN109040419B (en) Screen recording method and device, mobile terminal and storage medium
CN109040351B (en) Camera control method and device, mobile terminal and storage medium
JP2005045587A (en) Mobile information terminal device and display control method therefor
JP2003264877A (en) Mobile terminal
CN109523253A (en) A kind of method of payment and device
CN110060062B (en) Information exchange method after wearable device is lost, wearable device and storage medium
JP2007067783A (en) Information communication terminal
CN106412481B (en) Reminding method, device and terminal based on VoLTE video calling
CN110827830B (en) Voiceprint recognition method, voiceprint recognition device, terminal and storage medium based on voice data
JP2013115633A (en) Information terminal and control program for the same
CN109460649A (en) A kind of document handling method and terminal device
CN109769069B (en) Reminding method, wearable device and computer readable storage medium
JP5783441B2 (en) Input device and input method
JP5472006B2 (en) Information processing apparatus having communication function
CN111556188B (en) Call method, device, electronic equipment and medium
CN114189574B (en) Call forwarding identification method, device, terminal and storage medium in anti-fraud early warning process
EP4318281A1 (en) Unlocking method and electronic device
US20090284636A1 (en) Device for displaying taken image and method of displaying taken image
JP2001194164A (en) Navigation device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607