JP7473671B2 - 携帯端末装置 - Google Patents

携帯端末装置 Download PDF

Info

Publication number
JP7473671B2
JP7473671B2 JP2022556306A JP2022556306A JP7473671B2 JP 7473671 B2 JP7473671 B2 JP 7473671B2 JP 2022556306 A JP2022556306 A JP 2022556306A JP 2022556306 A JP2022556306 A JP 2022556306A JP 7473671 B2 JP7473671 B2 JP 7473671B2
Authority
JP
Japan
Prior art keywords
terminal device
image
mobile terminal
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022556306A
Other languages
English (en)
Other versions
JPWO2022085127A1 (ja
Inventor
仁 秋山
義憲 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2022085127A1 publication Critical patent/JPWO2022085127A1/ja
Application granted granted Critical
Publication of JP7473671B2 publication Critical patent/JP7473671B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0214Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Description

本発明は、被写体を撮像する撮像機能を有する携帯端末装置に関する。
カメラ、電話機、メモやスケジュール等の情報管理の機能を有する携帯端末装置は、おおむね手のひらサイズで撮像した画像や各種情報を表示画面に表示でき、また通話も可能であり、使い勝手がよく広く普及している。
従来の携帯端末装置では、液晶などからなるフラットパネルディスプレイを携帯端末装置の表面に備えているが、近年、柔軟性があって折り曲げて折畳むことができるフレキシブルディスプレイを用いた携帯端末装置が出現している。折畳みディスプレイを搭載した携帯端末装置は、開いた状態で完全に1枚のディスプレイとして利用できるため、表示画面の大画面化を可能にしている。フレキシブルディスプレイとしては、液晶パネル等で使用されている曲げが困難なガラス基板に対し、曲げやすいプラスチック基板を用いた有機エレクトロ・ルミネッセンス(Organic Electro Luminescence:有機EL)などが採用されている。形状としては、折畳んだ携帯端末装置の内側の両面にディスプレイがある内折りタイプに加えて、携帯端末装置を折畳んだ際に外側の両面にディスプレイがある外折りタイプも出てきており、一層の普及が見込まれている。
また、カメラによる撮像機能の高機能化はますます進み、画素数の増大、トリプルレンズ化、光学ズームの倍率アップなど、飛躍的な進化を遂げており、誰でも手軽に綺麗なカメラ撮影が行えるようになってきている。
しかしながら、人に撮影される場合や人を撮影する機会は多いが、その際に自分がどのように写っているかは、撮影の最中には、わかりにくく、撮影後に見せてもらうまで判らないということがある。
この点に関し、カメラの撮像画像を撮影者が見る正面のメイン表示部と背面のサブ表示部の両方に表示し、被撮影者は、背面のサブ表示部を見て写り具合を確認する技術が知られている。
例えば、特許文献1(特開2004-15770号公報)には、「撮像対象を撮像するレンズと撮像素子とを含むカメラを搭載した携帯端末装置において、レンズを設けた側と同じ側に設けた第1の画面と、レンズを設けた側と異なる側に設けた第2の画面と、被撮像対象にレンズを向けて撮像した画像を第1の画面および第2の画面に表示する手段を備える」技術が記載されている。また、特許文献2(特開2004-187182号公報)には、「筐体の表面に第1のカメラと第1の表示部とを有し、筐体の裏面に第2のカメラと第2の表示部とを有し、第1のカメラまたは第2のカメラでの撮像画像を選択し、第1の表示部と第2の表示部に表示するとき、選択されたカメラと同じ側に配置した表示部に鏡像表示を行う」技術が記載されている。すなわち、被撮影者から見えるサブ表示部を設けて被撮影者が自分の写り具合を視認できるようにする技術である。
特開2004-15770号公報 特開2004-187182号公報
上述した特許文献1や特許文献2では、被撮影者から見えるサブ表示部を設けて被撮影者が自分の写り具合を視認することについて記載されているものの、折畳みディスプレイを搭載した携帯端末装置については何ら記載も示唆もされていない。また、被撮影者がサブ表示部を見ていない場合にもカメラの撮像画像をサブ表示部に不必要に表示してしまうため、無駄に消費電力の増加を招くことになり、携帯端末装置の使用動作時間が必要以上に短くなる。また、被撮影者側から見えるサブ表示部に撮像画像を表示すると、撮像される被撮影者とは関係ない人にまで撮像画像を見せてしまうことになる。
本願発明は、撮像機能を備える携帯端末装置において、不必要な表示を行わずに消費電力を低減できるとともに、被撮影者は自分がどのように写っているかについて自分の写り具合を撮像されている最中に容易に視認できる使い勝手の良い携帯端末装置を提供することを目的とする。
携帯端末装置は、被撮影者を撮像するように構成された撮像部と、撮像部で撮像された画像を表示するように構成された第1表示部と、画像を処理した処理画像を表示するように構成された第2表示部と、被撮影者の視線方向を検出するように構成された視線方向検出部と、視線方向検出部による検出結果に基づいて、被撮影者が携帯端末装置の存在方向を向いているか否かを判断するように構成された判断部と、判断部の判断結果に基づいて、第2表示部における処理画像の表示/非表示を制御するように構成された制御部と、を備える。ここで、第1表示部は、撮影者が視認可能な位置に設けられ、第2表示部は、被撮影者が視認可能な位置に設けられている。そして、制御部は、判断部において被撮影者が携帯端末装置の存在方向を向いていると判断された場合、処理画像を第2表示部に表示するように構成されている一方、判断部において被撮影者が携帯端末装置の存在方向を向いていないと判断された場合、処理画像を非表示にするように構成されている。
一実施の形態によれば、折畳みディスプレイを搭載した携帯端末装置にあって、不必要な表示を行わずに消費電力を低減できるとともに、被撮影者は自分がどのように写っているか自分の写り具合を撮影されている最中に容易に視認できる使い勝手の良い携帯端末装置を実現することができる。
携帯端末装置の外観を模式的に示す図である。 携帯端末装置を折り畳んだ状態において、撮像者側からの外観を模式的に示す図である。 携帯端末装置を折り畳んだ状態において、被撮像者側からの外観を模式的に示す図である。 携帯端末装置の構成を示すブロック図である。 折畳み状態を検出する構成を示す図である。 携帯端末装置の機能構成を示す機能ブロック図である。 実施の形態1における動作を説明するフローチャートである。 実施の形態2における動作を説明するフローチャートである。 縦折り構造の携帯端末装置を模式的に示す図である。 縦折り構造の携帯端末装置を模式的に示す図である。 被撮影者側の表示部を示す図である。 被撮影者側の処理画像を表示部に拡大して示す図である。 撮影者側の表示部を示す図である。 被撮影者側の表示部を示す図である。 被撮影者側の処理画像の一部を拡大して示す図である。 撮影者側の表示部を示す図である。 撮影者側の表示部に被撮像者の一部を示す図である。 被撮影者側の表示部を示す図である。 被撮影者側の表示部を示す図である。 (a)~(c)は、実施の形態6を説明する図である。 撮影者側の表示部を示す図である。 実施の形態7を説明する図である。 実施の形態8を説明する図である。 実施の形態8を説明する図である。 実施の形態8の他の例を説明する図である。 実施の形態8の他の例を説明する図である。
実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。なお、図面をわかりやすくするために平面図であってもハッチングを付す場合がある。
(実施の形態1)
<携帯端末装置の外観構成>
図1は、携帯端末装置の外観構成を模式的に示す図である。
図1において、携帯端末装置100は、カメラ(撮像部)101、深度センサ102、第1の左目視線検出器103a、第1の右目視線検出器104a、カメラ動作スイッチ105、折畳み可能なディスプレイ106を有する。
カメラ101は、周囲の人物や景色を撮影するように構成されている。
深度センサ102は、人や物などの対象物の形状を立体として捉えるセンサであり、対象物までの距離や角度を測定できるように構成されている。
第1の左目視線検出器103aおよび第1の右目視線検出器104aは、カメラ101で撮影された被撮影者130の左目および右目の動きをそれぞれ検出する機能を有し、左目と右目の両方の視線を検出して、立体的に視線先を識別できる。第1の左目視線検出器103aと第1の右目視線検出器104aの配置は、カメラ101で撮影される際、一般的に正立している被撮影者の左目および右目の並び方向と同じ並び方向になるように設けられ、より正確な視線検出が可能になる。なお、視線検出器は、1つでもよく、携帯端末装置100から被撮影者が比較的離れている場合、両目の視線検出に近い性能を得ることができる。
カメラ動作スイッチ105は、撮影者がカメラ101での撮影を開始あるいは停止する際に押すスイッチである。
携帯端末装置100を折畳んで撮影する場合は、カメラ101が被撮影者を向く方向に折畳まれる。ディスプレイ106は、被撮影者側から見える表示部(第2表示部)107と、撮影者側から見える表示部(第1表示部)108と、折畳みヒンジ部分で折畳んだ状態の時には表示を行わない非表示部109に分けて構成される。
図2は、携帯端末装置が折畳まれた状態において、撮影者側から見た概観を示す図である。図2に示す状態において、撮影者140がカメラ動作スイッチ105を操作して撮影を開始すると、ディスプレイ106のうち、撮影者140側の表示部108には、カメラ101で撮影された画像113がそのままの正像で表示される。
図3は、携帯情報端末が折畳まれた状態において、被撮影者側から見た概観を示す図である。ディスプレイ106のうち、被撮影者130側の表示部107には、画像113を画像処理した処理画像が表示される。具体的に、表示部107には、画像113に対して左右逆の鏡像である鏡像画像115が表示される。このことから、携帯端末装置100が折畳まれた状態では、撮影者140は、撮影者140側の表示部108に表示されている画像113を見ることによって、撮影している被撮影者130などを確認できる(図2参照)。一方、被撮影者130は、被撮影者130側の表示部107に表示されている鏡像画像115を見ることによって、撮影されている自分の姿を見ることができる。したがって、被撮影者130は、自分がどのように写っているかという自分の写り具合を撮影されている最中に容易に視認することが可能になる。
なお、カメラ101での撮影を開始させるカメラ動作スイッチ105に代えて、撮影者140側の表示部108上に表示したソフトウェアボタン(図示せず)を用いてもよい。また、被撮影者130側の表示部107に鏡像画像115ではなくて画像113を表示することも可能で、入力設定により切り替えることができるようにしてもよい。
<携帯端末装置の構成>
図4は、携帯端末装置の構成例を示すブロック図である。
図4において、携帯端末装置100は、カメラ101、深度センサ102、第1の左目視線検出器103a、第2の左目視線検出器103b、第1の右目視線検出器104a、第2の右目視線検出器104b、カメラ動作スイッチ105、ディスプレイ106、折畳み状態検出器201、加速度センサ202、ジャイロセンサ203、地磁気センサ204、制御部205、プログラム206と情報データ207が記憶されたメモリ208、タッチパネル209、マイク210、スピーカー211、振動発生器212、通信インタフェース213、送受信アンテナ214を適宜用いて構成され、各構成部は送受信アンテナ214を除いて、バス215を介して相互に接続されている。
カメラ101は、前方周囲の視界視野状態を撮影するもので、折畳み状態に関わらず、前方の被撮影者を撮影できる。
深度センサ102は、人や物などの対象物の形状を立体として捉えることができるセンサで、対象物までの距離や角度を測定することができる。赤外線などのレーザー光を対象物に照射し、はね返ってくる散乱光を測定し遠距離にある対象物までの距離やその対象物の状態を分析検出するLiDAR(Light Detection and Ranging)や、被写体に照射したパルス光の反射時間を画素ごとに計測して測距を行うTOF(Time of Flight)センサ、ミリ波の電波を発射しその反射波を捉まえて反射している対象物までの距離や対象物の状態を検出するミリ波レーダーなどが用いられる。
深度センサ102は、人物を検出し、検出した人物の顔の中から両目を識別する人物検出両目識別処理手段の一つの構成例である。これにより、被撮影者がカメラ101で撮影されている状態で、被撮影者を人物として捉え、その顔の中の左目と右目を見出して識別することが可能になる。
第1の左目視線検出器103a、第2の左目視線検出器103b、第1の右目視線検出器104a、第2の右目視線検出器104bは、それぞれ右目や左目の動きや向きを捉えて視線を検出する。
なお、視線を検出する処理は、アイトラッキング処理として一般的に用いられている技術を利用することができる。例えば、角膜反射を利用した方法として、赤外線LED(Light Emitting Diode)を顔に照射して赤外線カメラで撮影し、赤外線LEDを照射することにより射出された反射光の角膜上の位置(角膜反射)を基準点とし、角膜反射の位置に対する瞳孔の位置に基づいて視線を検出する技術が知られている。また、可視光カメラで目を写すことにより、基準点を目頭とし、かつ、動点を虹彩にして、目頭に対する虹彩の位置に基づいて視線を検出する方法も知られている。
図3に示すように、携帯端末装置100のディスプレイ106が横折れの場合、携帯端末装置100上で水平並びに位置する第1の左目視線検出器103aと第1の右目視線検出器104bは、一般的に正立姿勢で撮影される被撮影者の両目の並びと概略同方向となり、より正確な視線検出が得られる。
折畳み状態検出器201は、例えば、一対のホール素子と一対の磁石からなり、携帯端末装置100の両端面が接近して携帯端末装置100が折畳まれた状態であるか否かを検出するものである。ホール素子は、ホール効果を用いて磁束密度を計測するセンサであり、磁石が近づくと強い磁束密度を計測して磁石の接近を検出できる。また、折畳み状態検出器201としては、ホール素子を用いた構成以外に、例えば、磁界がかかると抵抗値が変化する磁気抵抗効果を利用した磁気抵抗素子などを用いることもできる。
図5は、折畳み状態検出器201の詳細な構造を説明する図である。
図5に示すように、携帯端末装置100は、折畳まれる一方の端面部分にホール素子301およびホール素子302と、もう片方の端面部分に磁石303および磁石304を備える。ホール素子は、ホール効果を用いて磁束密度を計測するセンサであり、磁石が近づくと強い磁束密度を計測して磁石の接近を検出できるものである。携帯端末装置100が折畳まれると、携帯端末装置100の両端面は近づく。これにより、ホール素子301は、磁石303からの強い磁束密度を計測して携帯端末装置100の両端面の接近を検出する。同様に、ホール素子302は、磁石304からの強い磁束密度を計測して携帯端末装置100の両端面の接近を検出する。したがって、ホール素子301およびホール素子302と磁石303および磁石304により、携帯端末装置100の両端面が接近状態にあるか否か、すなわち、携帯端末装置100が折畳まれた状態であるか否かを検出することができる。
なお、携帯端末装置100の両端面が接近して携帯端末装置100が折畳まれた状態であるか否かを検出する折畳み状態検出器201としては、図5で説明したホール素子を用いた構成以外の構成を用いることもできる。例えば、磁界がかかると抵抗値が変化する磁気抵抗効果を利用した磁気抵抗素子などを用いることもできるし、携帯端末装置100のヒンジ部に組み込まれた電気スイッチを用いることもできる。
図4において、加速度センサ202は、動き・振動・衝撃などを捉えるセンサであり、携帯端末装置100の傾きや方向を検知することができる。
ジャイロセンサ203は、回転方向の角速度を検出するセンサであり、縦・横・斜めの姿勢の状態を捉えることができる。
地磁気センサ204は、地球の磁力を検出するセンサであり、携帯端末装置100の向いている方向を検出する。なお、前後方向と左右方向に加え上下方向の地磁気も検出する3軸タイプを用いて、携帯端末装置100の動きに対する地磁気変化を捉まえることにより、携帯端末装置100の動きを検出することも可能である。
制御部205は、CPU等で構成され、メモリ208に記憶されているオペレーティングシステム(Operating System:OS)や動作制御用アプリケーションなどのプログラム206を実行することによって、各構成部を制御して、携帯端末装置100全体の動作制御処理を行っている。
例えば、携帯端末装置100が折畳まれた状態でカメラ101が撮影動作になったとき、視線検出器で検出した被撮影者の視線先が被撮影者側の表示部107やカメラ101、あるいは、少なくとも携帯端末装置100自体を向いていることを識別すると、被撮影者側の表示部107にカメラ101で撮影された画像を画像処理した鏡像画像115を表示するように制御する。一方、被撮影者の視線先が被撮影者側の表示部107やカメラ101、あるいは、携帯端末装置100自体を向いていないことを識別すると、被撮影者側の表示部107を非表示状態にするように制御する。また、撮影者側の表示部108には被撮影者をカメラ101で撮影されたカメラ画像113のままの正像で表示するように制御する。
メモリ208は、フラッシュメモリなどで構成され、オペレーティングシステムや制御部205が使用する動作制御用アプリケーションなどのプログラム206を記憶している。また、携帯端末装置100で取り扱われる画像、音声、信号などの情報データ207を記憶している。情報データ207としては、例えば、カメラ101で撮影された画像データを挙げることができる。
ディスプレイ106は、折り曲げることができるフレキシブルな表示パネルで構成され、携帯端末装置100を折畳んだ際の外側両面に配置されている。フレキシブルな表示パネルとしては、曲げやすいプラスチック基板を用いた有機ELパネルなどが採用されている。
携帯端末装置100を折畳んだ状態では、被撮影者から見える表示部107と撮影者から見える表示部108に各々分けて別々の画像を表示する。一方、開いた状態では、完全に1枚のディスプレイになり大きな表示部を実現できるものである。また、ディスプレイ106は、画像や映像の表示とともに、入力操作を示す画面の表示や、バッテリー残量、各種アラーム、時刻などユーザーへの通知情報の表示や、表示画面内に起動するアプリケーションのアイコン表示などを行う。
タッチパネル209は、透明性の高い材質で構成され、指で触れた画面上の位置や面積を検出するものである。タッチパネル209は、ディスプレイ106の上層に重なるようにして携帯端末装置100の表面に設けられており、ディスプレイ106の表示面上でタッチされた位置を検出できる。
また、タッチパネル209は、ディスプレイ106に表示された表示物を見ながらタッチパネル209に触れて入力操作を行うことができる入力操作部を構成し、指やタッチペンなどによる接近または接触操作を操作入力として検出できる。例えば、被撮影者側の表示部107に複数の被撮影者が写っているときに特定の被撮影者の表示位置をタッチして入力情報として取り込むことができる。また、表示画面上にある指示情報を示すアイコンやアプリケーションやファイルのアイコンをタッチ操作により容易に選択して指定入力することもできる。
マイク210は、外部からの音声やユーザー自身の発声を集音する。
スピーカー211は、外部に対して音声を出力し、携帯端末装置100を保持している撮影者等に通知情報などを音声で知らせる。例えば、被撮影者が被撮影者側の表示部を注視していることを視線検出器で検出識別したときに、この被撮影者の注視状態を音声で通知することにより、撮影者は被撮影者の注視状態を容易に認識することが可能となる。
振動発生器212は、制御部205からの制御指示によって振動を発生させるもので、携帯端末装置100で発信された通知情報を振動に変換して、携帯端末装置100を保持している撮影者に振動で通知情報を知らせることができる。例えば、被撮影者が被撮影者側の表示部を注視していることを視線検出器で検出したときに、この被撮影者の注視状態を振動で撮影者に通知することにより、撮影者は被撮影者の注視状態を確実に認識できる。
通信インタフェース213は、近距離無線通信、無線LANあるいは基地局通信により、別の場所にあるサーバ装置等と無線通信を行うものであり、無線通信に際しては送受信アンテナ214を介して、サーバ装置等とカメラ撮影された画像データや制御信号などの送受信を行う。
なお、近距離無線通信としては、例えば電子タグ、Bluetooth(登録商標)、Wi-Fi(登録商標)などを用いることができる。また、基地局通信としては、LTE(Long Term Evolution)やGSM(Global System for Mobile communications、登録商標)などの遠距離の無線通信を用いることができる。図示しないが、通信インタフェース213は、無線通信の手段として光通信や音波による通信等の他の方法を使用してもよい。その場合、送受信アンテナ214の代わりにそれぞれ光発光/受光部や音波出力/音波入力部を用いることになる。例えば、被撮影者が保持している携帯端末装置100との無線通信により、視線検出結果などの各種情報を送受信して、撮影者や被撮影者の利便性を向上させることが可能となる。
このように構成されている携帯端末装置100によれば、携帯端末装置100が折畳まれると、カメラ101で撮影されたカメラ画像に基づいて、被撮影者側の表示部にカメラ画像を画像処理した処理画像(例えば、鏡像画像)を表示することができる。この結果、携帯端末装置100によれば、被撮影者は被撮影者側の表示部に表示された自分の姿を見ることが可能となり、これによって、自分の写り具合を撮影中に視認することができる。
<携帯端末装置の機能ブロック構成>
続いて、上述した構成を有する携帯端末装置100において、携帯端末装置100で実現される機能に着目した機能ブロック構成について説明する。
図6は、携帯端末装置の機能ブロック構成を示す図である。
ここで、図6に示す機能ブロック図には、本実施の形態1に関係する部だけでなく、その他の実施の形態に関係する部も記載されている。その他の実施の形態に関係する部については、関係する実施の形態で説明する。
撮像部401は、携帯端末装置100に内蔵されており、例えば、被撮影者を撮像するカメラから構成されている。この撮像部401で撮像された画像は、データ記憶部415に記憶される。
第1表示部402は、撮像部401で撮像された画像を表示するように構成されており、撮影者が視認可能な位置に設けられている。例えば、第1表示部402は、図2における表示部108に対応する。
第2表示部403は、撮像部401で撮像された画像を処理した処理画像を表示するように構成されており、被撮影者が視認可能な位置に設けられている。例えば、第2表示部403は、図3における表示部107に対応する。
本明細書において「画像」とは、撮像部401で撮像されたままの画像を意味する。一方、「処理画像」とは、撮像部401で撮像された画像を画像処理した画像を意味する。例えば、「処理画像」は、画像処理部410で画像処理された画像が対応する。すなわち、画像処理部410は、撮像部401で撮像された画像に対して画像処理を施すように構成されている。例えば、画像処理部410においては、撮像部401で撮像された画像に対して左右逆の鏡像である鏡像画像が生成される。画像処理部410で画像処理された処理画像も、撮像部401で撮像された画像と同様にデータ記憶部415に記憶される。すなわち、データ記憶部415は、画像や処理画像などのデータを記憶するように構成されている。
第1表示部402には、基本的に画像が表示されるが、処理画像が表示される場合があってもよい。同様に、第2表示部403には、基本的に処理画像が表示されるが、画像が表示される場合があってもよい。
携帯端末装置100は、例えば、図1に示すように、フレキシブルで折畳み可能に構成されている。そして、携帯端末装置が折畳まれていない場合、第1表示部402を構成する表示部108と第2表示部403を構成する表示部107は、フラットな一体表示部を構成する(図1参照)。一方、携帯端末装置100が折畳まれた場合、第1表示部402を構成する表示部108と第2表示部403を構成する表示部107は、互いに対向する位置に配置される(図2および図3参照)。
そこで、携帯端末装置100において、折畳まれているか否かによって表示形態を変更できるようにするため、携帯端末装置100には、携帯端末装置100が折畳まれているか否かを検出するように構成された折畳み状態検出部409が設けられている。これにより、折畳み状態検出部409によって携帯端末装置100が折畳まれていない状態にあると検出された場合、携帯端末装置100は、一体表示部に画像を表示することができるように構成可能となる。また、折畳み状態検出部409によって携帯端末装置100が折畳まれている状態にあると検出された場合、携帯端末装置100は、第1表示部402を構成する表示部108に画像を表示し、かつ、第2表示部403を構成する表示部107に処理画像を表示することができるように構成可能となる。以上のようにして、携帯端末装置100が構成されている。
<携帯端末装置の動作>
本実施の形態1における携帯端末装置100は、上記のように構成されており、以下に、携帯端末装置100の動作について説明する。
図7は、携帯端末装置の動作を説明するフローチャートである。
図7において、カメラ動作スイッチ105が撮影者により押されて、カメラ101で周囲の人物や風景の撮像が開始されると(S101)、折畳み状態検出部409で携帯端末装置100が折畳まれた状態であるか否かを検出する(S102)。
折畳み状態検出部409において携帯端末装置100が折畳み状態にあると検出した場合は、撮影者側の第1表示部402(表示部108)に画像を正像で表示する(S103)。一方、被撮影者側の第2表示部403(表示部107)には、画像処理部410で画像に対して画像処理を施すことにより生成された処理画像(鏡像画像)で表示する(S104)。
この状態で、画像表示を続けず終わらせる指示として、撮影者のタッチ操作によりタッチパネル209で設定入力されるか、カメラ動作スイッチ105が撮影者により押されるか否かを判定する(S106)。撮影停止が指示された場合は、撮像を停止して(S107)、撮影者側の表示部108への画像の表示および被撮影者側の表示部107への処理画像の表示を停止して(S108)、シーケンスを終了する。
これに対し、撮影停止が指示されない場合は(S106)、携帯端末装置100が折畳まれた状態か否かの判断シーケンスS102に戻る。
なお、折畳み状態検出部409において携帯端末装置100が折畳み状態になく開いた状態にあると検出した場合は(S102)、ディスプレイ106全体(一体表示部)に画像を正像で表示する(S105)。すなわち、常に撮影者側で表示する表示部108と、折畳むと表示する被撮影者側の表示部107と、折畳み部分で折畳むと表示しない非表示部109とを合わせた表示エリアで画像を表示する。
次に、S106に移行し、その後の動作は上記説明と同様である。
このようにして、携帯端末装置100が折畳まれた状態で撮像が開始されると、被撮影者側の表示部107に被撮影者の姿が表示される。この結果、被撮影者は被撮影者側の表示部107で自分の姿を見ることができ、これによって、被撮影者は、自分の写り具合を撮影されている最中に視認できる。
また、撮像を継続した状態のままで、携帯端末装置100の折畳まれた状態から折畳まれていない状態への移行や、携帯端末装置100の折畳まれていない状態から折畳まれた状態への移行が可能となる。例えば、撮影者が折畳んで撮像しようとカメラ動作スイッチ105をオンにしたが、カメラ101での撮像の前に大画面で画像を確認したいとして、携帯端末装置100を広げて開いた状態にすることもできる。さらに、撮影者は、携帯端末装置100を折畳んでカメラ101で撮像をしている最中に、撮像動作を停止させることなく、一旦、携帯端末装置100を広げて開いた状態の大画面で画像を確認することもできる。
(実施の形態2)
本実施の形態2では、被撮影者の視線を検出することによって、被撮影者側の表示部における処理画像の表示/非表示を制御する例を説明する。
<視線検出による表示制御の概要>
本実施の形態2では、携帯端末装置100が折畳まれた状態で、撮影者がカメラ動作スイッチ105を操作してカメラ101での撮像を開始すると、撮影者側の表示部108には、カメラ101で撮像された画像が表示される。一方、被撮影者側の表示部107は、非表示状態のままである。
深度センサ102は、被撮影者がカメラ101で撮影されている状態で、被撮影者を人物として検出し、その顔の中から左目と右目を識別する。
第1の左目視線検出器103aおよび第1の右目視線検出器104aは、深度センサ102で識別された左目と右目の動きや向きをそれぞれ捉え、被撮影者の視線先114(図3参照)を検出する。
携帯端末装置100は、第1の左目視線検出器103aおよび第1の右目視線検出器104aで検出された視線先114が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体の方向を向いていることを検出すると、表示部107に鏡像画像115を表示する。
このように、折畳まれた状態の携帯端末装置100にあって、被撮影者が撮像中の携帯端末装置100を注視しているときだけ、撮像されている被撮影者の姿を被撮影者にとって見やすい鏡像画像115で被撮影者側の表示部107に表示することができる。
したがって、被撮影者が携帯端末装置100を見ていないときの不必要な表示を抑えることができる。このため、無駄に電力消費をすることなく、被撮影者は自分がどのように写っているかという自分の写り具合を撮影されている最中に容易に使い勝手よく視認することができる。
なお、深度センサ102で被撮影者を人物として検出しても、その顔の中の左目および右目を見出して識別できなければ、被撮影者は携帯端末装置100を見ていない状態にある。この場合、被撮影者側の表示部107を表示オフの非表示状態のままにして、不必要な表示を行わない。
また、第1の左目視線検出器103aおよび第1の右目視線検出器104aで検出された視線先114が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体の方向を向いていない場合には、同様に、被撮影者側の表示部107を表示オフの非表示状態のままにして、不必要な表示を行わない。
本実施の形態2では、検出した人物の顔の中から両目を識別する機能を実現する構成要素として、深度センサ102を用いた場合について説明したが、他の構成要素を使用してもよい。
例えば、カメラ101で撮像されて、被撮影者が写っている画像から人物や顔に対する画像認識アルゴリズムを使って人物や顔を割り出し、左目および右目を検出してもよい。さらには、この場合、視線検出器でも画像から目を捉え、目頭に対する虹彩の位置に基づいて視線を検出することにより、深度センサ102および視線検出器とも、全て画像のソフト処理で行うことが可能となる。また、左目視線検出器103aおよび右目視線検出器104a自体で直接左目と右目を検出してもよい。
<機能ブロック構成>
続いて、視線検出による表示制御を実現するための機能ブロック構成について、図6を参照しながら説明する。
視線検出による表示制御を実現するために、携帯端末装置100は、視線方向検出部404と、判断部407と、表示制御部408を有している。
視線方向検出部404は、被撮影者の視線方向を検出するように構成されており、例えば、被撮影者の目を識別するように構成された識別部405と、識別部405で識別された目の動きに基づいて、被撮影者の視線方向を検出するように構成された視線方向検出器406とを有する。特に、識別部405は、形状を立体的に捉えるように構成された深度センサ102を含み、識別部405は、深度センサ102の出力に基づいて、被撮影者の目を識別するように構成されている。
ここで、識別部405を構成する深度センサ102は、被撮影者がカメラ101で撮影されている状態で、被撮影者を人物として検出し、その顔の中から左目と右目を識別する。ただし、深度センサ102は、左目と右目の両方を識別する必要はなく、左目と右目のうちの片方の目を検出するように構成されていてもよい。
視線方向検出器406は、例えば、第1の左目視線検出器103aおよび第1の右目視線検出器104aから構成され、これらの第1の左目視線検出器103aおよび第1の右目視線検出器104aは、深度センサ102で識別された左目と右目の動きや向きをそれぞれ捉え、被撮影者の視線先114(図3参照)を検出するように構成されている。
ただし、視線方向検出器406は、第1の左目視線検出器103aおよび第1の右目視線検出器104aの両方から構成されている必要はなく、第1の左目視線検出器103aおよび第1の右目視線検出器104aのいずれか一方から構成されていてもよい。
つまり、視線方向検出部404の構成要素である識別部405は、被撮影者の目(両目と片目のいずれでもよい)を識別するように構成されていればよく、視線方向検出部404の構成要素である視線方向検出器406は、識別部405で識別された目(両目と片目のいずれでもよい)の動きに基づいて、被撮影者の視線方向を検出するように構成されていればよい。
このように視線方向検出部404をハードウェアから構成する場合だけでなく、視線方向検出部404は、画像処理部410による画像処理によって、カメラ101で撮像された画像を解析することで、ソフトウェア的に、画像から被撮影者の視線方向を検出するように構成されていてもよい。
次に、判断部407は、上述した視線方向検出部404による検出結果に基づいて、被撮影者が携帯端末装置100の存在方向を向いているか否かを判断するように構成されている。例えば、判断部407は、視線方向検出部404で検出された被撮影者の視線方向が、被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体の方向であるか否かを判断するように構成されている。そして、判断部407は、被撮影者が携帯端末装置100の存在方向を向いているか否かについての判断結果を表示制御部408に出力するように構成されている。
続いて、表示制御部408は、判断部407の判断結果に基づいて、被撮影者側の表示部107における処理画像(鏡像画像)の表示/非表示を制御するように構成されている。例えば、表示制御部408は、判断部407において被撮影者が携帯端末装置100の存在方向を向いていると判断された場合、処理画像を被撮影者側の表示部107に表示する一方、判断部407において被撮影者が携帯端末装置100の存在方向を向いていないと判断された場合、処理画像を非表示にするように構成されている。
以上のようにして、携帯端末装置100が構成されている。
<携帯端末装置の動作>
本実施の形態2における携帯端末装置100は、上記のように構成されており、以下に、携帯端末装置100の動作について説明する。
図8は、携帯端末装置の動作を説明するフローチャートである。
カメラ動作スイッチ105が撮影者により押されて、カメラ101で周囲の人物や風景の撮影が開始されると(S201)、折畳み状態検出部409で携帯端末装置100が折畳まれた状態であるか否かを検出する(S202)。
折畳み状態検出部409において携帯端末装置100が折畳み状態にあると検出された場合、携帯端末装置100は、撮影者側の第1表示部402(表示部108)にカメラ101で撮影された画像をそのままの正像で表示する(S203)。これにより、撮影者は撮像しているままの画像を撮影者側の表示部108で確認することができる。
続いて、深度センサ102を用いて人物として被撮影者を捉えて検出し、その顔の中の左目と右目を識別することを試みる(S204)。両眼が識別できた場合は、第1の左目視線検出器103aおよび第1の右目視線検出器104a、あるいは、第2の左目視線検出器103bおよび第2の右目視線検出器104bを用いて、左目および右目が向いている視線先114(視線方向)を検出する(S205)。検出した被撮影者130の視線先114により、被撮影者が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体を注視しているか否かを識別する(S206)。
被撮影者が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体を注視している場合には、カメラ101で撮影された画像を画像処理した処理画像(鏡像画像)を被撮影者側の表示部107に表示する(S207)。これにより、被撮影者は、被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体を注視すると、被撮影者側の表示部107に自分の姿を鏡像画像で見ることができる。この結果、本実施の形態2によれば、被撮影者は、自分の写り具合を鏡で見ているかのように容易に視認することが可能となる。
S204において被撮影者の目が識別できなかった場合、もしくは、S206で被撮影者が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体を注視していなかった場合、被撮影者側の表示部107には何も表示しない(S208)。この結果、被撮影者が被撮影者側の表示部を見ておらず、表示する必要がない時には、処理画像の表示を停止することにより、不必要な表示による無駄な電力消費を抑えることができる。
この状態で、撮像を続けずに終わらせる指示として、撮影者のタッチ操作によりタッチパネル411で設定入力されるか、カメラ動作スイッチ105が撮影者により押されることを判定する(S209)。撮像停止が指示された場合は、撮像を停止した後(S210)、撮影者側の表示部108への画像の表示および被撮影者側の表示部107への処理画像の表示を停止して(S211)、シーケンスを終了する。S209において撮影停止が指示されない場合は、携帯端末装置100が折畳まれた状態か否かの判断に戻る。
一方、折畳み状態検出部409において携帯端末装置100が折畳みでなく開いた状態にあると検出された場合は、ディスプレイ106全体(一体表示部)にカメラ101で撮像された画像を正像で表示する(S212)。すなわち、常に撮影者側で表示する表示部108と、折畳むと表示する被撮影者側の表示部107と、折畳み部分で折畳むと表示しない非表示部109とを合わせた表示エリアで画像を表示する。その後、S209に移行し、それ以降の動作は上記説明と同様である。
以上の動作により、折畳まれた状態の携帯端末装置にあって、被撮影者が撮影中の携帯端末装置を注視したときだけ、カメラ101で撮像された被撮影者の姿を被撮影者にとって見やすい鏡像画像(処理画像)で被撮影者側の表示部107に表示することができる。これにより、被撮影者が見ていないときの不必要な表示を抑えて無駄な電力を消費することなく、被撮影者は自分がどのように写っているかという自分の写り具合を撮像中に容易に使い勝手よく視認することができる。
また、以上の説明では、カメラ101で撮影された画像、すなわち写真等の静止画像の例を示しているが、映像等の動画画像でも、被撮影者は被撮影者側の表示部に動いている自分が映っているのを見ることは可能である。特に、視線検出による表示制御を実施する場合も、被撮影者が動きながらでもカメラ101を見た時だけ被撮影者は被撮影者側の表示部に映っており、自分の映り具合を視認することができる。
(実施の形態3)
本実施の形態3における携帯端末装置100について説明する。
前記実施の形態1における携帯端末装置100のフレキシブルで折畳み可能なディスプレイ106は、図2および図3に示すように横折れ構造であったが、本実施の形態3における携帯端末装置100のフレキシブルで折畳み可能なディスプレイ106は、縦折れ構造である。
図9は、本実施の形態3における携帯端末装置を撮影者側から見た概観を示す図である。図10は、本実施の形態3における携帯端末装置100を被撮影者側から見た概観を示す図である。
なお、図9において、図2と同一の符号を付された部分は、図2で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。同様に、図10において、図3と同一の符号を付された部分は、図3で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
本実施の形態3の構成と前記実施の形態1の構成で相違する点は、第1の左目視線検出器103aと第1の右目視線検出器104aに代えて、第2の左目視線検出器103bと第2の右目視線検出器104bを設けている点である。第2の左目視線検出器103bと第2の右目視線検出器104bの配置は、図3で示した第1の左目視線検出器103aおよび第1の右目視線検出器104aの配置の場合と同様、カメラ101で撮影される際の被撮影者130の左目と右目の並び方向と同じ並び方向になるように設けられる。
携帯端末装置100を折畳むと被撮影者側の表示部107にカメラ101で撮像された画像を画像処理した処理画像(鏡像画像)を表示する制御は、上述した前記実施の形態1と同様であり、その説明は省略する。
視線検出による表示制御は、携帯端末装置100が折畳まれた状態で、撮影者140がカメラ動作スイッチ105を操作してカメラ101での撮像が開始されると、撮影者側の表示部108にはカメラ101で撮影された画像が表示される。一方、被撮影者側の表示部107は非表示状態のままである。そして、深度センサ102は、被撮影者130がカメラ101で撮影されている状態で、被撮影者130を人物として捉えて検出し、その顔の中から左目と右目を見出して識別する。第2の左目視線検出器103bおよび第2の右目視線検出器104bは、深度センサ102で検出された左目と右目の動きや向きを各々捉え、被撮影者130の視線先114を検出する。
携帯端末装置100は、第2の左目視線検出器103bおよび第2の右目視線検出器104bで検出された視線先114が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100自体の方向を向いていることを検出すると、鏡に映ったような左右逆に写る鏡像画像115を被撮影者側の表示部107に表示する。
これにより、携帯端末装置100のディスプレイ106が縦折り構造の場合でも、被撮影者130の両目の視線をより正確に検出しつつ、折畳まれた状態の携帯端末装置100にあって、被撮影者130が撮像中の携帯端末装置100を注視したときだけ、撮像されている被撮影者の姿を被撮影者にとって見やすい鏡像画像115で被撮影者側の表示部107に表示できる。
なお、ディスプレイ106が縦折れ構造の携帯端末装置100の場合でも、第2の左目視線検出器103bおよび第2の右目視線検出器104bではなく、第1の左目視線検出器103aおよび第1の右目視線検出器104aを用いて視線検出してもよい。
また、ディスプレイ106が横折れ構造あるいは縦折れ構造のいずれの携帯端末装置100の場合も、第1の左目視線検出器103aおよび第2の左目視線検出器103bと、第1の右目視線検出器104aおよび第2の右目視線検出器104bなどの複数の視線検出器を設けて、携帯端末装置100と被撮影者130の位置関係により最適な視線検出器を選択あるいは併用してもよく、この場合、携帯端末装置100と被撮影者130との位置関係に関わらず、より一層正確な視線検出を行うことができる。
さらに、第1の左目視線検出器103aおよび第1の右目視線検出器104aのペアと第2の左目視線検出器103bおよび第2の右目視線検出器104bのペアを有している携帯端末装置100の場合には、携帯端末装置100がどのような姿勢状態にあるかを検出し、その姿勢に応じて、より正確に視線検出できるペアを選択してもよい。携帯端末装置100の姿勢状態は、例えば、加速度センサ202、ジャイロセンサ203、地磁気センサ204等のセンサにより検出することができる。
(実施の形態4)
本実施の形態4における携帯端末装置100について説明する。
図11は、カメラで撮像された画像のなかで被撮影者が小さく撮影される場合の携帯端末装置の概観を模式的に示す図である。図12は、図11の場合の被撮影者側の表示部を示す図である。なお、図11および図12において、前記実施の形態1と同一の符号を付された部分は、前記実施の形態1で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
図11に示すように、カメラ101の撮像範囲内で被撮影者500が遠くに見えたりあるいは全体風景を撮影したりするとき、カメラ101で撮像された画像をそのまま被撮影者側の表示部107に表示すると、被撮影者500は画像のなかで相対的に小さい姿の鏡像画像510で表示されてしまう。この場合、被撮影者500は、被撮影者側の表示部107を見ても自分の写り具合をたやすく視認することが困難となる。
そこで、本実施の形態4における携帯端末装置100では、以下に示す機能を設けて、上述した困難に対する工夫を施している。
図6に示すように、本実施の形態4における携帯端末装置100は、カメラ101で撮像された画像に対して画像処理を施すように構成された画像処理部410を有している。この画像処理部410は、カメラ101で撮像された画像に含まれる被撮影者500の画像領域を拡大し、かつ、鏡像処理を施した処理画像を生成するように構成されている。そして、第2表示部403は、画像処理部410で生成された処理画像を表示するように構成される。
これにより、本実施の形態4における携帯端末装置100においては、図12に示すように、被撮影者側の表示部107に被撮影者500を大きく拡大した処理画像(鏡像画像)510Aで表示する。携帯端末装置100は、例えば、カメラ101で撮影された画像を一旦メモリ208内の情報データ207に保存し、画像処理部410によって、保存された画像から被撮影者510を中心に読み出して、被撮影者側の表示部107に大きく拡大した処理画像510Aを表示すればよい。
また、図13に示すように、撮影者側の表示部108には正像で画像全体が表示される。このとき、被撮影者の姿を示す表示範囲がわかるような枠取り520の表示を行うことも可能である。この枠取り520の表示により、被撮影者側の表示部107で拡大表示する被撮影者500を特定できる。
以上のようにして、本実施の形態4における携帯端末装置100によれば、被撮影者500は、被撮影者側の表示部107に大きく拡大表示された自分の姿を見ることができ、これによって、被撮影者500にとって自分がどのように写っているかという自分の写り具合を撮影中に容易にしっかりと視認することができる。
(実施の形態5)
本実施の形態5における携帯端末装置100について説明する。
図14および図15は、カメラで撮影された画像のなかに複数の被撮影者が居る場合の携帯端末装置の概観を模式的に示す図である。図16および図17は、図14の場合の撮影者側の表示部を示す図である。
なお、図14~図17において、前記実施の形態1と同一の符号を付された部分は前記実施の形態1で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
本実施の形態5における携帯端末装置100には、以下に示す機能が設けられている。すなわち、図6において、携帯端末装置100は、画像処理部410と入力操作部411を有している。この入力操作部411は、複数の被撮影者が撮像されている画像の画像領域のうち、特定の被撮影者が撮像されている部分画像領域を指定可能に構成されている。例えば、入力操作部411は、第1表示部402上にあって、撮影者によってタッチされた位置に基づいて、画像の画像領域の中から部分画像領域を指定可能に構成された第1タッチパネル部412から構成される。また、画像処理部410は、入力操作部411で指定された部分画像領域を拡大し、かつ、鏡像処理を施した処理画像を生成するように構成されている。そして、第2表示部403は、画像処理部410で生成された処理画像を表示する。
以下に、具体的に説明する。
図14に示すように、カメラ101で撮影された画像のなかに複数の被撮影者600、601、602が居るとき、この画像をそのまま被撮影者側の表示部107に表示すると、被撮影者600、601、602は、画像のなかで相対的に小さい処理画像610、611、612で表示される。そこで、本実施の形態5では、図16に示すように、撮影者が拡大表示する被撮影者を指定する入力操作を行うと、図15に示すように、指定された被撮影者602を拡大表示した処理画像612Aで被撮影者側の表示部107に表示する。入力操作は、タッチパネル209(第1タッチパネル部412)を用いることができる。図16に示すように、撮影者側の表示部108にはカメラ101で撮像された正像の全体画像が表示される。人物を検出して拡大対象となりうる複数の被撮影者の処理画像620、621、622が表示され、この表示部108上で指定の被撮影者の処理画像622をタッチして選択する。タッチパネル209は、複数の被撮影者が表示された撮影者側の表示部108上で撮影者が指定した被撮影者の位置が撮影者によってタッチされたことを検出し、携帯端末装置100は、タッチパネル209で検出された位置の被撮影者を入力情報として取り込み、図15に示すように指定の被撮影者の処理画像612Aを被撮影者側の表示部107に拡大表示する。
また、図16に示すように、拡大対象となる被撮影者に選択する枠630を表示してもよい。そのとき、枠630内の被撮影者の視線を視線検出器で検出し、被撮影者の視線先(視線方向)が被撮影者側の表示部107かカメラ101あるいは少なくとも携帯端末装置100の方向を向いているときだけ、枠630内の被撮影者の処理画像を被撮影者側の表示部107に拡大して表示する。カメラ101を見ていない被撮影者を表示しても意味がなく、カメラ101を見ている被撮影者だけを拡大表示して、自分の写り具合を視認させることができる。すなわち、「枠表示」や視線検出などの「枠表示の対象を判定する機能」によって撮影者の選択を手助けすることが可能になる。
さらに、入力操作により拡大表示する被撮影者が指定された後、図17に示すように、撮影者側の表示部108にも選択指定された被撮影者の画像を拡大した画像622Aで表示してもよい。この表示により、撮影者は選択指定後に選択指定の被撮影者が間違いなく拡大表示されているということを確実に視認することが可能になる。
以上のようにして、複数の被撮影者が居る場合、撮影者は被撮影者側の表示部107に拡大表示する被撮影者を指定することが可能となる。このことから、撮影者は自分の写り具合を最も視認したい被撮影者を指定することができ、かつ、指定した被撮影者に拡大表示されて視認しやすい処理画像を提供することができる。逆に、自分の写り具合を最も視認したい被撮影者からの要望を受けて、撮影者は要望のあった被撮影者を拡大表示できる。
なお、具体的な入力操作の他の例としては、入力操作を行う入力操作部として、マイク210を用いて、マイク210で指定の被撮影者を示す撮影者からの発声を携帯端末装置100に取り込んでもよい。さらには、撮影者の視線を検出する撮影者側の視線検出器を撮影者側の表面に設けて、撮影者側の視線検出器により、撮影者が撮影者側の表示部に表示されている複数の被撮影者のうちのどの被撮影者を指定しようとしているかを検出して、指定の被撮影者を確定することもできる。また、撮影者は表示するか否かを被撮影者に確認し、例えば、たまたま写り込んだ人がカメラ101を見ている場合には表示しないようにしてもよい。
(実施の形態6)
本実施の形態6における携帯端末装置100について説明する。
図18は、撮影者の持ち手が被撮影者側の表示部に表示されている被撮影者を覆い遮っている結果、被撮影者が自分の全姿を見ることができない場合の携帯端末装置の概観を模式的に示す図である。図19および図20(a)~図20(c)は、図18に示す場合における被撮影者側の表示部を示す図である。図21は、図18に示す場合における撮影者側の表示部を示す図である。なお、図18~図21において、前記実施の形態1と同一の符号を付された部分は、前記実施の形態1で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
本実施の形態6における携帯端末装置100には、以下に示す機能が設けられている。すなわち、図6において、携帯端末装置100は、画像処理部410と入力操作部411と重複判断部414を有している。入力操作部411は、第2表示部403上にあって、第2表示部403と撮影者の持ち手との重なり領域を検出するように構成された第2タッチパネル部413を含む。また、重複判断部414は、第2タッチパネル部413で検出された重なり領域と、第2表示部403に表示されている処理画像に含まれる被撮影者の画像領域とが、平面的に重なっているか否かを判断するように構成されている。さらに、画像処理部410は、重複判断部414によって重なり領域と被撮影者の画像領域とが平面的に重なっていると判断された場合、被撮影者の画像領域が重なり領域と平面的に重ならないように処理画像に対して画像処理を施すように構成されている。そして、第2表示部403は、画像処理部410で画像処理された処理画像を表示する。
以下に、具体的に説明する。
図18に示すように、被撮影者800がカメラ101の撮影範囲内に居て、被撮影者側の表示部107に表示された処理画像に被撮影者が写っている画像領域810が含まれているとき、携帯端末装置100を保持している撮影者の持ち手700が表示部107に表示された被撮影者の画像領域810を部分的にでも覆い遮ってしまうことがある。この場合、被撮影者800は写されている自分の姿が非常に見えづらくなる。そこで、本実施の形態6における携帯端末装置100では、タッチパネル209(第2タッチパネル部413)により被撮影者側の表示部107と撮影者の持ち手700との重なり領域を検出して、図19に示すように、検出した重なり領域以外の場所に被撮影者の画像領域810を移動して表示するという工夫を施している。
この工夫点について、図20(a)~図20(c)を用いて詳細に説明する。まず図20(a)に示すように、持ち手が覆い遮っている遮蔽範囲700Aをタッチパネル209により検出する。図20(a)では、遮蔽範囲700Aが被撮影者側の表示部107上で被撮影者が写っている画像領域810を覆い遮ってしまっている。なお、点線で示した領域820は、処理画像が被撮影者側の表示部107上で表示される画像表示範囲を示しており、図20(a)の場合、領域820は、被撮影者側の表示部107のほぼ全部の範囲である。
これに対して、例えば、図20(b)に示すように、処理画像全体を縮小し、縮小された処理画像全体を遮蔽範囲700A以外の領域830に表示する。この場合、領域830と遮蔽範囲700Aとが重ならないようにすることで、処理画像全体を表示しつつ、遮蔽範囲700Aによって被撮影者が写っている画像領域810Aが隠れないように表示することができる。また、図20(c)に示すように、処理画像全体を移動させて、移動させた処理画像をタッチパネル209で検出した遮蔽範囲700A以外の領域840に表示することもできる。この場合、被撮影者が写っている画像領域810B以外で表示されない部分は生ずるが、遮蔽範囲700Aによって遮られることなく被撮影者が写っている画像領域810Bをそのままの大きさで表示できる。また、例えば、前記実施の形態4の図12で示したように、持ち手によって遮られない遮蔽範囲700A以外に被撮影者の処理画像を拡大して表示することもできる。
さらに、図21に示すように、撮影者側の表示部108に持ち手による遮蔽範囲700Aを表示してもよい。これにより、撮影者は、点線で示す画像表示領域850内で被撮影者が写っている画像領域810Cが持ち手による遮蔽範囲700Aで覆われている状態を認識できるので、認識した状態に応じて、持ち手による遮蔽範囲700A以外に被撮影者が写っている画像領域810Cをどのように表示するかについて選択して指示することが可能になる。これにより、本実施の形態6における携帯端末装置100によれば、被撮影者は持ち手によって遮られることなく、写されている自分の全姿をしっかりと視認することができる。
(実施の形態7)
本実施の形態7における携帯端末装置100について説明する。
本実施の形態7では、折畳んだ状態の携帯端末装置100の内側表面にカメラ101や深度センサ102が配置されている例について説明する。
なお、図22において、前記実施の形態1と同一の符号を付された部分は、前記実施の形態1で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
例えば、前記実施の形態1における携帯端末装置100では、折畳んだ状態の携帯端末装置100の外側表面にカメラ101や深度センサ102が配置されている例について説明している。この場合、例えば、図3に示すように、カメラ101や深度センサ102の前方視界が塞がれることはなく、カメラ101や深度センサ102による被撮影者130の撮影や検出識別を充分に行えなくなることはない。すなわち、前記実施の形態1における携帯端末装置100の構成において、カメラ101(撮像部401)は、携帯端末装置100を折畳んだ場合であっても、被撮影者130を撮像可能な位置に設けられているとともに、視線方向検出部404も、被撮影者130の視線方向を検出可能な位置に設けられている。
これに対し、例えば、折畳んだ状態の携帯情報端末100の内側表面にカメラ101や深度センサ102が配置されている場合には、折畳んだ状態の携帯端末装置100の筐体構造によっては、カメラ101や深度センサ102の前方視界が塞がれてしまい、カメラ101や深度センサ102による被撮影者130の撮影や検出識別が充分に行えないケースが生じる。
この点に関し、本実施の形態7では、以下に示すように、携帯端末装置100の筐体構造に関する工夫を施している。すなわち、図22に示すように、折畳んだ状態でも、携帯端末装置100の内側表面にあるカメラ901や深度センサ902の前方の筐体を開口するなどして、方向903から方向904までのカメラ901の撮影範囲内や方向905から方向906までの深度センサ902の観測範囲内を塞がないような筐体構造にする。
つまり、本実施の形態7における携帯端末装置100は、携帯端末装置100を折畳んだ場合であっても、撮像部401による撮像および視線方向検出部404による視線方向の検出を阻害しないような筐体構造を有する。
これにより、本実施の形態7における携帯端末装置100によれば、折畳んだ状態で、カメラ901は視界内の人物や風景など全て良好に撮影できるとともに、深度センサ902では、人物としての被撮影者130を検出し、検出した人物の顔の中から目を問題なく識別することができる。
(実施の形態8)
本実施の形態8における携帯端末装置100Aについて説明する。
図23は、本実施の形態8における携帯端末装置の概観を模式的に示す図であり、図24は、図23に示す携帯端末装置を別の角度から外観模式的に示す図である。なお、図23および図24において、前記実施の形態1と同一の符号を付された部分は、前記実施の形態1で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
図23に示す携帯端末装置100Aでは、ディスプレイとして、前記実施の形態1で採用しているフレキシブルなディスプレイパネルに替えて、ガラス基板で構成されて折り曲げることができないフラットパネルを用いている。図23および図24に示すように、この携帯端末装置100Aは、撮影者140側にメインディスプレイ1001を備えている一方(図24参照)、被撮影者130側にサブディスプレイ1002を備えている(図23参照)。
図24において、撮影者140側の表示部であるメインディスプレイ1001には、カメラ101の撮影範囲内に被撮影者130が現れると、カメラ101で撮影された被撮影者の画像113がそのままの正像で表示されて、撮影者140は、被撮影者を画像113で確認できる。一方、図23に示すように、被撮影者130が出現したとき、第1の左目視線検出器103aおよび第1の右目視線検出器104aは、深度センサ102で検出識別された被撮影者130の左目と右目の動きや向きを各々捉え、被撮影者130の視線先114が被撮影者130側の表示部であるサブディスプレイ1002かカメラ101あるいは少なくとも携帯端末装置100A自体に向いていることを検出すると、鏡に映ったような左右逆に写る鏡像画像115をサブディスプレイ1002に表示する。
したがって、表面と裏面の両面にそれぞれディスプレイを備える本実施の形態8における携帯端末装置100Aであっても、被撮影者130が撮像中の携帯端末装置100Aを注視するときだけ、撮像されている被撮影者130の姿を被撮影者にとって見やすい鏡像画像115で被撮影者130側にあるサブディスプレイ1002に表示することができる。このことから、被撮影者130が見ていないときの不必要な表示を抑えて無駄な電力を消費することを抑制できるとともに、被撮影者130は自分がどのように写っているかという自分の写り具合を撮影されている最中に容易に使い勝手よく視認することができる。
続いて、本実施の形態8の他の例として、折畳んだ状態の携帯端末装置100Bの内側表面にフレキシブルディスプレイを備える例を説明する。
図25は、折畳み可能な携帯端末装置100Bの内側表面にフレキシブルディスプレイを有する構成を外観模式的に示す図であり、図26は、折畳んだ状態の携帯端末装置の概観を模式的に示す図ある。
なお、図25および図26において、前記実施の形態1と同一の符号を付された部分は、前記実施の形態1で既に説明した構成と同一の構成を有するので、それらの詳細説明は省略する。
図25に示すように、携帯端末装置100Bは、折畳むことができる内側表面にフレキシブルなパネルからなる第1のディスプレイ1001と、図26に示すように、被撮影者130側の外側表面にガラス基板で構成され折り曲げることができないフラットパネルからなる第2のディスプレイ1102とを有している。第1のディスプレイ1001が開かれた状態では、撮影者140は、大きな画面で携帯端末装置100Bからの画像を見ることができる。一方、カメラ101で撮像されている被撮影者130の視線が被撮影者130から見える第2のディスプレイ1102かカメラ101あるいは少なくとも携帯端末装置100B自体を向いているときだけ、鏡に映ったような左右逆に写る鏡像画像115を被撮影者130から見える第2のディスプレイ1102に表示する。
したがって、内側表面にフレキシブルなパネルからなる第1のディスプレイ1101を有する携帯端末装置100Bであっても、被撮影者130側の外側表面に第2のディスプレイ1102を設けて、被撮影者130が撮像中の携帯端末装置100Bを注視するときだけ、撮像されている被撮影者130の姿を被撮影者130にとって見やすい鏡像画像115で被撮影者130側にある第2のディスプレイ1102に表示することができる。
これにより、被撮影者130が見ていないときの不必要な表示を抑えて無駄な電力消費を抑制しながらも、被撮影者130は自分がどのように写っているかという自分の写り具合を撮像中に容易に使い勝手よく視認することができる。なお、さらに、折り畳んだ状態において撮影者140側に位置する外側表面にもディスプレイを設けて、撮影者140が撮影中の画像を視認できるように構成することも可能である。
以上、本発明者によってなされた発明をその実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
例えば、上記した実施の形態は、本発明における技術的思想を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることも可能であり、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。さらに、各実施の形態の構成の一部について、他の構成の追加・削除・置換が可能である。
上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。ただし、
上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行するソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、記録媒体に置くことができる。
制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 携帯端末装置
100A 携帯端末装置
100B 携帯端末装置
101 カメラ
102 深度センサ
103a 第1の左目視線検出器
103b 第2の左目視線検出器
104a 第1の右目視線検出器
104b 第2の右目視線検出器
105 カメラ動作スイッチ
106 ディスプレイ
107 表示部
108 表示部
109 非表示部
113 画像
114 視線先
115 鏡像画像
130 被撮影者
140 撮影者
201 折畳み状態検出器
202 加速度センサ
203 ジャイロセンサ
204 地磁気センサ
205 制御部
206 プログラム
207 情報データ
208 メモリ
209 タッチパネル
210 マイク
211 スピーカー
212 振動発生器
213 通信インタフェース
214 送受信アンテナ
215 バス
301 ホール素子
302 ホール素子
303 磁石
304 磁石
401 撮像部
402 第1表示部
403 第2表示部
404 視線方向検出部
405 識別部
406 視線方向検出器
407 判断部
408 表示制御部
409 折畳み状態検出部
410 画像処理部
411 入力操作部
412 第1タッチパネル部
413 第2タッチパネル部
414 重複判断部
415 データ記憶部
500 被撮影者
510 鏡像画像
510A 処理画像
520 枠取り
600 被撮影者
601 被撮影者
602 被撮影者
610 処理画像
611 処理画像
612 処理画像
612A 処理画像
620 処理画像
621 処理画像
622 処理画像
622A 処理画像
630 枠
700 持ち手
700A 遮蔽範囲
800 被撮影者
810 画像領域
810A 画像領域
810B 画像領域
810C 画像領域
820 領域
830 領域
840 領域
850 領域
901 カメラ
902 深度センサ
903 方向
904 方向
905 方向
906 方向
1001 メインディスプレイ
1002 サブディスプレイ

Claims (14)

  1. 被撮影者を撮像するように構成された撮像部と、
    前記撮像部で撮像された画像を表示するように構成された第1表示部と、
    前記画像を処理した処理画像を表示するように構成された第2表示部と、
    前記被撮影者の視線方向を検出するように構成された視線方向検出部と、
    前記視線方向検出部による検出結果に基づいて、前記被撮影者が携帯端末装置の存在方向を向いているか否かを判断するように構成された判断部と、
    前記判断部の判断結果に基づいて、前記第2表示部における前記処理画像の表示/非表示を制御するように構成された表示制御部と、
    を備える、前記携帯端末装置であって、
    前記第1表示部は、撮影者が視認可能な位置に設けられ、
    前記第2表示部は、前記被撮影者が視認可能な位置に設けられ、
    前記表示制御部は、前記判断部において前記被撮影者が前記携帯端末装置の存在方向を向いていると判断された場合、前記処理画像を前記第2表示部に表示するように構成されている一方、前記判断部において前記被撮影者が前記携帯端末装置の存在方向を向いていないと判断された場合、前記処理画像を非表示にするように構成されている、携帯端末装置。
  2. 請求項1に記載の携帯端末装置において、
    前記処理画像は、前記画像に対する鏡像画像である、携帯端末装置。
  3. 請求項1に記載の携帯端末装置において、
    前記携帯端末装置は、フレキシブルで折畳み可能に構成され、
    前記携帯端末装置が折畳まれていない場合、前記第1表示部と前記第2表示部は、フラットな一体表示部を構成し、
    前記携帯端末装置が折畳まれた場合、前記第1表示部と前記第2表示部とは、互いに対向する位置に配置される、携帯端末装置。
  4. 請求項3に記載の携帯端末装置において、
    前記携帯端末装置は、前記携帯端末装置が折畳まれているか否かを検出するように構成された折畳み状態検出部を有する、携帯端末装置。
  5. 請求項4に記載の携帯端末装置において、
    前記折畳み状態検出部によって前記携帯端末装置が折畳まれていない状態にあると検出された場合、前記携帯端末装置は、前記一体表示部に前記画像を表示可能に構成され、
    前記折畳み状態検出部によって前記携帯端末装置が折畳まれている状態にあると検出された場合、前記携帯端末装置は、前記第1表示部に前記画像を表示可能に構成されている一方、前記第2表示部に前記処理画像を表示可能に構成されている、携帯端末装置。
  6. 請求項1に記載の携帯端末装置において、
    前記視線方向検出部は、
    前記被撮影者の目を識別するように構成された識別部と、
    前記識別部で識別された前記目の動きに基づいて、前記被撮影者の視線方向を検出するように構成された視線方向検出器と、
    を有する、携帯端末装置。
  7. 請求項6に記載の携帯端末装置において、
    前記識別部は、形状を立体的に捉えるように構成された深度センサを含み、
    前記識別部は、前記深度センサの出力に基づいて、前記被撮影者の目を識別するように構成されている、携帯端末装置。
  8. 請求項1に記載の携帯端末装置において、
    前記視線方向検出部は、前記画像を解析することにより、前記被撮影者の視線方向を検出するように構成されている、携帯端末装置。
  9. 請求項1に記載の携帯端末装置において、
    前記携帯端末装置は、前記画像に含まれる前記被撮影者の画像領域を拡大し、かつ、鏡像処理を施した前記処理画像を生成するように構成された画像処理部を有し、
    前記第2表示部は、前記画像処理部で生成された前記処理画像を表示するように構成されている、携帯端末装置。
  10. 請求項1に記載の携帯端末装置において、
    前記携帯端末装置は、
    複数の被撮影者が撮像されている前記画像の画像領域のうち、特定の被撮影者が撮像されている部分画像領域を指定可能に構成された入力操作部と、
    前記入力操作部で指定された前記部分画像領域を拡大し、かつ、鏡像処理を施した前記処理画像を生成するように構成された画像処理部と、
    を有し、
    前記第2表示部は、前記画像処理部で生成された前記処理画像を表示するように構成されている、携帯端末装置。
  11. 請求項10に記載の携帯端末装置において、
    前記入力操作部は、前記第1表示部上にあって、前記撮影者によってタッチされた位置に基づいて、前記画像の画像領域の中から前記部分画像領域を指定可能に構成された第1タッチパネル部である、携帯端末装置。
  12. 請求項1に記載の携帯端末装置において、
    前記携帯端末装置は、
    前記第2表示部上にあって、前記第2表示部と接触物との重なり領域を検出するように構成された第2タッチパネル部と、
    前記第2タッチパネル部で検出された前記重なり領域と、前記第2表示部に表示されている前記処理画像に含まれる前記被撮影者の画像領域とが平面的に重なっているか否かを判断するように構成された重複判断部と、
    前記重複判断部によって前記重なり領域と前記被撮影者の画像領域とが平面的に重なっていると判断された場合、前記被撮影者の画像領域が前記重なり領域と平面的に重ならないように前記処理画像に対して画像処理を施すように構成された画像処理部と、
    を有し、
    前記第2表示部は、前記画像処理部で画像処理された前記処理画像を表示するように構成されている、携帯端末装置。
  13. 請求項1に記載の携帯端末装置において、
    前記撮像部は、前記携帯端末装置を折畳んだ場合であっても、前記被撮影者を撮像可能な位置に設けられているとともに、前記視線方向検出部も、前記被撮影者の視線方向を検出可能な位置に設けられている、携帯端末装置。
  14. 請求項1に記載の携帯端末装置において、
    前記携帯端末装置は、前記携帯端末装置を折畳んだ場合であっても、前記撮像部による撮像および前記視線方向検出部による視線方向の検出を阻害しないような筐体構造を有する、携帯端末装置。
JP2022556306A 2020-10-21 2020-10-21 携帯端末装置 Active JP7473671B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/039600 WO2022085127A1 (ja) 2020-10-21 2020-10-21 携帯端末装置

Publications (2)

Publication Number Publication Date
JPWO2022085127A1 JPWO2022085127A1 (ja) 2022-04-28
JP7473671B2 true JP7473671B2 (ja) 2024-04-23

Family

ID=81289824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022556306A Active JP7473671B2 (ja) 2020-10-21 2020-10-21 携帯端末装置

Country Status (4)

Country Link
US (1) US20230384831A1 (ja)
JP (1) JP7473671B2 (ja)
CN (1) CN116368515A (ja)
WO (1) WO2022085127A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186396A (ja) 1999-12-24 2001-07-06 Nec Corp カメラ付き携帯情報端末装置
JP2013186232A (ja) 2012-03-07 2013-09-19 Sharp Corp 情報端末、情報端末を制御するための方法、および、情報端末を制御するための方法を実現するためのプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054471A (ja) * 2015-09-12 2017-03-16 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器、制御方法およびコンピュータ・プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186396A (ja) 1999-12-24 2001-07-06 Nec Corp カメラ付き携帯情報端末装置
JP2013186232A (ja) 2012-03-07 2013-09-19 Sharp Corp 情報端末、情報端末を制御するための方法、および、情報端末を制御するための方法を実現するためのプログラム

Also Published As

Publication number Publication date
CN116368515A (zh) 2023-06-30
JPWO2022085127A1 (ja) 2022-04-28
WO2022085127A1 (ja) 2022-04-28
US20230384831A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
KR102410802B1 (ko) 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체
KR102038639B1 (ko) 증강 현실 및/또는 가상 현실에서의 터치 스크린 호버 검출
KR102316327B1 (ko) 가상 공간의 캡쳐 방법 및 그 전자장치
KR102602074B1 (ko) 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체
JP5093968B2 (ja) カメラ
KR101674959B1 (ko) 이동 단말기 및 이것의 영상 촬영 제어 방법
TWI442328B (zh) 在影像捕捉裝置中之陰影及反射識別
KR102106296B1 (ko) 카메라를 포함하는 전자 장치 및 그것의 동작 방법
JP2022537614A (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
CN109886208B (zh) 物体检测的方法、装置、计算机设备及存储介质
US11422380B2 (en) Eyewear including virtual scene with 3D frames
WO2014192640A1 (ja) 撮像装置及び撮像方法
WO2021238564A1 (zh) 显示设备及其畸变参数确定方法、装置、系统及存储介质
JP2014003422A (ja) 表示制御装置および撮像装置ならびに表示制御方法
CN112221134A (zh) 基于虚拟环境的画面显示方法、装置、设备及介质
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US20210406542A1 (en) Augmented reality eyewear with mood sharing
JP7473671B2 (ja) 携帯端末装置
KR102312601B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP3918053B2 (ja) 小型携帯端末
WO2023276109A1 (ja) 情報処理装置、撮影画像転送表示システム、及び撮影画像転送表示方法
US11483483B2 (en) Display apparatus
KR20210125465A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP2019125850A (ja) 電子機器、その制御方法、およびプログラム、並びに記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240411

R150 Certificate of patent or registration of utility model

Ref document number: 7473671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150