JPWO2014061388A1 - 携帯端末 - Google Patents

携帯端末 Download PDF

Info

Publication number
JPWO2014061388A1
JPWO2014061388A1 JP2014542002A JP2014542002A JPWO2014061388A1 JP WO2014061388 A1 JPWO2014061388 A1 JP WO2014061388A1 JP 2014542002 A JP2014542002 A JP 2014542002A JP 2014542002 A JP2014542002 A JP 2014542002A JP WO2014061388 A1 JPWO2014061388 A1 JP WO2014061388A1
Authority
JP
Japan
Prior art keywords
unit
display unit
transmissive display
mobile terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014542002A
Other languages
English (en)
Other versions
JP6350285B2 (ja
Inventor
育英 細田
育英 細田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014061388A1 publication Critical patent/JPWO2014061388A1/ja
Application granted granted Critical
Publication of JP6350285B2 publication Critical patent/JP6350285B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/1649Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1681Details related solely to hinges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0214Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0225Rotatable telephones, i.e. the body parts pivoting to an open position around an axis perpendicular to the plane they define in closed position
    • H04M1/0233Including a rotatable display body part
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/11Supports for sets, e.g. incorporating armrests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0241Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
    • H04M1/0245Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call using open/close detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • H04M1/236Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof including keys on side or rear faces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Set Structure (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)

Abstract

【課題】携帯端末による音声出力中にユーザが透過型表示部による表示を適切に把握可能な携帯端末を提案する。【解決手段】携帯端末は、音声を出力する音声出力部を有する筺体と、前記筺体に対して回動可能に設けられた透過型表示部と、を備え、前記透過型表示部は、前記音声出力部による音声出力中に、前記筺体の主面と交差する平面上に配置可能である。前記透過型表示部は、通話中に、前記筺体の主面と交差する平面上に配置可能である。【選択図】図3

Description

本開示は、透過型表示部を備える携帯端末に関する。
携帯端末として、携帯電話やスマートフォン等の種々の装置が普及している。かかる携帯端末は、通話時等に音声を出力する音声出力部を有する。そして、利便性を向上させる観点等から、音声出力中に表示部に画像等を表示させる携帯端末が提案されている(特許文献1参照)。
また、携透過視可能な透過型表示部を有する携帯端末が提案されている(特許文献2参照)。特許文献2では、カメラ部で写真撮影をする際に、透過型表示部の表示面を透過視可能な状態に制御する技術が開示されている。
特開平11−234637号公報 特開2010−183378号公報
ところで、携帯端末が音声出力中に透過型表示部に表示を行わせたい要望がなされている。しかし、音声出力中の透過型表示部の表示については、これまで十分な検討がなされていない。
そこで、本開示は、携帯端末による音声出力中にユーザが透過型表示部による表示を適切に把握可能な携帯端末を提案する。
本開示によれば、音声を出力する音声出力部を有する筺体と、前記筺体に対して回動可能に設けられた透過型表示部と、を備え、前記透過型表示部は、前記音声出力部による音声出力中に、前記筺体の主面と交差する平面上に配置可能である、携帯端末が提供される。
かかる携帯端末によれば、音声出力部による音声出力中に、透過型表示部が筺体の主面と交差する平面上に配置可能であるので、例えばユーザが携帯端末を耳に当てて出力されている音声を聞いている際に、透過型表示部が見えやすい位置に位置するため、透過型表示部の表示を適切に把握できる。
以上説明したように本開示によれば、携帯端末による音声出力中にユーザが透過型表示部による表示を適切に把握することが可能となる。
本実施の形態に係る携帯端末10の構成の一例を示す正面図である。 透過型表示部40の回動状態の一例を示す図である。 携帯端末10の使用形態の一例を示す図である。 携帯端末10に設けられたカメラを示す一例である。 透過型表示部40の2つの開状態の一例を示す図である。 携帯端末10の外観構成の第2実施例を示す図である。 携帯端末10の外観構成の第3実施例を示す図である。 ユーザの左目用として利用する場合の透過型表示部40の開状態を示す。 携帯端末10の外観構成の第4実施例を示す図である。 第1表示方式に係る携帯端末10の外観構成を示す図である。 第1表示方式に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。 第1表示方式の第1変形例に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。 第1表示方式の第2変形例に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。 第1表示方式の第3変形例に係る携帯端末10の外観構成の一例を示す図である。 第1表示方式の第3変形例に係る透過型表示部40の内部構成を示す模式図である。 透過型表示部40が第1開状態に位置する際の光束の伝達経路を示す模式図である。 透過型表示部40が第2開状態に位置する際の光束の伝達経路を示す模式図である。 第2表示方式に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。 第3表示方式に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。 透過型表示部40の回動検出機構の第1実施例を示す図である。 透過型表示部40の回動状態と、スイッチ76の付勢状態との関係を示す図である。 透過型表示部40の回動検出機構の第2実施例を示す図である。 透過型表示部40の回動検出機構の第3実施例を示す図である。 透過型表示部40の回動検出機構の第4実施例を示す図である。 透過型表示部40の回動検出機構の第5実施例を示す図である。 携帯端末10の内部構成例を示すブロック図である。 会話から抽出した話題に基づく関連情報の表示処理を示すフローチャートである。 通話中の話題の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 通話中の話題の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 通話中の話題の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 通話中の話題の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 通話中の話題の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 同時視聴しているテレビ画面の関連情報の表示処理を示すフローチャートである。 同時視聴しているテレビ画面の関連情報の表示処理を示すフローチャートである。 同時視聴しているテレビ画面の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 同時視聴しているテレビ画面の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 同時視聴しているテレビ画面の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 同時視聴しているテレビ画面の関連情報の表示処理中の透過型表示部40の表示例を示す図である。 通話相手の話の要約の表示処理を示すフローチャートである。 通話相手の話の要約の表示処理中の透過型表示部40の表示例を示す図である。 通話相手の話の要約の表示処理中の透過型表示部40の表示例を示す図である。 通話相手のジェスチャに基づくナビゲーション情報の表示処理を示すフローチャートである。 通話相手のジェスチャに基づくナビゲーション情報の表示処理の流れを説明するための説明図である。 通話相手の音声から抽出したキーワードに基づくナビゲーション情報の表示処理を示すフローチャートである。 通話相手の音声から抽出したキーワードに基づくナビゲーション情報の表示処理の流れを説明するための説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.携帯端末の外観構成例
1−1.外観構成の第1実施例
1−2.外観構成の第2実施例
1−3.外観構成の第3実施例
1−4.外観構成の第4実施例
2.透過型表示部の表示方式
2−1.第1表示方式
2−2.第2表示方式
2−3.第3表示方式
3.透過型表示部の回動検出機構
3−1.透過型表示部の回動検出機構の第1実施例
3−2.透過型表示部の回動検出機構の第2実施例
3−3.透過型表示部の回動検出機構の第3実施例
3−4.透過型表示部の回動検出機構の第4実施例
3−5.透過型表示部の回動検出機構の第5実施例
4.携帯端末の内部構成例
5.透過型表示部による表示処理
5−1.通話中の会話から話題を抽出して関連情報の表示
5−2.同時視聴しているテレビ画面の関連情報の表示
5−3.相手の話の要約の自動表示処理
5−4.通話相手のジェスチャに基づくナビゲーション情報の表示処理
5−5.音声から抽出したキーワードに基づくナビゲーション情報の表示処理
6.まとめ
<1.携帯端末の外観構成例>
本実施の形態に係る携帯端末は、一例として通話機能を有する携帯電話やスマートフォンである。以下においては、携帯端末の外観構成例として、四つの実施例を挙げて説明する。
(1−1.外観構成の第1実施例)
図1は、本実施の形態に係る携帯端末10の構成の一例を示す正面図である。図1に示すように、携帯端末10は、筺体20と、透過型表示部40と、を有する。透過型表示部40は、筐体20にヒンジ部45により連結され、ヒンジ部45を中心に可動可能である。
筺体20は、略直方体形状である。筺体20は、前面20aに、タッチパネル22と、音声出力部の一例であるスピーカ24と、マイク26と、を有する。
タッチパネル22は、文字、図形、画像等を表示するとともに、指等を用いてタッチパネル22に対して行われる各種動作を検出する。タッチパネル22は、表示部と、表示部に重畳されたタッチセンサとを有する。表示部は、例えば液晶ディスプレイや、有機ELパネル等で構成され、文字、図形、画像等を表示する。タッチセンサは、例えば感圧式、静電式等のいずれかの検出方式が採用され、指を用いてタッチパネル22に対して行われる各種動作を、動作が行われたタッチパネル22上での位置と共に検出する。
スピーカ24は、音声を出力する。例えば、スピーカ24は、通話中に相手の音声を出力する。マイク26は、音声を集音する。例えば、マイク26は、集音した携帯端末10の利用者の音声を電気的な信号に変換する。なお、スピーカ24とマイク26が、通話を行う通話部に該当する。
透過型表示部40は、透明な部材で構成された表示部である。透過型表示部40は、筺体20に対して回動可能に設けられている。透過型表示部40の幅(図1のX方向の長さ)や厚み(図1のY方向の長さ)は、筐体20の幅や厚みと同じである。本実施形態において、透過型表示部40は、携帯端末10の長手方向において筺体20に接触している。
透過型表示部40は、文字、図形、画像等を表示する。透過型表示部40は、表示素子が表示する画像光をユーザの瞳に導くための導光部を有する。これにより、ユーザは、透過型表示部40が目の前方に位置する際に、表示素子が表示する画像を観察することができる。なお、透過型表示部40の表示の詳細な仕組みについては、後述する。
図2は、透過型表示部40の回動状態の一例を示す図である。透過型表示部40は、図2に示すように、筐体20の短側面の一端側を中心に回動可能である。図2(a)は、閉状態に位置する透過型表示部40を示し、図2(b)は、回動中の透過型表示部40を示し、図2(c)は、開状態に位置する透過型表示部40を示す。なお、図2(c)の開状態は、閉状態から図2(b)の矢印で示す方向に透過型表示部40を90度回転させた位置である。このように、透過型表示部40は、筐体20に対する開状態と閉状態の間で回動する。
また、透過型表示部40が閉状態に位置する際に、図2(a)に示すように、透過型表示部40の第2表示部42が設けられた表示面と、筺体20の前面20aとが、同一面上に位置する。また、透過型表示部40が閉状態に位置する際に、透過型表示部40の第2表示部42が設けられた表示面と、筺体20の前面20aとが、平行である。これにより、透過型表示部40と筺体20の境界が目立たなくなり、すなわち透過型表示部40と筐体20の一体感をユーザに与えることができ、デザイン上の美観を損なうことを防止できる。
図3は、携帯端末10の使用形態の一例を示す図であり、ユーザUが携帯端末10で通話している際の携帯端末10の使用形態が示されている。図3を見ると分かるように、図2(c)の開状態に位置する透過型表示部40は、通話中に、筺体20の主面である前面20aと交差する平面上に配置される。具体的には、筺体20の前面20aがユーザの右耳に対向し、開状態に位置する透過型表示部40が、ユーザの右目の前方に位置している。これにより、ユーザは、通話をしながら、透過型表示部40の表示を見ることができる。また、前述したように透過型表示部40は透過型の表示部であるので、透過型表示部40が目の前方に位置しても、外界像をシースルで観察できる。
透過型表示部40は、日付や日時等を表示可能な第2表示部42を有しても良い。第2表示部42は、例えば透過型表示部40が筺体20に対して閉状態に位置する際に表示を行う。第2表示部42は、非透過型の表示部であり、例えば自発光表示装置の一例である有機ELパネルで構成されている。なお、透過型表示部40と第2表示部42の表示は、後述するシステムコントローラ110(図26参照)によって制御される。
図4は、携帯端末10に設けられたカメラを示す一例である。携帯端末10は、撮像部であるカメラ60を有しても良い。カメラ60は、図4(a)に示すように、透過型表示部40に設けても良いし、図4(b)に示すように筺体20に設けても良い。例えば、ユーザは、図3に示す状態で通話している際に、カメラ60により目の前に見える風景等を撮像できる。
なお、図4(b)では、2つのカメラ60a、60bが示されており、2つのカメラ60a、60bにより立体画像を撮像可能となる。ただし、これに限定されず、筺体20には一つのカメラのみが設けられても良く、また透過型表示部40に立体画像を撮像するための2つのカメラを設けても良い。
前述した図3では、透過型表示部40がユーザの右目の前方に位置する例を説明したがこれに限定されない。開状態の透過型表示部40は、図5に示すように、ユーザの右目と左目のいずれかの前方に位置できるように、回動可能な構成であっても良い。
また、携帯端末10の長側面20dには、操作ボタン71、72が設けられている。これにより、ユーザは、右目の前方に位置する透過型表示部40に画像が表示中に、ボタン71、72を押下することにより携帯端末10の操作を行うことができる。
図5は、透過型表示部40の2つの開状態の一例を示す図である。図5(a)は、ユーザの右目用として利用する場合の透過型表示部40の第1開状態を示し、図5(b)は、ユーザの左目用として利用する場合の透過型表示部40第2開状態を示す。このため、透過型表示部40は、第1開状態又は第2開状態に位置する際に、筐体20の前面20aと交差する平面上に位置することになる。
また、透過型表示部40が第1開状態に位置している際の表示の向きと、第2開状態に位置している際の表示の向きが上下逆になるので、透過型表示部40の表示の切り替えが行われる。すなわち、透過型表示部40の回動状態に応じて、透過型表示部40の表示が制御される。これにより、透過型表示部40が複数の開状態に位置しても、ユーザが通話中に見やすい表示がなされる。
なお、ユーザの両目用として透過型表示部40を利用する場合には、図5(a)に示すように筐体20の前面20aにスピーカ24とマイク26を設けるだけで無く、図5(b)に示すように筺体の背面20bにもスピーカ25とマイク27とを設けることが望ましい。これにより、右・左目用のいずれで使用しても、通話を適切に行うことができる。
(1−2.外観構成の第2実施例)
図6は、携帯端末10の外観構成の第2実施例を示す図である。図6(a)は、第2実施例に係る透過型表示部40のデフォルト状態である閉状態を示し、図6(b)は、透過型表示部40の開状態を示す。
第2実施例に示す透過型表示部40においては、回転軸となるヒンジ部から離れた部分の幅が、ヒンジ部に近い部分の幅よりも大きい。また、透過型表示部40は、閉状態において、筺体20の前面20aよりも凹んだ凹部20eに接触する。なお、パッチパネル22は、図2に示す構造とは異なり、筐体20の背面20b側に設けられている。
(1−3.外観構成の第3実施例)
図7は、携帯端末10の外観構成の第3実施例を示す図である。第3実施例では、透過型表示部40は、携帯端末10の短手方向において筺体20に接触している。そして、透過型表示部40は、筐体20の長側面20dの一端側を中心に回動可能である。
図7(a)は、第3実施例に係る透過型表示部40の閉状態を示し、図7(b)は、透過型表示部40の開状態を示す。図7(b)に示す透過型表示部40は、通話中に、ユーザの右目の前方に位置可能である(図3参照)。
第3実施例においても、透過型表示部40は、ユーザの右目と左目のいずれの前方に位置できるように回動可能である。すなわち、透過型表示部40は、図7(b)に示すように右目用として利用する場合の開状態と、図8に示すように左目用として利用する場合の開状態とに回動できる。なお、図8は、ユーザの左目用として利用する場合の透過型表示部40の開状態を示す。
(1−4.外観構成の第4実施例)
図9は、携帯端末10の外観構成の第4実施例を示す図である。図9(a)は、第4実施例に係る透過型表示部40の閉状態を示し、図9(b)は、透過型表示部40の開状態を示す。
第4実施例における透過型表示部40の表示面40aの大きさは、筐体20の前面20aと同じ大きさである。このように表示面40aの大きさが、第1〜第3実施例に比べて大きいので、多くの情報を表示できる。また、第4実施例の透過型表示部40の厚さは、第1〜第3実施例の透過型表示部40に比べて薄い。
上記では、携帯端末10が通話機能を有する携帯電話やスマートフォンであることとしたが、これに限定されない。例えば、携帯端末は、通話機能を有さず、音声ガイダンスを行う装置であっても良い。かかる装置の場合でも、透過型表示部40は、音声出力中に、筺体20の前面20aに交差する平面上に配置可能である。これにより、ユーザは、音声ガイダンスを聞きながら、透過型表示部40に表示された表示を見ることができる。
<2.透過型表示部の表示方式>
前述したように、透過型表示部40は、表示素子が表示する画像光をユーザの瞳に導くための導光部を有する。これにより、ユーザは、透過型表示部40が目の前方に位置する際に、表示素子が表示する画像を観察することができる。以下においては、透過型表示部40の表示方式として、3つの方式を例に挙げて説明する。
(2−1.第1表示方式)
第1表示方式は、透過型表示部40の内部に光束を反射又は透過させるホログラムグレーティングを設けて、表示素子が表示する画像をユーザの瞳に導く方式である。以下において、図10及び図11を参照しながら、第1表示方式の仕組みについて説明する。
図10は、第1表示方式に係る携帯端末10の外観構成を示す図である。図11は、第1表示方式に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。第1表示方式に係る携帯端末10は、ヒンジ部45を中心に、図10(a)に示す閉状態と図10(b)に示す開状態との間で回動するものとする。そして、図10(b)に示す開状態の透過型表示部40は、例えば通話中に、図11(b)に示すようにユーザの左目の前方に位置することになる。
透過型表示部40は、図11(a)に示すように、基部41と、第2表示部42と、導光部の一例である導光板43と、ヒンジ部45と、第1ホログラムグレーティング46aと、第2ホログラムグレーティング46bと、を有する。
基部41は、透過型表示部40の土台となる部分であり、透明な部材から成る。第2表示部42は、基部41の第1面41a側に設けられ、前述したように透過型表示部40が閉状態である際に日付や日時等を表示する。
導光板43は、基部41の第2面41b側に、空気層44を介して設けられた平板である。導光板43の厚みは、内部を光が全反射可能となるように、基部41に比べて薄く形成されている。導光板43には、例えばヒンジ部45の内部に設けられた画像表示素子(不図示)から射出された光束が、入射される。
導光板43は、光学面43aの一端側に形成された光入射口43bと、光学面43aに対向する光学面43cの他端側に形成された光射出口43dとを有する。光入射口43bには、画像表示素子からの光束が入射される。光射出口43dは、光学面43aと光学面43cの間で全反射しながら進行する光束を射出する。
なお、画像表示素子と導光板43の間に、画像表示素子から射出された光束を平行光束にするコリメートレンズ(不図示)を設けても良い。かかる場合には、コリメートレンズから射出された平行光束が、導光板43に入射される。また、上記では画像表示素子がヒンジ部45に設けられていることとしたが、これに限定されず、例えば画像表示素子が筺体20に設けられていることとしても良い。
ヒンジ部45は、透過型表示部40から筺体20へ向けて突出した円柱状の形状を成している(図20参照)。ヒンジ部45には、上述したように画像表示素子が設けられうる。画像表示素子は、透過型表示部40が開状態の際に光束を射出する。また、ヒンジ部45の内部には、第2表示部42に接続されるケーブルが通過している。
第1ホログラムグレーティング46aは、光学面43cの光入射口43bに対向する位置に設けられ、光入射口43bから入射した光束を回折反射する。第1ホログラムグレーティング46aにより回折反射された光束は、図11(b)に示すように光学面43a、43cの間で全反射を繰り返しながら進行して、第2ホログラムグレーティング46bに入射する。
第2ホログラムグレーティング46bは、光学面43aの光射出口43dに対向する位置に設けられ、入射した光束を回折反射する。光束は、第2ホログラムグレーティング46bに回折反射されることで全反射条件からずれる。これにより、光束は、図11(b)に示すように、光射出口43dから射出され、ユーザの瞳Hに入射する。これにより、ユーザは、画像表示素子が表示する画像を認識できる。
(第1変形例)
上述した第1ホログラムグレーティング46a及び第2ホログラムグレーティング46bが、光束を反射させる反射型のホログラムグレーティングであることとしたが、これに限定されない。例えば、図12に示すように、第1ホログラムグレーティング46a及び第2ホログラムグレーティング46bが、透過型のホログラムグレーティングであることとしても良い。
図12は、第1表示方式の第1変形例に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。図12に示すように、第1変形例では、第1ホログラムグレーティング46aは、光学面43aの光入射口43bと同じ位置に設けられ、第2ホログラムグレーティング46bは、光学面43cの光射出口43dと同じ位置に設けられている。これにより、第1ホログラムグレーティング46aを透過した光束は、光学面43aと光学面43cの間で全反射を繰り返しながら進行して、第2ホログラムグレーティング46bに入射する。そして、光束は、第2ホログラムグレーティング46bを透過して、光射出口43dから射出した後に、ユーザの瞳Hに入射する。
(第2変形例)
また、図13に示すように、反射型のホログラムグレーティングと透過型のホログラムグレーティングとを組み合わせて構成しても良い。これにより、ホログラムグレーティングの配置箇所の自由度を高めることができる。
図13は、第1表示方式の第2変形例に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。図13に示すように、第2変形例では、透過型の第1ホログラムグレーティング46aは、光学面43aの光入射口43bと同じ位置に設けられ、反射型の第2ホログラムグレーティング46bは、光学面43aの光射出口43dと対向すると同じ位置に設けられている。これにより、第1ホログラムグレーティング46aを透過した光束は、光学面43aと光学面43cの間で全反射を繰り返しながら進行して、第2ホログラムグレーティング46bに入射する。そして、光束は、第2ホログラムグレーティング46bで回折反射して、光射出口43dから射出した後に、ユーザの瞳Hに入射する。
(第3変形例)
ところで、携帯端末10は、通話中にユーザの右目と左目のいずれかの前方に位置できるように、2つの開状態(第1開状態と第2開状態)に位置可能である(図5参照)。そこで、かかる構成における第1表示方式の仕組みについて、図14〜図17を参照しながら説明する。
図14は、第1表示方式の第3変形例に係る携帯端末10の外観構成の一例を示す図である。図15は、第1表示方式の第3変形例に係る透過型表示部40の内部構成を示す模式図である。図16は、透過型表示部40が第1開状態に位置する際の光束の伝達経路を示す模式図である。図17は、透過型表示部40が第2開状態に位置する際の光束の伝達経路を示す模式図である。
第3変形例に係る携帯端末10は、ヒンジ部45を中心に、図14(a)に示す閉状態と、図14(b)に示す第1開状態と、図14(c)に示す第2開状態との間で回動するものとする。そして、例えば通話中に、図14(b)に示す第1開状態の透過型表示部40は、図16に示すようにユーザの左目の前方に位置し、図14(c)に示す第2開状態の透過型表示部40は、図17に示すようにユーザの右目の前方に位置する。
第3変形例に係る透過型表示部40は、図15に示すように、2つの導光板43、47を有する。導光板43は、第1導光部であり、基部41の第2面41b(第1表面に該当)側に空気層44(第1空気層に該当)を介して設けられている。導光板47は、第2導光部であり、基部41の第1面41a(第2表面に該当)側に空気層48(第2空気層)を介して設けられている。そして、2つの導光板43、47に、それぞれ1組のホログラムグレーティングが設けられている。
導光板43の第1ホログラムグレーティング46a及び第2ホログラムグレーティング46bは、反射型のホログラムグレーティングである。このため、図16に示すように、ヒンジ部45内の画像表示素子から光入射口43bを介して入射した光束は、第1ホログラムグレーティング46aによって回折反射され、光学面43a、43cの間で全反射を繰り返しながら第2ホログラムグレーティング46bに入射する。そして、光束は、第2ホログラムグレーティング46bで回折反射され、光射出口43dから射出され、ユーザの左目の瞳に入射する。
同様に、導光板47の第1ホログラムグレーティング49a及び第2ホログラムグレーティング49bも、図17に示すように反射型のホログラムグレーティングである。このため、図17に示すように、ヒンジ部45内の画像表示素子から光入射口47bを介して入射した光束は、第1ホログラムグレーティング49aによって回折反射され、光学面47a、47cの間で全反射を繰り返しながら第2ホログラムグレーティング49bに入射する。そして、光束は、第2ホログラムグレーティング49bで回折反射され、光射出口47dから射出され、ユーザの右目の瞳Hに入射する。
上述した図15〜図17では、反射型のホログラムグレーティングを例に挙げて説明したが、これに限定されない。例えば、図12で説明したような透過型のホログラムグレーティングを用いても良く、また図13で説明したように反射型のホログラムグレーティングと透過型のホログラムグレーティングを組み合わせて用いても良い。
(2−2.第2表示方式)
第2表示方式は、第1表示方式のホログラムグレーティングの代わりに、透過型表示部40の内部に光束を反射させる反射面を設けて、表示素子が表示する画像をユーザの瞳に導く方式である。
図18は、第2表示方式に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。図18に示すように、透過型表示部40は、基部41と、第2表示部42と、ヒンジ部45と、導光部143とを有する。基部41、第2表示部42、及びヒンジ部45は、前述した構成と同様であるので、説明を省略する。
導光部143は、ヒンジ部45内の画像表示素子(不図示)から射出された光束を、ユーザの瞳Hに導く機能を有する。導光部143は、平板状の部材であり、基部41の第2面41b側に設けられている。導光部143は、内部に、光束を反射させる二つの反射面144a、144bを有する。そして、画像表示素子から導光部143に入射した光束は、反射面144aにより反射され、反射面144bに至り、反射面144bによって更に反射され、ユーザの瞳Hに入射する。これにより、ユーザは、画像表示素子が表示する画像を認識できる。
なお、上記では、導光部143が基部41の第2面41b側に設けられていることとしたが、これに限定されず、例えば基部41の第1面41a側にも設けても良い。かかる場合には、前述した図16及び図17で説明したように、ユーザの左目又は右目の瞳に光束を入射させることが可能となる。
(2−3.第3表示方式)
第3表示方式は、透過型表示部40の内部に、一部の光を反射させると共に残りの光を透過させるハーフミラー層を有する反射面を形成し、表示素子が表示する画像をユーザの瞳に導く方式である。
図19は、第3表示方式に係る透過型表示部40の内部構成と、光束の伝達経路とを示す模式図である。図19に示すように、透過型表示部40は、基部41と、第2表示部42と、ヒンジ部45と、導光部153とを有する。基部41、第2表示部42、及びヒンジ部45は、前述した構成と同様であるので、説明を省略する。
導光部153は、ヒンジ部45内の画像表示素子から射出された光束を、ユーザの瞳Hに導く機能を有する。導光部153は、平板状の部材であり、基部41の第2面41b側に設けられている。導光部153は、光束を反射させる四つの反射面154a、154b、154c、154dを有する。
反射面154aは、画像表示素子から入射した光束を全反射させる。反射面154b、154cは、図19に示すように導光部153の長手方向に沿って形成されている。反射面154aで反射された光束は、反射面154bと反射面154cの間で全反射を繰り返しながら進行して、反射面154dに入射する。
反射面154dは、入射してきた光束を導光部154から射出するための平坦面であり、一部にハーフミラー層を有する。ハーフミラー層の反射率は、例えば20%に設定され、透過率は、例えば80%に設定される。そして、反射面154dにより反射された光束は、ユーザの瞳Hに入射する。これにより、ユーザは、画像表示素子が表示する画像を認識できる。なお、反射面154dを透過した光束は、画像の形成には利用されない。
なお、第3表示方式において、基部41の第2面41b側にも導光部143を設けても良い。これにより、前述した図16及び図17で説明したように、ユーザの左目又は右目の瞳に光束を入射させることが可能となる。
<3.透過型表示部の回動検出機構>
上述したように、透過型表示部40は、ヒンジ部45を中心に筺体20に対して回動する。そして、携帯端末10は、透過型表示部40の回動状態を検出する回動検出機構を有し、透過型表示部40の回動状態に応じて動作を制御する。例えば、携帯端末10は、透過型表示部40が閉状態である場合に、タッチパネル22や第2表示部42の表示をONとする一方で、透過型表示部40の表示をOFFとする。また、携帯端末10は、透過型表示部40が開状態である場合に、タッチパネル22や第2表示部42の表示をOFFとする一方で、透過型表示部40の表示をONとする。
以下においては、透過型表示部40の回動状態を検出する回動検出部75を含む回動検出機構として、第1〜第5実施例を例に挙げて説明する。
(3−1.透過型表示部の回動検出機構の第1実施例)
図20は、透過型表示部40の回動検出機構の第1実施例を示す図である。図20(a)は、透過型表示部40を筺体20から分離した状態を示す斜視図である。図20(b)は、筺体20内のヒンジ部45と回動検出部75の位置関係を示す図である。
ヒンジ部45は、透過型表示部40から突出した円柱状の形状を成している。第1実施例に係るヒンジ部45の先端側には、外周面の一部がカットされたカット部45aが形成されている。カット部45aは、断面が略D形状となるように、Dカットされている。
回動検出部75は、筺体20内においてヒンジ部45と対向する位置に設けられているセンサである。回動検出部75は、ヒンジ部45と接触可能なスイッチ76を有し、スイッチ76の状態に応じてヒンジ部45の回動状態を検出する。スイッチ76は、バネ等の付勢部材(不図示)により付勢されている。なお、図20(a)には、付勢された状態のスイッチ76が示されている。スイッチ76は、透過型表示部40の回動状態に応じて、ヒンジ部45に押される。そして、回動検出部75は、例えば、スイッチ76がヒンジ部45に押されていない場合に透過型表示部40が閉状態であると検出し、スイッチ76がヒンジ部45に押された場合に透過型表示部40が開状態であると検出する。
図21は、透過型表示部40の回動状態と、スイッチ76の付勢状態との関係を示す図である。図21(b)は、図21(a)の矢印の方向から見た図である。透過型表示部40が閉状態である場合には、スイッチ76がカット部45aと対向するので、スイッチ76がヒンジ部45に押されない。透過型表示部40が開状態である場合には、スイッチ76が、ヒンジ部45のカット部45a以外の外周面に接触して押される。
(3−2.透過型表示部の回動検出機構の第2実施例)
図22は、透過型表示部40の回動検出機構の第2実施例を示す図である。図22(a)は、透過型表示部40が閉状態である場合のヒンジ部45と回動検出部75の位置関係を示し、図22(b)は、透過型表示部40が開状態である場合のヒンジ部45と回動検出部75の位置関係を示す。
第2実施例では、図20で説明した第1実施例のカット部45aの代わりに、ヒンジ部45の先端側に、外周面から外方へ突出した突起部45bが形成されている。突起部45bは、透過型表示部40が閉状態である場合には、図22(a)に示すようにスイッチ76に接触しないので、スイッチ76は押されない。一方で、突起部45bは、透過型表示部40が開状態である場合には、図22(b)に示すようにスイッチ76に接触してスイッチ76を押す。これにより、透過型表示部40の開状態又は閉状態を判定できる。
(3−3.透過型表示部の回動検出機構の第3実施例)
図23は、透過型表示部40の回動検出機構の第3実施例を示す図である。
上述した第1、2実施例では、スイッチ76がヒンジ部45によって押されている。これに対して、第3実施例では、ヒンジ部45の代わりに、透過型表示部40のヒンジ部45の横に形成された突起部45cが、透過型表示部40が閉状態である場合にスイッチ76を押す。なお、スイッチ76は、突起部45cが入り込む凹部20fの近傍に位置する。一方で、突起部45cは、透過型表示部40が開状態である場合にスイッチ76を押さない。これにより、透過型表示部40の開状態又は閉状態を判定できる。
(3−4.透過型表示部の回動検出機構の第4実施例)
図24は、透過型表示部40の回動検出機構の第4実施例を示す図である。
第4実施例の回動検出部75は、第1〜第3の実施例とは異なり、ヒンジ部45等によって押されるスイッチを有しない。代わりに、回動検出部75は、例えばホール素子であり、透過型表示部40には磁石78が設けられている。これにより、回動検出部75は、透過型表示部40が閉状態である場合には磁石78による磁力を検出し、透過型表示部40が開状態である場合には磁石78による磁力を検出しない。これにより、透過型表示部40の開状態又は閉状態を判定できる。
(3−5.透過型表示部の回動検出機構の第5実施例)
透過型表示部40は、図5で説明したように、ユーザの右目と左目のいずれかの前方に位置できるように、第1開状態と第2開状態に位置可能である。そして、第5の実施例では、回動検出部75が、透過型表示部40の開状態として第1開状態と第2開状態を検出可能な構成となっている。
図25は、透過型表示部40の回動検出機構の第5実施例を示す図である。図25(a)は、透過型表示部40が閉状態である場合のヒンジ部45と回動検出部75の位置関係を示し、図25(b)は、透過型表示部40が第1開状態である場合のヒンジ部45と回動検出部75の位置関係を示し、図25(c)は、透過型表示部40が第2開状態である場合のヒンジ部45と回動検出部75の位置関係を示す。
第5実施例のヒンジ部45は、図20に示すDカットされたカット部45aの代わりに、凹部45dを有する。透過型表示部40が閉状態である場合には、図25(a)に示すように、凹部45dに回動検出部75のスイッチ76が入り込んでいる。図25(a)に示すスイッチ76は、付勢部材(不図示)により付勢されているが、ヒンジ部45に接触しておらず、押されていない状態である。
図25(a)に示す閉状態の透過型表示部40が、図25(b)に示す矢印の方向に90度回転して第1開状態に遷移する際には、スイッチ76が凹部45dの側壁によって不勢力に抗い第1方向(例えば、図25(b)に示す時計方向)に押されて倒れる。また、閉状態の透過型表示部40が、図25(c)に示す矢印の方向に90度回転して第2開状態に遷移する際に、スイッチ76が凹部45dの側壁によって不勢力に抗い第2方向(例えば、図25(c)に示す反時計方向)に押されて倒れる。そして、スイッチ76の倒れた方向を検出することで、透過型表示部40の第1開位置と第2開位置を判定できる。
<4.携帯端末の内部構成例>
図26を参照しながら、携帯端末10の内部構成例について説明する。図26は、携帯端末10の内部構成例を示すブロック図である。
システムコントローラ110は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、携帯端末10の全体を制御する制御部とされる。
このシステムコントローラ110は外界の状況に基づいて、携帯端末10内の各部の制御を行う。つまり外界の状況を検知判定し、それに応じて各部の動作制御を実行するようにされた動作プログラムに従って動作する。このため機能的に見れば、図示するように外界の状況を判定する外界状況判定機能110aと、外界状況判定機能110aの判定結果に従って各部に制御指示を行う動作制御機能110bを有することになる。
携帯端末10内では、ユーザの前方の光景の撮像のための構成として、撮像部103、撮像制御部111、撮像信号処理部115が設けられる。
撮像部103は、撮像レンズや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系、さらにレンズ系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイなどが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
撮像信号処理部115は、撮像部103の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像信号を得る。また、撮像信号処理部115は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
撮像制御部111は、システムコントローラ110からの指示に基づいて、撮像部103及び撮像信号処理部115の動作を制御する。例えば撮像制御部111は、撮像部103、撮像信号処理部115の動作のオン/オフを制御する。また、撮像制御部111は、撮像部103に対して、オートフォーカス、自動露出調整、絞り調整、ズームなどの動作を実行させるための制御(モータ制御)を行うものとされる。
また、撮像制御部111は、タイミングジェネレータを備え、固体撮像素子及び撮像信号処理部111のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに、撮像制御部111は、固体撮像素子及び撮像信号処理部115における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部111は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
撮像部103で撮像され、撮像信号処理部115で処理された撮像信号(撮像による画像データ)は画像入出力コントロール部127に供給される。
画像入出力コントロール部127は、システムコントローラ110の制御に応じて、画像データの転送を制御する。即ち撮像系(撮像信号処理部115)、表示系(表示画像処理部112)、ストレージ部125、通信部126の間の画像データの転送を制御する。例えば、画像入出力コントロール部127は、撮像信号処理部115で処理された撮像信号としての画像データを、表示画像処理部112に供給したり、ストレージ部125に供給したり、1通信部26に供給する動作を行う。また、画像入出力コントロール部127は、例えば、ストレージ部125から再生された画像データを、表示画像処理部112に供給したり、通信部126に供給する動作を行う。また、画像入出力コントロール部127は、例えば、通信部126で受信された画像データを、表示画像処理部112に供給したり、ストレージ部125に供給する動作を行う。
携帯端末10においてユーザに対して表示を行う構成としては、表示部102、表示画像処理部112、表示駆動部113、表示制御部114が設けられる。
例えば撮像部103で撮像され、撮像信号処理部115で処理された撮像信号としての画像データは、画像入出力コントロール部127を介して表示画像処理部112に供給されうる。表示画像処理部112は、例えばいわゆるビデオプロセッサとされ、供給された画像データに対して各種表示処理を実行できる部位とされる。例えば画像データの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また、表示画像処理部112は、供給された画像データの一部を拡大した拡大画像の生成、或いは縮小画像の生成、供給された画像データの分割表示のための画像の分離や合成、画像内の一部をハイライト表示(強調表示)させる画像処理、キャラクタ画像やイメージ画像の生成や、生成した画像を供給された画像データに合成する処理なども行うことができる。つまり供給された画像データに対しての各種処理を行うことができる。
表示駆動部113は、表示画像処理部112から供給される画像データを、例えば液晶ディスプレイとされる表示部102において表示させるための画素駆動回路で構成されている。即ち、表示部102においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また、表示駆動部113は、表示部102の各画素の透過率を制御して、スルー状態とすることもできる。
表示制御部114は、システムコントローラ110の指示に基づいて、表示画像処理部112の処理動作や表示駆動部113の動作を制御する。即ち、表示制御部114は、表示画像処理部112に対して、上記の各種処理を実行させる。また、表示制御部114は、表示駆動部113に対して、スルー状態、画像表示状態の切り換えが行われるように制御する。
なお、ストレージ部125で再生された画像データや、通信部126で受信された画像データも、画像入出力コントロール部127を介して表示画像処理部112に供給できる。その場合、表示画像処理部112、表示駆動部113の上記動作により、表示部102において再生画像や受信画像が出力されることになる。
また、携帯端末10には、音声入力部106、音声信号処理部116、音声出力部105が設けられる。
音声入力部106は、図1に示したマイク26と、マイク26で得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを出力する。音声入力部106で得られた音声データは、音声入出力コントロール部128に供給される。
音声入出力コントロール部128は、システムコントローラ110の制御に応じて、音声データの転送を制御する。即ち音声入力部106、音声信号処理部116、ストレージ部125、通信部126の間の音声信号の転送を制御する。例えば、音声入出力コントロール部128は、音声入力部106で得られた音声データを、音声信号処理部116に供給したり、ストレージ部125に供給したり、通信部126に供給する動作を行う。また、音声入出力コントロール部128は、例えば、ストレージ部125で再生された音声データを、音声信号処理部116に供給したり、通信部126に供給する動作を行う。また、音声入出力コントロール部128は、例えば、通信部126で受信された音声データを、音声信号処理部116に供給したり、ストレージ部125に供給する動作を行う。
音声信号処理部116は、例えばデジタルシグナルプロセッサ、D/A変換器などからなる。この音声信号処理部116には、音声入力部106で得られた音声データや、ストレージ部125、或いは通信部126からの音声データが、音声入出力コントロール部128を介して供給される。音声信号処理部116は、供給された音声データに対して、システムコントローラ110の制御に応じて、音量調整、音質調整、音響エフェクト等の処理を行う。そして処理した音声データをアナログ信号に変換して音声出力部102に供給する。なお、音声信号処理部116は、デジタル信号処理を行う構成に限られず、アナログアンプやアナログフィルタによって信号処理を行うものでも良い。
音声出力部105は、図1に示したスピーカ24と、スピーカ24に対するアンプ回路を有する。音声入力部106、音声信号処理部116、音声出力部105により、ユーザは外部音声を聞いたり、ストレージ部125で再生された音声を聞いたり、通信部126で受信された音声を聞くことができる。なお、音声出力部105は、いわゆる骨伝導スピーカとして構成されてもよい。
ストレージ部125は、所定の記録媒体に対してデータの記録再生を行う部位とされる。例えばHDD(Hard Disc Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部125としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
撮像部103で撮像され、撮像信号処理部115で処理された撮像信号としての画像データや、通信部126で受信した画像データは、画像入出力コントロール部127を介してストレージ部125に供給されうる。また、音声入力部106で得られた音声データや、通信部126で受信した音声データは、音声入出力コントロール部128を介してストレージ部125に供給されうる。
ストレージ部125は、システムコントローラ110の制御に従って、供給された画像データや音声データに対して、記録媒体への記録のためのエンコード処理を行い、記録媒体に記録する。また、ストレージ部125は、システムコントローラ110の制御に従って、記録媒体から画像データや音声データを再生する。再生した画像データは画像入出力コントロール部127へ出力され、また再生した音声データは音声入出力コントロール部128へ出力される。
通信部126は、外部機器との間でのデータの送受信を行う。通信部126は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
撮像部103で撮像され、撮像信号処理部115で処理された撮像信号としての画像データや、ストレージ部125で再生した画像データは、画像入出力コントロール部127を介して通信部126に供給されうる。また、音声入力部106で得られた音声データや、ストレージ部125で再生された音声データは、音声入出力コントロール部128を介して通信部126に供給されうる。
通信部126は、システムコントローラ110の制御に従って、供給された画像データや音声データに対して、送信のためのエンコード処理、変調処理等を行い、外部機器に送信する。また、通信部126は、外部機器からのデータ受信動作を行う。通信部126は、受信復調した画像データは画像入出力コントロール部127へ出力し、また受信復調した音声データは音声入出力コントロール部128へ出力する。
また、携帯端末10には、音声合成部127が設けられる。音声合成部127は、システムコントローラ110の指示に応じて音声合成を行い、音声信号を出力する。音声合成部127から出力された音声信号は、音声入出力コントロール部128を介して音声信号処理部116に供給されて処理された後、音声出力部105に供給され、ユーザに対して音声出力される。音声合成部127は、例えば読み上げ音声の音声信号を発生させても良い。
携帯端末10には、照明部104と照明制御部118が設けられる。照明部104は、発光部(例えばLED)と、発光部を発光させる発光回路から成る。照明制御部118は、システムコントローラ110の指示に基づいて、照明部4に発光動作を実行させる。
携帯端末10は、外界情報を取得するための構成として、周囲環境センサ119、撮像対象センサ120、GPS受信部121、日時計数部122、画像解析部117、及び通信部126を有する。
周囲環境センサ119としては、例えば照度センサ、温度センサ、湿度センサ、気圧センサ等が想定され、携帯端末10の周囲環境として、周囲の明るさ、温度、湿度、或いは天候等を検出するための情報を得るセンサとされる。
撮像対象センサ120は、撮像部103での撮像動作の被写体となっている撮像対象に関する情報を検出するセンサである。例えば、携帯端末10から撮像対象までの距離の情報を検出する測距センサや、焦電センサなどの赤外線センサのように、撮像対象が発する赤外線の特定の波長などの情報やエネルギーを検出するセンサなどが想定される。焦電センサの場合、例えば撮像対象が人や動物などの生体であるか否かの検出が可能となる。さらに、各種UV(Ultra Violet)センサのように、撮像対象が発する紫外線の特定の波長などの情報やエネルギーを検出するセンサも想定される。この場合、例えば撮像対象が蛍光物質や蛍光体であるか否かの検出や、日焼け対策に必要な外界の紫外線量の検出が可能となる。
GPS受信部121は、GPS(Global Positioning System)の衛星からの電波を受信し、現在位置としての緯度・経度の情報を出力する。
日時計数部122は、いわゆる時計部として、日時(年月日時分秒)を計数し、現在日時情報を出力する。
画像解析部117は、画像データの画像解析を行う。画像解析部117には、画像入出力コントロール部127を介して画像データが供給される。画像解析部117において画像解析の対象となる画像データとは、撮像部103、撮像信号処理部115により得られた撮像画像としての画像データや、通信部126で受信された画像データ、或いはストレージ部125で記録媒体から再生された画像データとなる。つまり、携帯端末10が、表示部102において表示可能に入力した画像データが画像解析部117での画像解析対象となる。そして、画像解析部117は、画像データを解析し、画像データに含まれる画像の情報を得る。
通信部126は、外部機器との間でのデータ通信を行う。外部機器としては、コンピュータ機器、PDA(Personal Digital Assistant)、携帯電話機、ビデオ機器、オーディオ機器、チューナ機器など、情報処理及び通信機能を備えたあらゆる機器が想定される。また、インターネット等のネットワークに接続された端末装置、サーバ装置なども通信対象の外部機器として想定される。さらには、ICチップを内蔵した非接触通信ICカード、QRコード等の二次元バーコード、ホログラムメモリなどを外部機器とし、通信部126はこれらの外部機器から情報を読み取る構成とすることも考えられる。さらには他の携帯端末10も外部機器として想定される。通信部126は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでも良い。
これら周囲環境センサ119、撮像対象センサ120、GPS受信部121、日時計数部122、画像解析部117、及び通信部126により、携帯端末10からみての外界の情報が取得され、システムコントローラ110に供給される。
システムコントローラ110は、外界状況判定機能110aの処理により、取得した外界情報に応じて、動作制御機能110bの処理により、撮像動作や表示動作に関する制御を行う。即ち、システムコントローラ110は、表示制御部114に指示して表示画像処理部112や表示駆動部113の動作を制御したり、表示するデータのソースを選択したり、またストレージ部125の再生動作や通信部126の通信動作の制御を行う。
なお、外界情報を取得するための構成として周囲環境センサ119、撮像対象センサ120、GPS受信部121、日時計数部122、画像解析部117、及び通信部126を示したが、これらは必ずしも全てを備える必要はない。また、周囲の音声を検知・解析する音声解析部など、他のセンサが設けられても良い。
<5.透過型表示部による表示処理>
携帯端末10は、例えば通話中に、開状態の透過型表示部40に文字、画像、図形等を表示させる。以下において、通話中の透過型表示部40による表示処理例について説明する。
(5−1.通話中の会話から話題を抽出して関連情報の表示処理)
本実施形態に係る携帯端末10は、ユーザが第三者(通話相手)と通話している際に、会話から話題を抽出し、抽出した話題に対応する関連情報を透過型表示部40に表示可能である。以下において、図27〜図32を参照しながら、通話中の話題の関連情報の表示処理について説明する。
図27は、会話から抽出した話題に基づく関連情報の表示処理を示すフローチャートである。図28〜図32は、通話中の話題の関連情報の表示処理中の透過型表示部40の表示例を示す図である。
図27のフローチャートは、携帯端末10のユーザが通話相手と通話を行うと共に、透過型表示部40が開状態となってユーザの目の前に位置するところから開始される。この際、透過型表示部40には、図28に示すように画像等が表示されておらず、ユーザは、透過型表示部40を介して部屋の様子を見ているものとする。
まず、携帯端末10のシステムコントローラ110は、ユーザと通話相手の音声を音声入出力コントロール128でテキストへ変換し、変換したテキストデータをストレージ125に記憶させる(ステップS102)。
次に、システムコントローラ110は、所定期間毎に、ストレージ125に記憶されたテキストデータの内容に類似する話題を抽出する(ステップS104)。所定期間として、ここでは例えば5分であるが、これに限定されない。
ここで、話題の抽出方法の一例を説明する。まず、テキストデータの形態素解析を施して、不要語を除外した単語(特徴語)を抽出し、各単語の重みを演算する。これにより、テキストデータの特徴ベクトルが算出される。次に、予めストレージ125等に記憶されているデータベース(話題毎の特徴ベクトルが格納されている)を検索し、テキストデータの特徴ベクトルと、データベースに格納された話題毎の特徴ベクトルとの内積から、類似度をそれぞれ算出する。そして、例えば類似度が最大の話題を抽出する。
図27のフローチャートに戻って説明を続ける。システムコントローラ110は、抽出された話題と関連付けられたURLの画像(例えば、カバー画像)を、図29に示すように透過型表示部40に表示させる(ステップS106)。図29では、ドラマの話題に関する複数のカバー画像I1a〜I1dが、透過型表示部40の右側半分の領域に表示されている。しかし、カバー画像の表示位置は、これに限定されず、例えば透過型表示部40の左側の領域であっても良い。
透過型表示部40が複数のカバー画像を表示している際に、ユーザは、表示された複数のカバー画像の中から一のカバー画像を選択すべく、図30に示すように指先を一のカバー画像上に重ねることができる。なお、システムコントローラ110は、撮像部103によって、透過型表示部40に対応する位置に手が位置すると認識した場合には、図30に示すように、透過型表示部40にカバー画像上に重ねられた手を擬似的に表示しても良い。
次に、システムコントローラ110は、ユーザの指先と一のカバー画像とが所定時間重なっているか否かを判定する(ステップS108)。そして、ステップS108で指先と一のカバー画像とが所定時間重なっていると判定された場合には(Yes)、システムコントローラ110は、指先が重なっていたカバー画像に対応するURLにアクセスする(ステップS110)。これにより、カバー画像に対応するウェブページが取得されることになる。
次に、システムコントローラ110は、取得したウェブページを、図31に示すように透過型表示部40の左側半分の領域に表示させる(ステップS112)。ここでは、図31に示すように、ウェブページI2が全画面表示されている。
次に、システムコントローラ110は、ウェブページの表示後の所定時間内に、ユーザが操作を行なっていないかを判定する(ステップS114)。そして、ステップS114でユーザが操作を行なっていない場合には(Yes)、システムコントローラ110は、ステップS104の処理に戻って再度話題を抽出して、図32に示すようにカバー画像を表示させる。図32では、アニメの話題に関する複数のカバー画像I3a〜I3dが表示されている。
なお、ステップS114で所定時間内にユーザが操作を行った場合には、システムコントローラ112は、ユーザの操作に対応した処理(例えば、ブラウジングや他のURLへのアクセス)を行う。
上述した会話から抽出した話題に基づく関連情報の表示処理によれば、ユーザは、第三者との通話中に、話題に対応する画像等を透過型表示部40で見ることができる。
上述した表示処理によれば、システムコントローラ110は、通話中に取得した音声又は画像に応じて、音声又は画像の関連情報(ウェブページ)を生成し、透過型表示部40に表示させる。具体的には、システムコントローラ110は、通話中に取得した音声(会話)に対応する話題に関するURLにアクセスして、URLに対応するウェブページを取得する。そして、システムコントローラ110は、取得したウェブページを透過型表示部40に表示させる。これにより、ユーザは、表示されたウェブページを見ることにより、通話をしながら、会話に関連する話題の情報を得やすくなる。
(5−2.同時視聴しているテレビ画面の関連情報の表示処理)
本実施形態に係る携帯端末10は、ユーザが第三者と同時にテレビを視聴している際に、視聴しているテレビ画面の関連情報を透過型表示部40に表示可能である。以下において、図33〜図38を参照しながら、同時視聴しているテレビ画面の関連情報の表示処理について説明する。
図33と図34は、同時視聴しているテレビ画面の関連情報の表示処理を示すフローチャートである。図35〜図38は、同時視聴しているテレビ画面の関連情報の表示処理中の透過型表示部40の表示例を示す図である。
図33のフローチャートは、第三者と通話中の携帯端末10のユーザが、視聴するテレビの表示をONしたところから開始される(ステップS202)。この際、透過型表示部40は、開状態となってユーザの目の前に位置している。
次に、携帯端末10のシステムコントローラ110は、放送されているテレビ番組の映像と音声を一時的に記憶する(ステップS204)。次に、システムコントローラ110は、映像と音声からシグネチャー(例えば、フィンガープリント)を生成し、外部装置であるサーバに送信する(ステップS206)。なお、上記では、映像と音声からシグネチャーを生成しているが、これに限定されず、音声のみからシグネチャーを生成することとしても良い。
サーバは、携帯端末10から受信したシグネチャーに基づいて、視聴中のテレビ番組に関連情報と、画像情報と、関連情報の表示位置情報等とを生成することになる。ここで、関連情報は、例えば、視聴中のテレビ番組のタイトルや、登場人物に関する情報である。画像情報は、テレビ画面の画角を決定するための情報である。
次に、システムコントローラ110は、サーバが生成した視聴中のテレビ番組の関連情報、画像情報、及び表示位置情報等を、サーバから取得する(ステップS208)。次に、システムコントローラ110は、撮像部103により撮像される画像と、取得した画像情報とを比較することで、テレビ画面の画角を特定する(ステップS210)。そして、システムコントローラ110は、図35に示すように、取得した表示位置情報が示すテレビ画面に対する所定の相対位置に、関連情報をAR表示する。図35では、関連情報として、番組タイトルを示す情報I4a、番組の内容を示す情報I4b、及び登場人物を示す情報I4c、I4dがAR表示されている。
その後、第三者である通話相手が利用する端末が、操作情報の要求を送信したものとする(ステップS212)。すると、携帯端末10が、操作情報の要求に応じて認証信号を通話相手の端末に送信する(ステップS214)ことで、通話相手の端末は、認証信号を受信する(ステップS216)。
次に、携帯端末10のシステムコントローラ110は、ユーザの指先と関連情報とが所定時間重なっているか否かを判定する(ステップS218)。そして、ステップS218で指先と関連情報とが所定時間重なっていると判定された場合には(Yes)、例えば図36に示すように指先と登場人物を示す情報I4dとが重なっている場合には、システムコントローラ110は、指先が重なっていた関連情報I4dに関連付けられたURLにアクセスする(ステップS220)。これにより、関連情報I4dに対応するウェブページが取得されることになる。
次に、システムコントローラ110は、ステップS220でアクセスしたURLを含む情報を、通話相手の端末に送信する(ステップS222)ことで、通話相手の端末は、URLを含む情報を受信する(ステップS224)。通話相手の端末は、受信した情報に含まれるURLにアクセスする(ステップS226)。
携帯端末10のシステムコントローラ110は、図37に示すように、アクセスしたURLのウェブページI5を透過型表示部40に表示する(ステップS228)。この際、システムコントローラ110は、テレビ画面を避けるようにウェブページI5を表示し、また関連情報I4cとウェブページが重ならないように関連情報I4cの位置を変更している。
通話相手の端末も、携帯端末10と同様に、アクセスしたURLのウェブページを表示する(ステップS230)。通話相手の端末が携帯端末10と同様な端末である場合には、図38に示すように、上述したステップS228で説明した表示制御が行われる。なお、図38は、通話相手が利用する携帯端末の透過型表示部40の表示例である。
上述した表示処理によれば、システムコントローラ110は、通話相手と同時に視聴しているテレビ画面に対応するURLにアクセスして、URLに対応するウェブページを取得する。そして、システムコントローラ110は、取得したウェブページを透過型表示部40に表示させる。これにより、ユーザは、表示されたウェブページを見ることにより、視聴中のテレビ画面に関する付加情報を得やすくなる。
(5−3.相手の話の要約の自動表示処理)
本実施形態に係る携帯端末10は、ユーザが第三者(通話相手)と通話している際に、通話相手の話の要約を生成して、透過型表示部40に自動的に表示可能である。以下において、図39〜図41を参照しながら、通話相手の話の要約の表示処理について説明する。
図39は、通話相手の話の要約の表示処理を示すフローチャートである。図40と図41は、通話相手の話の要約の表示処理中の透過型表示部40の表示例を示す図である。
図39のフローチャートは、携帯端末10のユーザが通話相手と通話を行うと共に、透過型表示部40が開状態となってユーザの目の前に位置するところから開始される。
まず、携帯端末10のシステムコントローラ110は、ユーザが操作部で要約機能をONさせる操作を行うと、要約機能をONする(ステップS302)。この際、図40に示すように、透過型表示部40に要約機能がON状態である情報I6が表示されても良い。
次に、システムコントローラ110は、通話相手の音声を音声入出力コントロール128でテキストへ変換し、変換したテキストデータをストレージ125に記憶させる(ステップS304)。
次に、システムコントローラ110は、所定時間(一例として5分)後に、ストレージ125に記憶された所定時間の間のテキストデータの内容から要約を作成し、図40(a)に示すように透過型表示部40に表示する(ステップS306)。図40(a)では、透過型表示部40の右側半分の領域に要約I7aが表示されている。
ここで、テキストデータの要約の作成方法の一例について説明する。テキストデータの要約は、まず、テキストデータを単語、句、文等に分割し、分割された単語や句等を現れる頻度や互いの近さ等の特徴を取得する。そして、取得した単語や句等の特徴に基づき、順番や近さ等が要約に与える影響を考慮して、テキストデータにおける単語、句等の重要度をランキングする。そして、ランキングに基づき、要約文が作成される。
図39に戻って説明を続ける。システムコントローラ110は、要約の表示から所定時間が経過したか否かを判定する(ステップS308)。所定時間として、ここでは例えば30秒であるが、これに限定されない。
そして、ステップS308で所定時間が経過した場合には(Yes)、システムコントローラ110は、再度、通話相手の話の要約を作成し、図40(b)、図40(c)に示すように透過型表示部40に表示させる。図40(b)及び図40(c)では、図40(a)とは異なる要約I7b、I7cが示されている。すなわち、システムコントローラ110は、要約の作成と表示を繰り返す。
一方で、ステップS308で所定時間が経過する前は(No)、システムコントローラ110は、ユーザが操作部で要約機能をOFFにさせる操作を行ったか否かを判定する(ステップS310)。そして、ステップS310で要約機能をOFFにした場合には(Yes)、システムコントローラ110は、通話相手の音声を音声入出力コントロール128でテキストへ変換する処理を停止する(ステップS312)。
上述した表示処理によれば、システムコントローラ110は、通話中に、通話相手の端末から取得した音声の内容の要約を生成し、透過型表示部40に表示させるので、通話をしながら通話相手の話した内容を適切に理解できる。
(5−4.通話相手のジェスチャに基づくナビゲーション情報の表示処理)
本実施形態に係る携帯端末10は、通話相手の端末から取得した通話相手のジェスチャ情報に基づきナビゲーション情報を生成し、生成したナビゲーション情報を透過型表示部40に表示可能である。以下において、図42及び図43を参照しながら、通話相手のジェスチャに基づくナビゲーション情報の表示処理について説明する。
図42は、通話相手のジェスチャに基づくナビゲーション情報の表示処理を示すフローチャートである。図43は、通話相手のジェスチャに基づくナビゲーション情報の表示処理の流れを説明するための説明図である。
図42のフローチャートは、ユーザの携帯端末10が、通話相手の端末と通話を確立し、道案内モードを起動したところから開始される(ステップS402)。ユーザの携帯端末10は、道案内モードを起動すると、その情報を通話相手の端末に送信する。これにより、通話相手の端末も、道案内モードを起動させる(ステップS403)。なお、本表示処理において、通話相手の端末も、透過型表示部40を有する携帯端末10であるものとする。
次に、ユーザの携帯端末10(具体的には、システムコントローラ110)は、撮像部103によって、図43(a)に示すようなユーザの視野画像I8を撮像する(ステップS404)。次に、ユーザの携帯端末10は、撮像した視野画像を通話相手の端末に送信する(ステップS406)。この際、ユーザは、通話相手に対して、例えば目的地への道案内に関する質問をする。
通話相手の携帯端末10は、受信した視野画像を透過型表示部40に表示する(ステップS408)。次に、通話相手の携帯端末10は、撮像部103によって、通話相手の前方(透過型表示部40を含む領域)を撮像する(ステップS410)。通話相手は、ユーザの目的地への道案内に関する質問に応えるべく、図43(b)に示すように、透過型表示部40に表示された画像における目的地に指を重ねる。すると、通話相手の携帯端末10は、透過型表示部40と共に通話相手の指も撮像することになる。
次に、通話相手の携帯端末10は、撮像画像から通話相手の手を認識して切り出す(ステップS412)。次に、通話相手の携帯端末10は、切り出した手の画像をユーザの携帯端末10に送信する(ステップS414)。
次に、ユーザの携帯端末10は、通話相手の端末から受信した手の画像I9をナビゲーション情報として、図43(c)に示すように透過型表示部40に表示する(ステップS416)。これにより、ユーザは、目的地を容易に把握できる。その後、ユーザが動作中の道案内モードを終了させる操作等を行った場合には(ステップS418:Yes)、ユーザの携帯端末10は、動作中の道案内モードを終了させる(ステップS420)。この際、ユーザの携帯端末10は、道案内モードを終了させると共に、その情報を通話相手の携帯端末10に送信する。これにより、通話相手の携帯端末10も、動作中の道案内モードを終了させる(ステップS422)。これにより、本表示処理が終了する。
なお、上記では、ナビゲーション情報として手の画像を透過型表示部40に表示することとしたが、これに限定されない。例えば、ナビゲーション情報は、目的地を指す矢印や、目的地を囲む円や矩形の図形や、文字等であっても良い。また、ナビゲーション情報として、目的地に関する音声を出力しても良い。
上述した表示処理によれば、システムコントローラ110は、通話中の通話相手の動作に関する動作情報を取得し、取得した動作情報に基づくナビゲーション情報を生成し、透過型表示部40に表示させる。具体的には、システムコントローラ110は、通話相手のジェスチャ情報を取得し、取得したジェスチャ情報に基づくナビゲーション情報を透過型表示部40に表示させる。これにより、ユーザは、透過型表示部40に表示されたナビゲーション情報を見ることで、例えば通話相手の道案内を理解しやすくなる。
(5−5.音声から抽出したキーワードに基づくナビゲーション情報の表示処理)
本実施形態に係る携帯端末10は、通話相手の音声から目的地を特定するキーワードを抽出し、抽出したキーワードに基づき目的地へのナビゲーション情報を透過型表示部40に表示可能である。以下において、図44及び図45を参照しながら、通話相手の音声から抽出したキーワードに基づくナビゲーション情報の表示処理について説明する。
図44は、通話相手の音声から抽出したキーワードに基づくナビゲーション情報の表示処理を示すフローチャートである。図45は、通話相手の音声から抽出したキーワードに基づくナビゲーション情報の表示処理の流れを説明するための説明図である。
図44のフローチャートは、ユーザの携帯端末10が、通話相手の端末と通話を確立し、道案内モードを起動したところから開始される(ステップS502)。なお、本表示処理において、通話相手の端末は、少なくとも通話機能を有すれば良い。
次に、携帯端末10のシステムコントローラ110は、撮像部103によって、図45(a)に示すようにユーザの視野画像を撮像する(ステップS504)。次に、携帯端末10は、GPS受信部121によって、携帯端末10のユーザの現在位置及び進行方向を検出する(ステップS506)。
その後、ユーザが、通話相手に対して例えば目的地への道案内に関する質問をし、通話相手が、ユーザの質問に対して図45(b)のように目的地(「ABC百貨店」)に関する発話をしたものとする。
すると、システムコントローラ110は、通話相手からの音声を音声認識し、目的地に関するキーワードを抽出する(ステップS508)。ここでは、システムコントローラ110は、キーワードとして「ABC百貨店」を抽出することになる。
次に、システムコントローラ110は、地図情報から、ユーザの現在位置周辺で抽出したキーワードに合致する場所を特定し、目的地に設定する(ステップS510)。そして、システムコントローラ110は、図45(c)に示すように、目的地の方向へ誘導するナビゲーション情報を透過型表示部40に表示する(ステップS512)。図45(c)では、ナビゲーション情報として、目的地の方向を示す矢印I10が表示されている。
次に、システムコントローラ110は、ユーザの現在位置及び進行方向から、視野映像内に目的地が含まれるか否かを判定する(ステップS514)。そして、ステップS514で目的地が含まれると判定した場合には(Yes)、システムコントローラ110は、図45(d)に示すように、目的地を指し示すナビゲーション情報を透過型表示部40に表示する(ステップS516)。図45(d)では、ナビゲーション情報として、目的地を囲む円の図形I11が表示されている。その後、ユーザが動作中の道案内モードを終了させる操作等を行った場合には(ステップS518:Yes)、システムコントローラ110は、動作中の道案内モードを終了させる(ステップS520)。これにより、本表示処理が終了する。
なお、上記では、ナビゲーション情報として、目的地の方向を示す矢印や目的地を囲む円の図形が表示されたが、これに限定されない。例えば、矢印の代わりに、文字や図形を表示しても良く、円の図形の代わりに、他の図形(例えば矩形)や文字を表示しても良い。また、ナビゲーション情報として、目的地への方向や目的地の場所に関する音声を出力しても良い。
上述した表示処理によれば、システムコントローラ110は、通話相手が発し音声を取得し、取得した音声に基づくナビゲーション情報を透過型表示部40に表示させる。これにより、ユーザは、透過型表示部40に表示されたナビゲーション情報を見ることで、例えば通話相手の道案内を理解しやすくなる。
<6.まとめ>
上述した携帯端末10においては、透過型表示部40は、音声出力部による音声出力中に、筺体20の主面と交差する平面上に配置可能である。これにより、例えばユーザが携帯端末10を耳に当てて出力されている音声を聞いている際に、透過型表示部40が見えやすい位置に位置するため、透過型表示部40の表示を適切に把握できる。
特に、透過型表示部40は、図3に示すように、第三者との通話中に筐体20の主面と交差する平面上に配置可能である。これにより、ユーザは第三者との通話している際に、透過型表示部40が見えやすい位置に位置するため、透過型表示部40の表示を把握しやすくなる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
本明細書において説明した情報処理装置による処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
音声を出力する音声出力部を有する筺体と、
前記筺体に対して回動可能に設けられた透過型表示部と、
を備え、
前記透過型表示部は、前記音声出力部による音声出力中に、前記筺体の主面と交差する平面上に配置可能である、携帯端末。
(2)
通話を行う通話部を更に備え
前記透過型表示部は、通話中に、前記筺体の主面と交差する平面上に配置可能である、
前記(1)に記載の携帯端末。
(3)
前記透過型表示部は、前記筺体に対する閉状態と開状態の間で回動し、
前記閉状態に位置する前記透過型表示部の表示面と、前記筺体の主面とが、同一面上に位置する、
前記(1)又は(2)に記載の携帯端末。
(4)
前記透過型表示部は、前記筺体に対する閉状態と開状態の間で回動し、
前記閉状態に位置する前記透過型表示部の表示面と、前記筺体の主面とが、平行である、
前記(1)又は(2)に記載の携帯端末。
(5)
前記透過型表示部は、前記筺体に対して第1方向に回動した第1開状態、又は前記第1方向とは逆方向に回動した第2回動状態に位置する際に、前記主面と交差する平面上に配置可能である、
前記(1)〜(4)のいずれか1項に記載の携帯端末。
(6)
前記透過型表示部は、非透過型の第2表示部を有する、
前記(1)〜(5)のいずれか1項に記載の携帯端末。
(7)
前記第2表示部は、前記透過型表示部が前記筺体に対して閉状態に位置する際に、表示を行う、
前記(6)に記載の携帯端末。
(8)
前記透過型表示部の回動状態を検出する検出部と、
前記透過型表示部の表示を制御する制御部と、
を更に備え、
前記制御部は、前記検出部により検出された前記透過型表示部の回動状態に応じて、表示を制御する、
前記(1)〜(7)のいずれか1項に記載の携帯端末。
(9)
通話を行う通話部と、
音声又は画像を取得する取得部と、
通話中に、前記取得部により取得された音声又は画像に応じて、前記音声又は前記画像の関連情報を生成し、前記透過型表示部に表示させる制御部と、
を更に備える、
前記(1)〜(8)のいずれか1項に記載の携帯端末。
(10)
URLにアクセスし、ウェブ情報を取得するウェブ情報取得部を更に備え、
前記制御部は、前記取得部により取得された音声に対応する話題に関連するURLにアクセスするように制御する、
前記(9)に記載の携帯端末。
(11)
URLにアクセスし、ウェブ情報を取得するウェブ情報取得部を更に備え、
前記制御部は、前記取得部により取得された画像に対応するURLにアクセスするように制御する、
前記(9)又は(10)に記載の携帯端末。
(12)
前記制御部は、前記取得部により取得された音声の内容の要約を生成し、前記透過型表示部に表示させる、
前記(9)〜(11)のいずれか1項に記載の携帯端末。
(13)
通話を行う通話部と、
通話中の通話相手の動作に関する動作情報を取得する取得部と、
前記取得部により取得された動作情報に基づくナビゲーション情報を生成し、前記透過型表示部に表示させる制御部と、
を更に備える、
前記(1)〜(12)のいずれか1項に記載の携帯端末。
(14)
前記取得部は、前記動作情報として前記通話相手のジェスチャ情報を取得し、
前記制御部は、取得した前記ジェスチャ情報に基づくナビゲーション情報を前記透過型表示部に表示させる、
前記(13)に記載の携帯端末。
(15)
前記取得部は、前記動作情報として前記通話相手が発した音声を取得し、
前記制御部は、取得した音声に基づくナビゲーション情報を前記透過型表示部に表示させる、
前記(13)又は(14)に記載の携帯端末。
(16)
前記透過型表示部は、
前記筺体に対して回動可能な基部と、
前記基部の表面に設けられ、画像表示素子からの光を全反射させながら射出口へ導く導光部と、
前記基部と前記導光部の間に形成された空気層と、
を有する、
前記(1)〜(15)のいずれか1項に記載の携帯端末。
(17)
前記導光部は、
前記基部の第1表面に設けられた第1導光部と、
前記基部の前記第1表面とは反対側の第2表面に設けられた第2導光部と、
であり、
前記空気層は、
前記基部の前記第1表面と前記第1導光部の間に形成された第1空気層と、
前記基部の前記第2表面と前記第2導光部の間に形成された第2空気層と、
である、
前記(16)に記載の携帯端末。
(18)
前記基部は、前記筺体に対して第1方向に回動した第1開状態、又は前記第1方向とは逆方向に回動した第2回動状態に位置し、
前記第1導光部は、前記基部が前記第1開状態に位置する際に、前記画像表示素子からの光を全反射させながら射出口へ導き、
前記第2導光部は、前記基部が前記第2開状態に位置する際に、前記画像表示素子からの光を全反射させながら射出口へ導く、
前記(17)に記載の携帯端末。
10 携帯端末
20 筺体
20a 前面
24 スピーカ
40 透過型表示部
41 基部
42 第2表示部
43、47 導光板
44、48 空気層
45 ヒンジ部
75 回動検出部
110 システムコントローラ

Claims (18)

  1. 音声を出力する音声出力部を有する筺体と、
    前記筺体に対して回動可能に設けられた透過型表示部と、
    を備え、
    前記透過型表示部は、前記音声出力部による音声出力中に、前記筺体の主面と交差する平面上に配置可能である、携帯端末。
  2. 通話を行う通話部を更に備え
    前記透過型表示部は、通話中に、前記筺体の主面と交差する平面上に配置可能である、
    請求項1に記載の携帯端末。
  3. 前記透過型表示部は、前記筺体に対する閉状態と開状態の間で回動し、
    前記閉状態に位置する前記透過型表示部の表示面と、前記筺体の主面とが、同一面上に位置する、
    請求項1に記載の携帯端末。
  4. 前記透過型表示部は、前記筺体に対する閉状態と開状態の間で回動し、
    前記閉状態に位置する前記透過型表示部の表示面と、前記筺体の主面とが、平行である、
    請求項1に記載の携帯端末。
  5. 前記透過型表示部は、前記筺体に対して第1方向に回動した第1開状態、又は前記第1方向とは逆方向に回動した第2回動状態に位置する際に、前記主面と交差する平面上に配置可能である、
    請求項1に記載の携帯端末。
  6. 前記透過型表示部は、非透過型の第2表示部を有する、
    請求項1に記載の携帯端末。
  7. 前記第2表示部は、前記透過型表示部が前記筺体に対して閉状態に位置する際に、表示を行う、
    請求項6に記載の携帯端末。
  8. 前記透過型表示部の回動状態を検出する検出部と、
    前記透過型表示部の表示を制御する制御部と、
    を更に備え、
    前記制御部は、前記検出部により検出された前記透過型表示部の回動状態に応じて、表示を制御する、
    請求項1に記載の携帯端末。
  9. 通話を行う通話部と、
    音声又は画像を取得する取得部と、
    通話中に、前記取得部により取得された音声又は画像に応じて、前記音声又は前記画像の関連情報を生成し、前記透過型表示部に表示させる制御部と、
    を更に備える、
    請求項1に記載の携帯端末。
  10. URLにアクセスし、ウェブ情報を取得するウェブ情報取得部を更に備え、
    前記制御部は、前記取得部により取得された音声に対応する話題に関連するURLにアクセスするように制御する、
    請求項9に記載の携帯端末。
  11. URLにアクセスし、ウェブ情報を取得するウェブ情報取得部を更に備え、
    前記制御部は、前記取得部により取得された画像に対応するURLにアクセスするように制御する、
    請求項9に記載の携帯端末。
  12. 前記制御部は、前記取得部により取得された音声の内容の要約を生成し、前記透過型表示部に表示させる、
    請求項9に記載の携帯端末。
  13. 通話を行う通話部と、
    通話中の通話相手の動作に関する動作情報を取得する取得部と、
    前記取得部により取得された動作情報に基づくナビゲーション情報を生成し、前記透過型表示部に表示させる制御部と、
    を更に備える、
    請求項1に記載の携帯端末。
  14. 前記取得部は、前記動作情報として前記通話相手のジェスチャ情報を取得し、
    前記制御部は、取得した前記ジェスチャ情報に基づくナビゲーション情報を前記透過型表示部に表示させる、
    請求項13に記載の携帯端末。
  15. 前記取得部は、前記動作情報として前記通話相手が発した音声を取得し、
    前記制御部は、取得した音声に基づくナビゲーション情報を前記透過型表示部に表示させる、
    請求項13に記載の携帯端末。
  16. 前記透過型表示部は、
    前記筺体に対して回動可能な基部と、
    前記基部の表面に設けられ、画像表示素子からの光を全反射させながら射出口へ導く導光部と、
    前記基部と前記導光部の間に形成された空気層と、
    を有する、
    請求項1に記載の携帯端末。
  17. 前記導光部は、
    前記基部の第1表面に設けられた第1導光部と、
    前記基部の前記第1表面とは反対側の第2表面に設けられた第2導光部と、
    であり、
    前記空気層は、
    前記基部の前記第1表面と前記第1導光部の間に形成された第1空気層と、
    前記基部の前記第2表面と前記第2導光部の間に形成された第2空気層と、
    である、
    請求項16に記載の携帯端末。
  18. 前記基部は、前記筺体に対して第1方向に回動した第1開状態、又は前記第1方向とは逆方向に回動した第2回動状態に位置し、
    前記第1導光部は、前記基部が前記第1開状態に位置する際に、前記画像表示素子からの光を全反射させながら射出口へ導き、
    前記第2導光部は、前記基部が前記第2開状態に位置する際に、前記画像表示素子からの光を全反射させながら射出口へ導く、
    請求項17に記載の携帯端末。
JP2014542002A 2012-10-17 2013-09-17 携帯端末 Expired - Fee Related JP6350285B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012229888 2012-10-17
JP2012229888 2012-10-17
PCT/JP2013/075006 WO2014061388A1 (ja) 2012-10-17 2013-09-17 携帯端末

Publications (2)

Publication Number Publication Date
JPWO2014061388A1 true JPWO2014061388A1 (ja) 2016-09-05
JP6350285B2 JP6350285B2 (ja) 2018-07-04

Family

ID=50487963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014542002A Expired - Fee Related JP6350285B2 (ja) 2012-10-17 2013-09-17 携帯端末

Country Status (5)

Country Link
US (3) US9609097B2 (ja)
EP (1) EP2911371B1 (ja)
JP (1) JP6350285B2 (ja)
CN (2) CN109495613B (ja)
WO (1) WO2014061388A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2947861B1 (en) * 2014-05-23 2019-02-06 Samsung Electronics Co., Ltd System and method of providing voice-message call service
CN105228070A (zh) * 2014-06-16 2016-01-06 施耐德电气工业公司 现场扬声器装置、现场语音广播系统及其方法
JP6620417B2 (ja) * 2015-05-12 2019-12-18 セイコーエプソン株式会社 表示装置およびその制御方法、並びにコンピュータープログラム
US10942975B2 (en) * 2016-05-20 2021-03-09 Cisco Technology, Inc. Search engine for sensors
JP6950708B2 (ja) 2016-12-05 2021-10-13 ソニーグループ株式会社 情報処理装置、情報処理方法、および情報処理システム
CN109597268B (zh) * 2017-09-30 2020-09-22 昆山国显光电有限公司 显示装置
CN108769862A (zh) * 2018-08-17 2018-11-06 张歆 一种画面投射音响
CN110146984A (zh) * 2018-12-29 2019-08-20 深圳珑璟光电技术有限公司 一种可调节滤光式视觉增强装置
CN110418048A (zh) * 2019-08-28 2019-11-05 Oppo广东移动通信有限公司 移动终端
CN110955050A (zh) 2019-12-05 2020-04-03 张炎召 一种近眼显示装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155141A (ja) * 1996-11-22 1998-06-09 Canon Inc 情報伝送装置
JPH1132379A (ja) * 1997-07-14 1999-02-02 Sony Corp 視覚装置付携帯電話装置並びにパーソナルコンピュータ装置
JP2002508893A (ja) * 1997-04-22 2002-03-19 ノキア オーユーイー 多機能電気通信デバイス
JP2002152350A (ja) * 2000-11-10 2002-05-24 Sanyo Electric Co Ltd 携帯テレビ電話
JP2002297645A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd インターネット情報検索端末
JP2004015519A (ja) * 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd 音声通信装置
GB2409598A (en) * 2003-12-24 2005-06-29 Nokia Corp Mobile phone with camera and extensible grip

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2706103B1 (fr) * 1993-06-03 1997-01-31 Ericsson Ge Mobile Communicat Appareil radiotéléphonique.
JP3825166B2 (ja) 1998-02-10 2006-09-20 株式会社リコー 画像表示・入力装置およびテレビ電話
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7119843B2 (en) * 2000-11-10 2006-10-10 Sanyo Electric Co., Ltd. Mobile phone provided with video camera
JP2003229935A (ja) * 2002-02-01 2003-08-15 Sony Corp 携帯電子機器
JP2004135177A (ja) * 2002-10-11 2004-04-30 Sharp Corp 携帯電話機
US20040214610A1 (en) * 2003-04-24 2004-10-28 Tetsuo Tanemura Communication device having multiple displays
GB2408425B (en) * 2003-11-22 2007-11-14 Nokia Corp Data delivery
US7660904B2 (en) * 2004-05-11 2010-02-09 Microsoft Corporation Providing keys to share data within an instant messaging session
US7542273B2 (en) * 2006-08-25 2009-06-02 Laycock Larry R Music display and collaboration system
JP5119636B2 (ja) * 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
CN101953233A (zh) * 2008-02-20 2011-01-19 夏普株式会社 背光源装置和具备该背光源装置的显示装置
US20100077341A1 (en) * 2008-09-22 2010-03-25 Yahoo! Inc. Smart content presentation
JP4781440B2 (ja) 2009-02-05 2011-09-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
JP5353770B2 (ja) * 2010-03-05 2013-11-27 カシオ計算機株式会社 立体映像観察装置、立体映像表示装置、及びプログラム
US8468130B2 (en) * 2010-04-02 2013-06-18 Skyfire Labs, Inc. Assisted hybrid mobile browser
KR101667715B1 (ko) * 2010-06-08 2016-10-19 엘지전자 주식회사 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
KR101688033B1 (ko) * 2010-06-15 2016-12-21 주식회사 엘지유플러스 영상 전송을 통한 증강 현실 정보 제공 시스템 및 방법
US20120105428A1 (en) * 2010-10-28 2012-05-03 Microsoft Corporation Transparent display configuration modes
US8941683B2 (en) * 2010-11-01 2015-01-27 Microsoft Corporation Transparent display interaction
US9378516B2 (en) * 2010-12-17 2016-06-28 Verizon Patent And Licensing Inc. Content provisioning for user devices
CN102681651B (zh) * 2011-03-07 2016-03-23 刘广松 一种用户交互系统和方法
US20140051399A1 (en) * 2012-08-20 2014-02-20 Research In Motion Limited Methods and devices for storing recognized phrases

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155141A (ja) * 1996-11-22 1998-06-09 Canon Inc 情報伝送装置
JP2002508893A (ja) * 1997-04-22 2002-03-19 ノキア オーユーイー 多機能電気通信デバイス
JPH1132379A (ja) * 1997-07-14 1999-02-02 Sony Corp 視覚装置付携帯電話装置並びにパーソナルコンピュータ装置
JP2002152350A (ja) * 2000-11-10 2002-05-24 Sanyo Electric Co Ltd 携帯テレビ電話
JP2002297645A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd インターネット情報検索端末
JP2004015519A (ja) * 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd 音声通信装置
GB2409598A (en) * 2003-12-24 2005-06-29 Nokia Corp Mobile phone with camera and extensible grip

Also Published As

Publication number Publication date
US20180278732A1 (en) 2018-09-27
US9609097B2 (en) 2017-03-28
US20150207908A1 (en) 2015-07-23
CN104704800B (zh) 2018-10-26
EP2911371B1 (en) 2020-09-09
EP2911371A4 (en) 2016-11-30
CN109495613A (zh) 2019-03-19
US10003680B2 (en) 2018-06-19
EP2911371A1 (en) 2015-08-26
WO2014061388A1 (ja) 2014-04-24
CN104704800A (zh) 2015-06-10
US10469639B2 (en) 2019-11-05
JP6350285B2 (ja) 2018-07-04
US20170134548A1 (en) 2017-05-11
CN109495613B (zh) 2022-01-14

Similar Documents

Publication Publication Date Title
JP6350285B2 (ja) 携帯端末
JP6256339B2 (ja) 制御装置および記憶媒体
US10217475B2 (en) Headset and method for controlling same
CN109729372B (zh) 直播间切换方法、装置、终端、服务器及存储介质
US20140123015A1 (en) Information processing system, information processing apparatus, and storage medium
KR101892013B1 (ko) 이동 단말기
KR20160149068A (ko) 이동단말기 및 그 제어방법
CN106406688B (zh) 移动终端及其控制方法
KR20170025177A (ko) 이동단말기 및 그 제어방법
KR20160127606A (ko) 이동 단말기 및 그 제어 방법
JP2007088959A (ja) 画像出力装置及びプログラム
CN114185503B (zh) 多屏交互的系统、方法、装置和介质
US20170230114A1 (en) Mobile terminal and control method therefor
CN113301444B (zh) 视频处理方法、装置、电子设备及存储介质
KR20150085603A (ko) 글라스 디바이스 및 그 동작 방법
KR20170059693A (ko) 모바일 디바이스 및 그 제어 방법
KR20180128826A (ko) 이동 단말기 및 그 제어방법
KR102637419B1 (ko) 이동 단말기 및 그의 3d 영상 변환 방법
KR20170020070A (ko) 이동단말기 및 그 제어방법
KR20170043797A (ko) 이동 단말기
KR101617287B1 (ko) 휴대 단말기 및 그 제어방법
KR101658547B1 (ko) 휴대용 단말기
CN115171085A (zh) 弹幕发布方法、装置、计算机设备及计算机可读存储介质
CN118075615A (en) Video shooting method and electronic equipment
CN112804440A (zh) 一种处理图像的方法、装置及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R151 Written notification of patent or utility model registration

Ref document number: 6350285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees