JP2023500656A - 表示要素の表示方法及び電子機器 - Google Patents

表示要素の表示方法及び電子機器 Download PDF

Info

Publication number
JP2023500656A
JP2023500656A JP2022525433A JP2022525433A JP2023500656A JP 2023500656 A JP2023500656 A JP 2023500656A JP 2022525433 A JP2022525433 A JP 2022525433A JP 2022525433 A JP2022525433 A JP 2022525433A JP 2023500656 A JP2023500656 A JP 2023500656A
Authority
JP
Japan
Prior art keywords
electronic device
state
display
user interface
primary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022525433A
Other languages
English (en)
Other versions
JP7400095B2 (ja
Inventor
▲亞▼男 ▲張▼
▲リアン▼ 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2023500656A publication Critical patent/JP2023500656A/ja
Application granted granted Critical
Publication of JP7400095B2 publication Critical patent/JP7400095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Set Structure (AREA)
  • Telephone Function (AREA)
  • Mathematical Physics (AREA)

Abstract

表示要素の表示方法及び電子機器を提供する。本方法は、第1の本体及び第2の本体を含む電子機器に適用される。第1の本体は、第2の本体に対して折り曲げ可能である。第1の本体及び第2の本体は、電子機器の異なる表示領域にそれぞれ対応する。本方法は、以下を含む。すなわち、電子機器は、第1の本体の状態及び第2の本体の状態を検出し(301)、第1の本体の状態及び第2の本体の状態に基づいて主対話領域及び主表示領域を決定し(302)、表示すべきユーザインターフェース上の1つ又は複数の表示要素を取得し(303)、表示要素タイプを決定し、表示要素タイプが主対話要素及び主表示要素を含み(304)、主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示する(306)。本方法は、ユーザが電子機器をより良く操作するのを助け、また、ユーザが電子機器によって表示されるコンテンツを閲覧するのを助ける。

Description

本出願は、2019年10月30日に中国国家知的所有権局に出願された「DISPLAY ELEMENT DISPLAY METHOD AND ELECTRONIC DEVICE」という名称の中国特許出願第201911047159.8号の優先権を主張するものであり、その全体が参照により本明細書に組み込まれる。
本出願は、電子技術の分野に関し、詳細には、表示要素の表示方法及び電子機器に関する。
携帯電話やタブレットなどの電子機器のタッチ画面は、電子機器の機能の継続的な発展に伴って大型化している。タッチ画面の比較的大きな電子機器は、ユーザにより良好な閲覧体験をもたらすことができるが、ユーザ操作には大きな課題をもたらす。
従来技術では、ユーザが電子機器を操作するのを助けるために、電子機器は、加速度センサを使用することによって重力方向を検出し、仮想キーボードなどの制御部を重力方向の下側に表示することがある。しかしながら、この方法の精度は比較的低い。電子機器が折り畳み可能な画面を有する場合、電子機器の姿勢は様々であり、重力方向のみに基づいて表示を制御すると、ユーザ体験が悪くなる。
本出願は、表示要素の表示方法及び電子機器を提供し、ユーザが電子機器の画面をより良好に操作するのを助け、また、ユーザが電子機器によって表示されたコンテンツを閲覧するのを助ける。
第1の態様によると、本出願の一実施形態は、表示要素の表示方法を提供する。本方法は、第1の本体及び第2の本体を含む電子機器に適用される。第1の本体は、第2の本体に対して折り曲げ可能である。第1の本体及び第2の本体は、電子機器の異なる表示領域にそれぞれ対応する。異なる表示領域は、主対話領域及び主表示領域を含む。本方法は、以下を含む。すなわち、電子機器は、第1の本体の状態及び第2の本体の状態を検出する。電子機器は、第1の本体の状態及び第2の本体の状態に基づいて、主対話領域及び主表示領域を決定する。電子機器は、表示すべきユーザインターフェース上の1つ又は複数の表示要素を取得する。電子機器は、表示要素のタイプを決定する。表示要素のタイプは、主対話要素及び主表示要素を含む。電子機器は、主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示する。
主対話領域は、電子機器のディスプレイ上のユーザが操作するための領域である。主表示領域は、電子機器のディスプレイ上のユーザが閲覧するための領域である。主対話領域及び主表示領域は、1つのディスプレイの2つの異なる表示領域であってもよく、又は1つの電子機器の2つのディスプレイであってもよい。
表示すべきユーザインターフェースは、いかなる処理も行われていない元のユーザインターフェースである。表示すべきユーザインターフェースは、電子書籍アプリケーションインターフェース、写真インターフェース、ビデオインターフェース、ビデオ通話インターフェース、又は音楽再生インターフェースなどのアプリケーションインターフェースと、ホーム画面、左端画面、又はロック画面などのシステムインターフェースとを含む。
電子機器は、取得した表示要素のすべてを表示してもよく、又は取得した表示要素の一部のみを表示してもよい。
本体の状態は、支持状態及び非支持状態を含むことができる。本体が支持又は保持されている場合、本体は、支持状態にある。本体が支持又は保持されていない場合、本体は、非支持状態にある。
電子機器の第1の本体の状態及び第2の本体の状態に基づいて、電子機器の主対話領域及び主表示領域が決定され、表示要素の分類が実行され、主表示領域に主表示要素が表示され、主対話領域に主対話要素が表示される。これは、ユーザが電子機器をより良く操作するのを助け、また、ユーザが電子機器によって表示されるコンテンツを閲覧するのを助ける。
主表示領域及び主対話領域は、異なるやり方で決定されてもよい。可能なやり方では、第1の本体の状態及び第2の本体の状態が、一方の本体が支持され、他方の本体が支持されないという条件を満たす場合、電子機器は、支持されている本体に対応する表示領域が主対話領域であると決定し、支持されていない本体に対応する表示領域が主表示領域であると決定する。第1の本体の状態及び第2の本体の状態が、両方の本体が支持されているという条件を満たす場合、電子機器は、第1の本体及び第2の本体が異なる高さにあるかどうかを検出する。第1の本体及び第2の本体が異なる高さにある場合、電子機器は、より低い高さにある本体に対応する表示領域が主対話領域であると決定し、より高い高さにある本体に対応する表示領域が主表示領域であると決定し、又は第1の本体及び第2の本体が同じ高さにある場合、電子機器は、右側の本体に対応する表示領域が主対話領域であると決定し、左側の本体に対応する表示領域が主表示領域であると決定する。
一方の本体が支持され、他方の本体が支持されていない場合、支持されている本体に対応する表示領域が主対話領域であり、支持されていない本体に対応する表示領域が主表示領域である。これは、ユーザが、支持されていない本体に対応する表示領域で操作を実行することを防止し、ユーザによる電子機器の操作の安定性を向上させ、ユーザが電子機器に対してタッチ操作を実行するのを助け、良好なユーザ体験を実施することができる。両方の本体が支持されている場合、ユーザの操作習慣に適合するように、より低い高さにある本体に対応する表示領域が主対話領域であり、より高い高さにある本体に対応する表示領域が主表示領域であり、又はユーザの右手操作習慣に適合するように、右側にある本体に対応する表示領域が主対話領域であり、左側にある本体に対応する表示領域が主表示領域である。
第1の本体の状態及び第2の本体の状態は、異なるやり方で識別されてもよい。可能なやり方では、電子機器は、第1の本体の第1のセンサデータ及び第2の本体の第2のセンサデータを取得し、第1のセンサデータに基づいて第1の本体の状態を決定し、第2のセンサデータに基づいて第2の本体の状態を決定する。詳細は以下の通りである。
第1のセンサデータは、第1の本体の背面ハウジング上の複数の圧力センサによって検出された圧力値を含む。圧力センサによって検出された圧力値がすべて予め設定された圧力値範囲内にあり、且つすべての2つの圧力値間の差が予め設定された差の範囲内にある場合、第1の本体が支持状態にあると判定される。第1のセンサデータは、第1の本体のベゼル上の圧力センサによって検出された圧力値を含む。圧力値が予め設定された圧力値より大きい場合、第1の本体が保持状態にあると判定される。第2のセンサデータは、第2の本体の背面ハウジング上の複数の圧力センサによって検出された圧力値を含む。圧力センサによって検出された圧力値がすべて予め設定された圧力値範囲内にあり、且つすべての2つの圧力値間の差が予め設定された差範囲内にある場合、第2の本体が支持状態にあると判定される。第2のセンサデータは、第2の本体のベゼル上の圧力センサによって検出された圧力値を含む。圧力値が予め設定された圧力値より大きい場合、第2の本体が保持状態にあると決定される。
可能な設計方法では、電子機器が予め設定されたトリガ条件(第1の条件)を満たすとき、電子機器は、前述の表示方法を実行するようにトリガされてもよい。
可能なやり方では、トリガ条件は、予め設定されたユーザ操作、例えば、表示領域の底部から上方にスライドする操作、又は表示領域を長押しする操作であってもよい。別の可能なやり方では、トリガ条件は、電子機器が折り畳み状態にあることであってもよい。
折り畳みの前後で電子機器に表示されるユーザインターフェースが異なっていてもよいことに留意されたい。例えば、折り畳みの前に表示されるユーザインターフェースは、第1のユーザインターフェースであり、折り畳みの後に表示されるユーザインターフェースは、第1のユーザインターフェース及び第2のユーザインターフェースである。第2のユーザインターフェースは、第1のユーザインターフェースと同じ層にあるユーザインターフェースであってもよい。例えば、第1ユーザインターフェースがホーム画面である場合、第2ユーザインターフェースは左端の画面であってもよい。代替として、第2のユーザインターフェースは、第1のユーザインターフェースよりも上位層にあるユーザインターフェースであってもよい。例えば、第1のユーザインターフェースがWeChatのチャットインターフェースである場合、チャット情報リストインターフェースは、第1のユーザインターフェースよりも上位層のユーザインターフェースである。代替として、第2のユーザインターフェースは、最近表示されたユーザインターフェース、すなわち、第1のユーザインターフェースの前に電子機器によって表示されたユーザインターフェースであってもよい。この場合、電子機器が取得した1つ又は複数の表示要素は、第1のユーザインターフェース上の表示要素及び第2のユーザインターフェース上の表示要素を含む。
可能な設計方法では、電子機器が前述の表示方法を実行するようにトリガされた後、電子機器は、電子機器が予め設定された終了条件(第2の条件)を満たすまで、前述の表示方法を繰り返し実行することができる。可能なやり方では、前述の終了条件は、電子機器の両方の本体が支持され、同じ高さにあることであってもよい。別の可能なやり方では、前述の終了条件は、予め設定された第2のユーザ操作、例えば、主対話領域の下縁部から上方にスライドする操作であってもよい。
可能な設計方法において、本方法は、以下をさらに含む。電子機器は、表示要素レベルを決定し、表示要素レベルに基づいて、主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示する。
表示要素レベルは、異なるやり方で決定されてもよい。可能なやり方では、主対話要素のレベルは、ユーザの操作習慣に基づいて決定される。例えば、使用頻度が高いほど、対話レベルが高いことを示す。別の可能なやり方では、ユーザインターフェース上の表示要素のレベルは、ユーザインターフェースのレベルに基づいて決定される。インターフェースの対話レベルがレベル3である場合、インターフェース上の表示要素の対話レベルはレベル3であると決定される。
電子機器が表示要素レベルに基づいて主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示することは、具体的には、表示領域レベル分類を実行し、対応するレベルの表示領域に表示要素を表示することを含む。
対話領域に対してレベル分類を実行するやり方は、以下を含む。電子機器は、ユーザの左手の手のひらが画面に連続的に接触している面積と、ユーザの右手の手のひらが画面に連続的に接触している面積とを取得して、第1の接触面積と第2の接触面積とを取得する。電子機器は、ユーザが左手で電子機器を保持するときに指が画面に触れることができる最も遠い距離と、ユーザが右手で電子機器を保持するときに指が画面に触れることができる最も遠い距離とを取得して、第1の長さ及び第2の長さを取得する。電子機器は、第1の接触面積、第2の接触面積、第1の長さ、及び第2の長さに基づいて対話領域に対してレベル分類を実行する。
表示要素レベル分類及び表示領域レベル分類が実行され、比較的高い対話レベルの表示要素が比較的高いレベルの主対話領域に表示されて、ユーザが電子機器をより良好に操作するのを助け、比較的高い表示レベルの表示要素が比較的高いレベルの主表示領域に表示されて、ユーザが電子機器によって表示されたコンテンツをより良好に閲覧するのを助ける。
任意選択で、本方法は、ユーザの第3の操作を受け取るステップと、ユーザの第3の操作に応答して、各表示要素の表示位置を調整するステップとをさらに含む。例えば、ユーザの第3の操作に応答して、主表示領域内の表示要素を主対話領域に移動させることができる。
任意選択で、主表示要素が主表示領域に表示され、主対話要素が主対話領域に表示される表示要素調整を実行することに加えて、電子機器は、システムの動作をさらに調整することができる。例えば、電子機器は、システムの動作「ディスプレイの上縁部から下向きにスライドする動作に応答して通知バーを表示する」を「主対話領域の上縁部から下向きにスライドする動作に応答して通知バーを表示する」に調整し、又は「ユーザがディスプレイの右縁部から内向きにスライドする動作に応答して電子機器が前のインターフェースに戻る動作を実行する」を「ユーザが主対話領域の右縁部から内向きにスライドする動作に応答して電子機器が前のインターフェースに戻る動作を実行する」に調整する。
第2の態様によると、本出願は、電子機器を提供する。電子機器は、1つ又は複数のプロセッサと、メモリと、タッチ画面とを含む。メモリ及びタッチ画面は、1つ又は複数のプロセッサに結合されている。メモリは、コンピュータプログラムコードを記憶するように構成されている。コンピュータプログラムコードは、コンピュータ命令を含む。1つ又は複数のプロセッサがコンピュータ命令を実行すると、電子機器に、第1の態様の任意の可能な実施態様で提供される表示要素の表示方法を実行させることができる。
第3の態様によると、本出願は、コンピュータ記憶媒体を提供する。コンピュータ記憶媒体は、コンピュータ命令を含む。コンピュータ命令が電子機器上で実行されると、電子機器に、第1の態様の任意の可能な実施態様で提供される表示要素の表示方法を実行させることができる。
第4の態様によると、本出願の一実施形態は、コンピュータプログラム製品を提供する。コンピュータプログラム製品がコンピュータ上で実行されると、コンピュータに、第1の態様の任意の可能な実施態様で提供される表示要素の表示方法を実行させることができる。
上記で提供された第2の態様による電子機器、第3の態様によるコンピュータ記憶媒体、又は第4の態様によるコンピュータプログラム製品は、第1の態様の任意の可能な実施態様で提供される表示要素の表示方法を実行するように構成されることが理解され得る。したがって、達成され得る有益な効果については、対応する方法における有益な効果を参照されたい。ここでは詳細は繰り返されない。
以下では、本出願の実施形態で使用される添付図面を説明する。
本出願の一実施形態による電子機器100の構造を示す概略図である。 本出願の一実施形態による電子機器100の構造を示す概略図である。 本出願の一実施形態による電子機器100の構造を示す概略図である。 本出願の一実施形態による電子機器100の構造を示す概略図である。 本出願の一実施形態による電子機器100の構造を示す概略図である。 本出願の一実施形態による電子機器100の構造を示す概略図である。 本出願の一実施形態による電子機器100のソフトウェア構造を示すブロック図である。 本出願の一実施形態による表示要素の表示方法の概略流れ図である。 本出願の一実施形態による電子機器が第1の支持状態にある概略図である。 本出願の一実施形態による電子機器が第1の支持状態にある概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法のシナリオの概略図である。 本出願の一実施形態による主対話領域のレベル分類の概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による表示要素の表示方法の別のシナリオの概略図である。 本出願の一実施形態による電子機器の構造の概略図である。
以下では、本出願の実施形態における添付図面を参照して本出願の実施形態を説明する。
以下は、当業者がより良く理解するのを助けるために、本出願の実施形態におけるいくつかの用語を説明する。
本出願の実施形態では、「ユーザインターフェース」とは、電子機器のディスプレイ上に表示されるインターフェースである。ユーザインターフェースは、任意のアプリケーションインターフェースを含むことができる。ユーザインターフェースは、ステータスバーをさらに含む。
本出願の実施形態では、「表示要素」とは、アプリケーションインターフェース上に表示されるコンテンツであり、ユーザが閲覧するために各アプリケーションインターフェース上に表示されるコンテンツと、ユーザが操作を実行するためのコンテンツとが含まれる。
本出願の実施形態では、「複数の」とは、2つ以上を意味する。
本出願の実施形態では、「第1の」及び「第2の」などの用語は、単に区別するために使用されるが、相対的な重要性の表示若しくは暗示として、又は順序の表示若しくは暗示として理解することはできない。
本出願の実施形態における電子機器について最初に説明する。図1Aは、本出願の一実施形態による電子機器100の構造の概略図である。
電子機器100は、ディスプレイを有する任意の電子機器、例えば、携帯電話又はタブレットコンピュータなどのポータブル電子機器、デスクトップコンピュータ又はテレビなどの非ポータブル電子機器、バンド又は腕時計などのウェアラブル電子機器、車載機器、又はスマートホーム機器であってもよい。これは、本出願の実施形態において限定されない。
電子機器100は、プロセッサ110、外部メモリインターフェース120、内部メモリ121、ユニバーサルシリアルバス(universal serial bus、USB)インターフェース130、充電管理モジュール140、電源管理モジュール141、バッテリ142、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、オーディオモジュール170、スピーカ170A、レシーバ170B、マイクロフォン170C、ヘッドセットジャック170D、センサモジュール180、ボタン190、モータ191、インジケータ192、カメラ193、ディスプレイ194、加入者識別モジュール(subscriber identification module、SIM)カードインターフェース195などを含むことができる。センサモジュール180は、圧力センサ180A、ジャイロセンサ180B、気圧センサ180C、磁気センサ180D、加速度センサ180E、測距センサ180F、光学式近接センサ180G、指紋センサ180H、温度センサ180J、タッチセンサ180K、周囲光センサ180L、骨伝導センサ180Mなどを含むことができる。
本発明の一部の実施形態に示される構造は、電子機器100を具体的に限定するものではないことが理解され得る。本出願の一部の他の実施形態では、電子機器100は、図に示されるものよりも多い又は少ない構成要素を含んでもよく、又はいくつかの構成要素を組み合わせてもよく、又はいくつかの構成要素を分割してもよく、又は異なる構成要素の配置を有してもよい。図に示される構成要素は、ハードウェア、ソフトウェア、又はソフトウェアとハードウェアとの組合せを使用することによって実装されてもよい。
プロセッサ110は、1つ又は複数の処理ユニットを含むことができる。例えば、プロセッサ110は、アプリケーションプロセッサ(application processor、AP)、モデムプロセッサ、グラフィックス処理ユニット(graphics processing unit、GPU)、画像信号プロセッサ(image signal processor、ISP)、コントローラ、メモリ、ビデオコーデック、デジタル信号プロセッサ(digital signal processor、DSP)、ベースバンドプロセッサ、及び/又はニューラルネットワーク処理ユニット(neural network processing unit、NPU)を含むことができる。異なる処理ユニットは、独立したデバイスであってもよく、又は1つ又は複数のプロセッサに統合されてもよい。
コントローラは、電子機器100の神経中枢及びコマンドセンタであってもよい。コントローラは、命令オペレーションコード及び時系列信号に基づいて動作制御信号を生成し、命令フェッチ及び命令実行の制御を完了することができる。
メモリがプロセッサ110内にさらに配置されてもよく、命令及びデータを記憶するように構成される。一部の実施形態では、プロセッサ110内のメモリはキャッシュである。メモリは、プロセッサ110によって使用されたばかりの、又は周期的に使用される命令又はデータを記憶することができる。プロセッサ110が命令又はデータを再び使用する必要がある場合、プロセッサは、メモリから命令又はデータを直接呼び出すことができる。これにより、繰り返しアクセスを回避し、プロセッサ110の待ち時間を低減し、それによってシステム効率を改善する。
一部の実施形態では、プロセッサ110は、1つ又は複数のインターフェースを含むことができる。インターフェースは、集積回路間(inter-integrated circuit、I2C)インターフェース、集積回路間サウンド(inter-integrated circuit sound、I2S)インターフェース、パルス符号変調(pulse code modulation、PCM)インターフェース、汎用非同期受信機/送信機(universal asynchronous receiver/transmitter、UART)インターフェース、モバイル産業プロセッサインターフェース(mobile industry processor interface、MIPI)、汎用入力/出力(general-purpose input/output、GPIO)インターフェース、加入者識別モジュール(subscriber identity module、SIM)インターフェース、ユニバーサルシリアルバス(universal serial bus、USB)インターフェースなどを含むことができる。
I2Cインターフェースは、双方向の同期シリアルバスであり、1本のシリアルデータ線(serial data line、SDA)と1本のシリアルクロック線(serial clock line、SCL)とを含む。一部の実施形態では、プロセッサ110は、I2Cバスの複数のグループを含むことができる。プロセッサ110は、異なるI2Cバスインターフェースを介して、タッチセンサ180K、充電器、フラッシュ、カメラ193などに個別に結合されてもよい。例えば、プロセッサ110は、I2Cインターフェースを介してタッチセンサ180Kに結合されてもよく、それにより、プロセッサ110は、I2Cバスインターフェースを介してタッチセンサ180Kと通信して、電子機器100のタッチ機能を実施する。
I2Sインターフェースは、オーディオ通信を実行するように構成されてもよい。一部の実施形態では、プロセッサ110は、I2Sバスの複数のグループを含むことができる。プロセッサ110は、I2Sバスを介してオーディオモジュール170に結合されて、プロセッサ110とオーディオモジュール170との間の通信を実施することができる。一部の実施形態では、オーディオモジュール170は、I2Sインターフェースを介して無線通信モジュール160にオーディオ信号を転送して、ブルートゥースヘッドセットを介して通話に応答する機能を実施することができる。
PCMインターフェースも、オーディオ通信を実行し、アナログ信号をサンプリングし、量子化し、符号化するように構成されてもよい。一部の実施形態では、オーディオモジュール170は、PCMバスインターフェースを介して無線通信モジュール160に結合されてもよい。一部の実施形態では、オーディオモジュール170は、代替として、PCMインターフェースを介して無線通信モジュール160にオーディオ信号を転送して、ブルートゥースヘッドセットを介して電話に応答する機能を実施することができる。I2Sインターフェース及びPCMインターフェースは両方とも音声通信を行うように構成されてもよい。
UARTインターフェースは、ユニバーサルシリアルデータバスであり、非同期通信を行うように構成されている。バスは、双方向通信バスであってもよい。バスは、送信するデータをシリアル通信とパラレル通信との間で切り替える。一部の実施形態では、UARTインターフェースは、通常、プロセッサ110を無線通信モジュール160に接続するように構成されている。例えば、プロセッサ110は、UARTインターフェースを介して無線通信モジュール160のブルートゥースモジュールと通信して、ブルートゥース機能を実施する。一部の実施形態では、オーディオモジュール170は、UARTインターフェースを介してオーディオ信号を無線通信モジュール160に転送して、ブルートゥースヘッドセットを介して音楽を再生する機能を実施することができる。
MIPIインターフェースは、プロセッサ110をディスプレイ194又はカメラ193などの周辺構成要素に接続するように構成されてもよい。MIPIインターフェースは、カメラシリアルインターフェース(camera serial interface、CSI)、ディスプレイシリアルインターフェース(display serial interface、DSI)などを含む。一部の実施形態では、プロセッサ110は、CSIインターフェースを介してカメラ193と通信して、電子機器100の撮影機能を実施する。プロセッサ110は、DSIインターフェースを介してディスプレイ194と通信して、電子機器100の表示機能を実施する。
GPIOインターフェースは、ソフトウェアを使用することによって構成されてもよい。GPIOインターフェースは、制御信号又はデータ信号として構成されてもよい。一部の実施形態では、GPIOインターフェースは、プロセッサ110をカメラ193、ディスプレイ194、無線通信モジュール160、オーディオモジュール170、センサモジュール180などに接続するように構成されてもよい。GPIOインターフェースは、代替として、I2Cインターフェース、I2Sインターフェース、UARTインターフェース、MIPIインターフェースなどとして構成されてもよい。
USBインターフェース130は、USB規格に準拠したインターフェースであり、具体的には、mini USBインターフェース、micro USBインターフェース、USB Type-Cインターフェースなどであってよい。USBインターフェース130は、充電器に接続して電子機器100を充電するように構成されてもよく、電子機器100と周辺機器との間でデータを送信するように構成されてもよく、ヘッドセットを介してオーディオを再生するためにヘッドセットに接続するように構成されてもよく、AR機器などの別の電子機器に接続するように構成されてもよい。
本発明の一部の実施形態において示されるモジュール間のインターフェース接続関係は、説明のための例として使用されるにすぎず、電子機器100の構造を限定するものではないことが理解され得る。本出願の一部の他の実施形態では、電子機器100は、代替として、前述の実施形態とは異なるインターフェース接続方式、又は複数のインターフェース接続方式の組合せを使用してもよい。
充電管理モジュール140は、充電器から充電入力を受信するように構成される。充電器は、無線充電器又は有線充電器であってもよい。有線充電の一部の実施形態では、充電管理モジュール140は、USBインターフェース130を介して有線充電器から充電入力を受信することができる。無線充電の一部の実施形態では、充電管理モジュール140は、電子機器100の無線充電コイルを使用することによって無線充電入力を受信することができる。充電管理モジュール140は、バッテリ142を充電しながら、電源管理モジュール141を介して電子機器に電力をさらに供給することができる。
電源管理モジュール141は、バッテリ142及び充電管理モジュール140をプロセッサ110に接続するように構成されている。電源管理モジュール141は、バッテリ142及び/又は充電管理モジュール140からの入力を受け取り、プロセッサ110、内部メモリ121、外部メモリ、ディスプレイ194、カメラ193、無線通信モジュール160などに電力を供給する。電源管理モジュール141は、バッテリ容量、バッテリサイクル回数、及びバッテリ健康状態(漏電又はインピーダンス)などのパラメータを監視するようにさらに構成されてもよい。一部の他の実施形態では、電源管理モジュール141は、代替として、プロセッサ110に配置されてもよい。一部の他の実施形態では、電源管理モジュール141及び充電管理モジュール140は、代替として、同じ機器に配置されてもよい。
電子機器100の無線通信機能は、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、モデムプロセッサ、ベースバンドプロセッサなどを介して実施されてもよい。
アンテナ1及びアンテナ2は、電磁波信号を送受信するように構成されている。電子機器100内の各アンテナは、1つ又は複数の通信周波数帯域をカバーするように構成されてもよい。異なるアンテナをさらに多重化して、アンテナの利用率を高めることができる。例えば、アンテナ1は、無線ローカルエリアネットワークにおけるダイバーシティアンテナとして多重化されてもよい。一部の他の実施形態では、アンテナは、同調スイッチと組み合わせて使用されてもよい。
モバイル通信モジュール150は、電子機器100に適用される、2G、3G、4G、5Gなどを含む無線通信に対するソリューションを提供することができる。モバイル通信モジュール150は、少なくとも1つのフィルタ、スイッチ、電力増幅器、低雑音増幅器(low noise amplifier、LNA)などを含むことができる。モバイル通信モジュール150は、アンテナ1を介して電磁波を受信し、受信した電磁波に対してフィルタリング及び増幅などの処理を行い、処理された電磁波を復調のためにモデムプロセッサに送信することができる。モバイル通信モジュール150は、モデムプロセッサによって変調された信号をさらに増幅し、アンテナ1を介して放射するために信号を電磁波に変換することができる。一部の実施形態では、モバイル通信モジュール150の少なくとも一部の機能モジュールは、プロセッサ110内に配置されてもよい。一部の実施形態では、モバイル通信モジュール150の少なくとも一部の機能モジュール及びプロセッサ110の少なくとも一部のモジュールは、同じ機器に配置されてもよい。
モデムプロセッサは、変調器と復調器とを含むことができる。変調器は、送信対象の低周波ベースバンド信号を中高周波信号に変調するように構成されている。復調部は、受信した電磁波信号を低周波ベースバンド信号に復調する。次いで、復調器は、復調によって得られた低周波ベースバンド信号を処理のためにベースバンドプロセッサに送信する。低周波数ベースバンド信号は、ベースバンドプロセッサによって処理された後、アプリケーションプロセッサに送信される。アプリケーションプロセッサは、オーディオ機器(スピーカ170A、レシーバ170Bなどに限定されない)を介して音響信号を出力するか、又はディスプレイ194に画像若しくはビデオを表示する。一部の実施形態では、モデムプロセッサは、独立した構成要素であってもよい。一部の他の実施形態では、モデムプロセッサは、プロセッサ110から独立していてもよく、モバイル通信モジュール150又は別の機能モジュールと同じ機器に配置されている。
無線通信モジュール160は、電子機器100に適用される、無線ローカルエリアネットワーク(wireless local area network、WLAN)(例えば、ワイヤレスフィデリティ(wireless fidelity、Wi-Fi)ネットワーク)、ブルートゥース(Bluetooth、BT)、全地球航法衛星システム(global navigation satellite system、GNSS)、周波数変調(frequency modulation、FM)、近距離通信(near field communication、NFC)技術、赤外線(infrared、IR)技術などを含む無線通信に対するソリューションを提供することができる。無線通信モジュール160は、少なくとも1つの通信処理モジュールを統合する1つ又は複数の構成要素であってもよい。無線通信モジュール160は、アンテナ2を介して電磁波を受信し、電磁波信号に対して周波数変調及びフィルタリング処理を行い、処理された信号をプロセッサ110に送る。無線通信モジュール160は、送信すべき信号をプロセッサ110からさらに受信し、この信号に対して周波数変調及び増幅を実行し、処理された信号をアンテナ2を介した放射のための電磁波に変換することができる。
一部の実施形態では、電子機器100において、アンテナ1は、モバイル通信モジュール150に結合され、アンテナ2は、無線通信モジュール160に結合され、その結果、電子機器100は、無線通信技術を使用することによってネットワーク及び別の機器と通信することができる。無線通信技術は、モバイル通信用グローバルシステム(global system for mobile communications、GSM)、汎用パケット無線サービス(general packet radio service、GPRS)、符号分割多元接続(code division multiple access、CDMA)、広帯域符号分割多元接続(wideband code division multiple access、WCDMA)、時分割符号分割多元接続(time-division code division multiple access、TD-SCDMA)、ロングタームエボリューション(long term evolution、LTE)、BT、GNSS、WLAN、NFC、FM、IR技術などを含むことができる。GNSSは、全地球測位システム(global positioning system、GPS)、全地球航法衛星システム(global navigation satellite system、GLONASS)、BeiDou航法衛星システム(BeiDou navigation satellite system、BDS)、準天頂衛星システム(quasi-zenith satellite system、QZSS)、及び/又は衛星ベース増強システム(satellite based augmentation system、SBAS)を含むことができる。
電子機器100は、GPU、ディスプレイ194、アプリケーションプロセッサなどを介して表示機能を実施する。GPUは、画像処理用のマイクロプロセッサであり、ディスプレイ194及びアプリケーションプロセッサに接続されている。GPUは、数学的及び幾何学的計算を実行し、画像をレンダリングするように構成されている。プロセッサ110は、表示情報を生成又は変更するプログラム命令を実行する1つ又は複数のGPUを含むことができる。
ディスプレイ194は、画像、ビデオなどを表示する。ディスプレイ194は、表示パネルを有する。表示パネルは、液晶ディスプレイ(liquid crystal display、LCD)、有機発光ダイオード(organic light-emitting diode、OLED)、アクティブマトリクス有機発光ダイオード(active-matrix organic light-emitting diode、AMOLED)、フレキシブル発光ダイオード(flexible light-emitting diode、FLED)、ミニLED、マイクロLED、マイクロOLED、量子ドット発光ダイオード(quantum dot light emitting diode、QLED)などであってもよい。一部の実施形態では、電子機器100は、1つ又はN個のディスプレイ194を含んでもよく、Nは、1より大きい正の整数である。
ディスプレイ194は、折り畳み可能な画面であってもよい。ユーザは、ディスプレイ194を折り畳むことができる。例えば、図3Cに示すように、ディスプレイ194が折り畳まれると、ディスプレイ194は、折り曲げ部分を境界として使用することで第1の表示領域と第2の表示領域とに分割されてもよい。電子機器100は、第1の表示領域と第2の表示領域とで異なるコンテンツを表示してもよい。
電子機器100は、ISP、カメラ193、ビデオコーデック、GPU、ディスプレイ194、アプリケーションプロセッサなどを介して撮影機能を実施することができる。
ISPは、カメラ193によってフィードバックされたデータを処理するように構成されている。例えば、撮影中に、シャッターが押され、光がレンズを介してカメラの感光素子に伝達され、光信号が電気信号に変換され、カメラの感光素子が電気信号を処理のためにISPに伝達し、電気信号を可視画像に変換する。ISPはさらに、画像のノイズ、輝度、及び肌色に関するアルゴリズム最適化を行うことができる。ISPは、撮影シナリオの露出及び色温度などのパラメータをさらに最適化することができる。一部の実施形態では、ISPは、カメラ193内に配置されてもよい。
カメラ193は、静止画像又はビデオをキャプチャするように構成されている。被写体の光学像は、レンズを通して生成され、感光素子に投影される。感光素子は、電荷結合素子(charge coupled device、CCD)又は相補型金属酸化膜半導体(complementary metal-oxide-semiconductor、CMOS)フォトトランジスタであってもよい。感光素子は、光信号を電気信号に変換し、電気信号をISPに送信してデジタル画像信号に変換する。ISPは、デジタル画像信号を処理のためにDSPに出力する。DSPは、デジタル画像信号をRGB又はYUVなどの標準フォーマットの画像信号に変換する。一部の実施形態では、電子機器100は、1つ又はN個のカメラ193を含むことができ、Nは1より大きい正の整数である。
デジタル信号プロセッサは、デジタル信号を処理するように構成され、デジタル画像信号に加えて他のデジタル信号をさらに処理することができる。例えば、電子機器100が周波数を選択するとき、デジタル信号プロセッサは、周波数エネルギーに対してフーリエ変換を実行するように構成されている。
ビデオコーデックは、デジタルビデオを圧縮又は解凍するように構成されている。電子機器100は、1つ又は複数のビデオコーデックをサポートすることができる。このようにして、電子機器100は、複数の符号化フォーマット、例えば、ムービングピクチャエキスパートグループ(moving picture experts group、MPEG)-1、MPEG-2、MPEG-3、及びMPEG-4でビデオを再生又は記録することができる。
NPUは、ニューラルネットワーク(neural network、NN)コンピューティングプロセッサであり、生物学的ニューラルネットワークの構造を参照することによって、例えば、人間の脳ニューロン間の伝達モードを参照することによって、入力情報を迅速に処理し、さらに、絶えず自己学習を行うことができる。電子機器100は、NPUを介したインテリジェント認知、例えば、画像認識、顔認識、音声認識、及びテキスト理解などのアプリケーションを実施することができる。
外部メモリインターフェース120は、電子機器100の記憶容量を拡張するために、micro SDカードなどの外部メモリカードに接続するように構成することができる。外部メモリカードは、データ記憶機能を実施するために、外部メモリインターフェース120を介してプロセッサ110と通信する。外部メモリカードには、例えば音楽及びビデオなどのファイルが記憶される。
内部メモリ121は、コンピュータ実行可能プログラムコードを記憶するように構成されてもよい。実行可能なプログラムコードは、命令を含む。プロセッサ110は、内部メモリ121に記憶された命令を実行して、電子機器100の様々な機能アプリケーション及びデータ処理を実施する。内部メモリ121は、プログラム記憶領域及びデータ記憶領域を含むことができる。プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能(例えば、音声再生機能又は画像再生機能)によって必要とされるアプリケーションなどを記憶することができる。データ記憶領域は、電子機器100の使用時に作成されたデータ(オーディオデータ及びアドレス帳など)などを記憶することができる。加えて、内部メモリ121は、高速ランダムアクセスメモリを含むことができ、不揮発性メモリ、例えば、少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリ、又はユニバーサルフラッシュストレージ(universal flash storage、UFS)をさらに含むことができる。
電子機器100は、オーディオモジュール170、スピーカ170A、レシーバ170B、マイクロフォン170C、ヘッドセットジャック170D、アプリケーションプロセッサなどを介して、音楽再生及び録音機能などのオーディオ機能を実施することができる。
オーディオモジュール170は、デジタルオーディオ情報をアナログオーディオ信号出力に変換するように構成され、アナログオーディオ入力をデジタルオーディオ信号に変換するようにも構成されている。オーディオモジュール170は、オーディオ信号を符号化及び復号するようにさらに構成されてもよい。一部の実施形態では、オーディオモジュール170は、プロセッサ110内に配置されてもよく、又はオーディオモジュール170の一部の機能モジュールは、プロセッサ110内に配置されている。
「ホーン」とも呼ばれるスピーカ170Aは、オーディオ電気信号を音響信号に変換するように構成されている。電子機器100は、スピーカ170Aを介して音楽を聴いたり、ハンズフリー通話に応答したりすることができる。
「イヤホン」とも呼ばれるレシーバ170Bは、オーディオ電気信号を音響信号に変換するように構成されている。電子機器100が通話に応答するか、又は音声メッセージを聴く際には、レシーバ170Bは、音声を聴くために人間の耳の近くに配置されてもよい。
「マイク」又は「マイクロフォン」とも呼ばれるマイクロフォン170Cは、音響信号を電気信号に変換するように構成されている。ユーザは、電話をかけたり、音声メッセージを送信したりする際に、口を通してマイクロフォン170Cの近くで音を発して、マイクロフォン170Cに音響信号を入力することができる。少なくとも1つのマイクロフォン170Cが、電子機器100に配置されてもよい。一部の他の実施形態では、2つのマイクロフォン170Cを電子機器100に配置して、音響信号を収集する機能に加えてノイズ低減機能を実施することができる。一部の他の実施形態では、代替として、3つ、4つ、又はそれ以上のマイクロフォン170Cを電子機器100に配置して、音響信号を収集し、ノイズ低減を実施し、音源を識別して、指向性録音機能などを実施することができる。
ヘッドセットジャック170Dは、有線ヘッドセットに接続するように構成されている。ヘッドセットインターフェース170Dは、USBインターフェース130であってもよいし、3.5mmオープン・モバイルターミナルプラットフォーム(open mobile terminal platform、OMTP)標準インターフェース又は米国のセルラー通信産業協会(cellular telecommunications industry association of the USA、CTIA)標準インターフェースであってもよい。
圧力センサ180Aは、圧力信号を感知するように構成され、圧力信号を電気信号に変換することができる。一部の実施形態では、圧力センサ180Aは、ディスプレイ194上に配置されてもよい。圧力センサ180Aには、抵抗式圧力センサ、誘導式圧力センサ、静電容量式圧力センサなど、複数の種類がある。容量式圧力センサは、導電性材料で作られた少なくとも2つの平行なプレートを含むことができる。圧力センサ180Aに力が加わると、電極間の静電容量が変化する。電子機器100は、静電容量の変化に基づいて圧力強度を判定する。電子機器100は、ディスプレイ194に対してタッチ操作が行われると、圧力センサ180Aに基づいてタッチ操作の強さを検出する。電子機器100は、圧力センサ180Aの検出信号に基づいてタッチ位置を算出することもできる。一部の実施形態では、同じタッチ位置で実行されるが、異なるタッチ操作強度を有するタッチ操作は、異なる操作命令に対応することができる。例えば、タッチ操作強度が第1の圧力しきい値未満であるタッチ操作がメッセージアイコンに対して実行されると、SMSメッセージを閲覧するための命令が実行される。タッチ操作強度が第1の圧力しきい値以上であるタッチ操作がMessageアイコンに対して実行されると、SMSメッセージを作成するための命令が実行される。
圧力センサ180Aは、電子機器100の背面ハウジング111(例えば、図1Bに示すように)及び/又はベゼル113(例えば、図1C及び図1Dに示すように)上に配置されてもよい。電子機器は、圧力センサ180Aに基づいて電子機器の物理的状態を検出することができる。例えば、電子機器は、圧力センサ180Aに基づいて保持状態及び支持状態を検出することができる。例えば、電子機器100は、ベゼル113に配置された圧力センサ180Aが検出した圧力値を用いて、電子機器100が保持されているか否かを判定してもよい。圧力値が予め設定された圧力値よりも大きい場合、電子機器は、電子機器が保持状態にあると判定する。任意選択で、圧力センサ180Aによって設定される位置114は、電子機器100のベゼル113を保持する複数のユーザの習慣に関する統計を収集することによって取得されてもよい。例えば、電子機器100は、背面ハウジング111に配置された圧力センサ180Aが検出した圧力値を用いて、電子機器100が支持されているか否かを判定してもよい。具体的には、複数の圧力センサ180Aが電子機器100の背面ハウジング111の領域112に配置されてもよい。複数の圧力センサ180Aによって検出された圧力値がすべて予め設定された圧力値範囲内にあり、且つすべての2つの圧力値間の差が予め設定された差範囲内にあることが検出された場合、電子機器100は、電子機器が支持状態にあると判定する。
ジャイロセンサ180Bは、電子機器100の動作姿勢を決定するように構成されてもよい。一部の実施形態では、3つの軸(すなわち、軸x、y、及びz)の周りの電子機器100の角速度が、ジャイロセンサ180Bを使用することによって決定することができる。ジャイロセンサ180Bは、撮影中に手振れ補正を行うように構成されていてもよい。例えば、シャッターが押されると、ジャイロセンサ180Bは、電子機器100がジッタする角度を検出し、その角度に基づく計算を通じて、レンズモジュールが補償する必要がある距離を取得し、レンズが逆の動きをすることによって電子機器100のジッタを相殺することができるようにして、手振れ補正を実施する。ジャイロセンサ180Bは、ナビゲーションシナリオ及び動き制御ゲームシナリオにおいてさらに使用されてもよい。電子機器が支持されている場合、電子機器は静止したままであり、ジャイロセンサ180Bによって検出される角速度は0に近づき、電子機器が保持されている場合は、電子機器は手振れのためにわずかにジッタし、ジャイロセンサ180Bによって検出される角速度は予め設定された時間内では安定しないことが理解され得る。したがって、電子機器100は、ジャイロセンサ180Bを使用することによって、保持状態及び支持状態を検出することができる。例えば、背面ハウジング111上に配置された圧力センサによって検出された圧力値が予め設定された圧力値よりも大きく、ジャイロセンサによって検出された角速度が0に近づくとき、電子機器は、電子機器が支持状態にあると判定する。
気圧センサ180Cは、気圧を測定するように構成されている。一部の実施形態では、電子機器100は、気圧センサ180Cによって測定された気圧値を使用することによって高度を計算し、測位及びナビゲーションを支援する。
磁気センサ180Dは、ホール効果センサを含む。電子機器100は、磁気センサ180Dを用いて、フリップカバーの開閉を検出することができる。一部の実施形態では、電子機器100がフリップフォンである場合、電子機器100は、磁気センサ180Dに基づいてフリップカバーの開閉を検出することができる。さらに、検出されたフリップカバーの開閉状態に基づいて、フリップカバーが開いたときの自動ロック解除などの機能が設定されている。
加速度センサ180Eは、電子機器100の様々な方向(通常は3軸)の加速度の大きさを検出することができる。電子機器100が静止しているとき、加速度センサは、重力の大きさ及び方向を検出することができる。加速度センサは、電子機器の姿勢を識別するようにさらに構成されてもよく、横向きモードと縦向きモードとの間の切り替え又は歩数計などの用途で使用される。
電子機器が折り畳み可能な画面を有する場合、加速度センサ180Eは、第1の表示領域と第2の表示領域との間の夾角θの値を識別するようにさらに構成されてもよい。電子機器は、夾角θの値に基づいて、電子機器が(図1Eに示すような)展開形態にあるか、又は(図1Fに示すような)折り畳み状態にあるかを判定することができる。夾角θが第1の条件を満たすとき、電子機器は、電子機器が折り畳み状態にあると判定する。夾角が第2の条件を満たすとき、電子機器は、電子機器が展開状態にあると判定する。例えば、第1の条件は、180-α<θ<180+αであってもよく、αは負でない角度値であり、αは0であってもよく、又は0よりもわずかに大きくてもよく、第2の条件は、第1の条件とは異なり、β1<θ<β2であってもよく、β2は180であってもよく、又はβ2は180よりもわずかに小さくてもよく、β1は0以上且つβ2よりも小さい任意の値であってもよい。電子機器の折り畳み状態及び/又は展開状態は、代替として、本出願の実施形態において別の方法を使用することによって決定されてもよいことに留意されたい。
測距センサ180Fは、距離を測定するように構成されている。電子機器100は、赤外線方式又はレーザ方式で距離を測定することができる。一部の実施形態では、撮影シナリオにおいて、電子機器100は、迅速な焦点合わせを実施するために、測距センサ180Fを使用することによって距離を測定することができる。
光学式近接センサ180Gは、例えば、発光ダイオード(LED)、及び光検出器、例えば、フォトダイオードを含んでもよい。発光ダイオードは、赤外線発光ダイオードであってもよい。電子機器100は、発光ダイオードを介して赤外光を放射する。電子機器100は、フォトダイオードを介して周囲の物体からの赤外線反射光を検出する。十分な反射光が検出されると、電子機器は、電子機器100の近くに物体が存在すると判定することができる。反射光が十分に検出されない場合、電子機器100は、電子機器100の近くに物体が存在しないと判定することがある。電子機器100は、光学式近接センサ180Gを用いることによって、ユーザが電話をかけるために電子機器100を耳に近づけたことを検出して、節電のために自動的に画面オフを行うことができる。光学式近接センサ180Gをスマートカバーモード又はポケットモードで使用して、画面のロック解除又はロックを自動的に行うためこともできる。
周囲光センサ180Lは、周囲光の輝度を感知するように構成されている。電子機器100は、感知した周囲光の輝度に基づいてディスプレイ194の輝度を適応的に調整することができる。周囲光センサ180Lは、撮影中にホワイトバランスを自動的に調整するように構成することもできる。周囲光センサ180Lはさらに、光学式近接センサ180Gと協働して、電子機器100がポケットの中にあるかどうかを検出し、偶発的な接触を防止することができる。
指紋センサ180Hは、指紋を採取するように構成されている。電子機器100は、採取された指紋の特徴を使用して、指紋ベースのロック解除、アプリケーションロックアクセス、指紋ベースの撮影、指紋ベースの電話応答などを実施することができる。
温度センサ180Jは、温度を検出するように構成されている。一部の実施形態では、電子機器100は、温度センサ180Jによって検出された温度に基づいて温度処理ポリシーを実行する。例えば、温度センサ180Jによって報告された温度がしきい値を超えると、電子機器100は、温度センサ180Jの近くのプロセッサの性能を低下させて、電力消費を低減し、熱保護を実施する。一部の他の実施形態では、温度が別のしきい値未満である場合、電子機器100は、低温のために電子機器100が異常にシャットダウンすることを防止するために、バッテリ142を加熱する。一部の他の実施形態では、温度がさらに別のしきい値未満である場合、電子機器100は、低温によって引き起こされる異常なシャットダウンを回避するために、バッテリ142の出力電圧を昇圧する。
タッチセンサ180Kは、「タッチパネル」とも呼ばれる。タッチセンサ180Kは、ディスプレイ194上に配置されてもよく、タッチセンサ180K及びディスプレイ194は、タッチ画面を形成し、タッチ画面は「タッチ画面」とも呼ばれる。タッチセンサ180Kは、タッチセンサ上又はその近傍で行われるタッチ操作を検出する。タッチセンサは、検出されたタッチ操作をアプリケーションプロセッサに伝達して、タッチイベントのタイプを決定することができる。タッチ操作に関連する視覚出力は、ディスプレイ194を介して提供されてもよい。一部の他の実施形態では、タッチセンサ180Kは、代替として、ディスプレイ194とは異なる位置で電子機器100の表面上に配置されてもよい。
骨伝導センサ180Mは、振動信号を取得することができる。一部の実施形態では、骨伝導センサ180Mは、人間の声帯部分の振動骨の振動信号を取得することができる。骨伝導センサ180Mは、ヒトの脈拍と接触し、血圧拍動信号を受信することもできる。一部の実施形態では、骨伝導センサ180Mは、代替として、ヘッドセット内に配置されて、骨伝導ヘッドセットを構成してもよい。オーディオモジュール170は、骨伝導センサ180Mが取得した声帯部分の振動骨の振動信号に基づいて音声信号を取得し、解析して、音声機能を実施することができる。アプリケーションプロセッサは、骨伝導センサ180Mが取得した血圧拍動信号に基づいて心拍数情報を解析して、心拍数検出機能を実施することができる。
ボタン190は、電源ボタン、音量ボタンなどを含む。ボタン190は、機械式ボタンであってもよく、又はタッチ式ボタンであってもよい。電子機器100は、キー入力を受信し、電子機器100のユーザ設定及び機能制御と関連したキー信号入力を生成する。
モータ191は、振動プロンプトを生成することができる。モータ191は、着信振動プロンプト及びタッチ振動フィードバックを生成するように構成されてもよい。例えば、異なるアプリケーション(例えば、写真撮影及びオーディオ再生)に対して実行されるタッチ操作は、異なる振動フィードバック効果に対応することができる。ディスプレイ194の異なる領域上で実行されるタッチ操作に対して、モータ191は、異なる振動フィードバック効果に対応することもできる。異なるアプリケーションシナリオ(例えば、時間リマインダ、情報受信、目覚まし時計、及びゲーム)は、異なる振動フィードバック効果に対応することができる。タッチ振動フィードバック効果は、さらにカスタマイズされてもよい。
インジケータ192は、インジケータライトであってもよく、充電状態及び電力変化を示すように構成されてもよく、メッセージ、不在着信、通知などを示すように構成されてもよい。
SIMカードインターフェース195は、SIMカードに接続するように構成されている。SIMカードは、SIMカードインターフェース195に挿入され、又はSIMカードインターフェース195から取り外されて、電子機器100との接触又は分離を実施することができる。電子機器100は、1つ又はN個のSIMカードインターフェースをサポートすることができ、Nは1より大きい正の整数である。SIMカードインターフェース195は、nano-SIMカード、micro-SIMカード、SIMカードなどをサポートすることができる。複数のカードを同じSIMカードインターフェース195に同時に挿入することができる。複数のカードは、同じタイプであっても、異なるタイプであってもよい。SIMカードインターフェース195は、異なるタイプのSIMカードと互換性がある。SIMカードインターフェース195は、外部記憶カードとも互換性がある。電子機器100は、SIMカードを使用することによってネットワークと対話して、通話機能、データ通信機能などを実施する。一部の実施形態では、電子機器100は、eSIM、すなわち、埋め込みSIMカードを使用する。eSIMカードは、電子機器100に埋め込まれてもよく、電子機器100から分離することができない。
電子機器100のソフトウェアシステムは、階層化アーキテクチャ、イベント駆動アーキテクチャ、マイクロカーネルアーキテクチャ、マイクロサービスアーキテクチャ、又はクラウドアーキテクチャを使用することができる。本発明の実施形態では、階層化アーキテクチャのAndroidシステムが、電子機器100のソフトウェア構造を示すための例として使用される。
図2は、本出願の一実施形態による電子機器100のソフトウェア構造のブロック図である。
階層化アーキテクチャでは、ソフトウェアはいくつかの層に分割され、各層は、明確な役割及びタスクを有する。これらの層は、ソフトウェアインターフェースを介して互いに通信する。一部の実施形態では、Androidシステムは、4つの層、すなわち、上から下へ、アプリケーション層、アプリケーションフレームワーク層、アンドロイドランタイム(Android runtime)及びシステムライブラリ、並びにカーネル層に分割されている。
アプリケーション層は、一連のアプリケーションパッケージを含むことができる。
図2に示すように、アプリケーションパッケージは、カメラ、ギャラリー、カレンダー、電話、地図、ナビゲーション、WLAN、ブルートゥース、音楽、ビデオ、及びメッセージなどのアプリケーションを含むことができる。
アプリケーションフレームワーク層は、アプリケーション層におけるアプリケーションのためのアプリケーションプログラミングインターフェース(application programming interface、API)及びプログラミングフレームワークを提供する。アプリケーションフレームワーク層は、いくつかの予め定義された機能を含む。
図2に示すように、アプリケーションフレームワーク層は、ウィンドウマネージャ、コンテンツプロバイダ、ビューシステム、電話マネージャ、リソースマネージャ、通知マネージャなどを含むことができる。
ウィンドウマネージャは、ウィンドウプログラムを管理するように構成されている。ウィンドウマネージャは、ディスプレイのサイズを取得し、ステータスバーがあるか否かを判定し、画面ロックを実行し、スクリーンショットを取得するなどをすることができる。
コンテンツプロバイダは、データを記憶及び取得し、アプリケーションがデータにアクセスできるように構成されている。データは、ビデオ、画像、オーディオ、発着信通話、閲覧履歴及びブックマーク、電話帳などを含むことができる。
ビューシステムは、テキストを表示するためのコントロール、又は画像を表示するためのコントロールなどの視覚的コントロールを含む。ビューシステムは、アプリケーションを構築するように構成されてもよい。ディスプレイインターフェースは、1つ又は複数のビューを含むことができる。例えば、メッセージの通知アイコンを含む表示インターフェースは、テキスト表示ビュー及び画像表示ビューを含むことができる。
電話マネージャは、電子機器100の通信機能、例えば、通話状態(応答、拒否などを含む)の管理を提供するように構成されている。
リソースマネージャは、ローカライズされた文字列、アイコン、画像、レイアウトファイル、及びビデオファイルなどの、アプリケーションのための様々なリソースを提供する。
通知マネージャは、アプリケーションがステータスバーに通知情報を表示することを可能にし、通知タイプのメッセージを伝達するように構成されてもよい。表示された通知情報は、ユーザ対話なしにしばらく間をおいて自動的に消えてもよい。例えば、通知マネージャは、ダウンロード完了を通知すること、メッセージ通知を提供することなどを行うように構成されている。通知マネージャは、代替として、グラフ又はスクロールバーテキストの形態でシステムの一番上のステータスバーに現れる通知、例えば、バックグラウンドで実行中のアプリケーションの通知、又はダイアログウィンドウの形態で画面上に現れる通知であってもよい。例えば、テキスト情報がステータスバーに表示され、警告音が鳴らされ、電子機器が振動し、又はインジケータが点滅する。
Android Runtimeは、カーネルライブラリ及び仮想マシンを含む。Android Runtimeは、アンドロイドシステムのスケジューリング及び管理を担当する。
カーネルライブラリは、2つの部分、すなわち、Java言語で呼び出す必要がある関数と、Androidのカーネルライブラリとを含む。
アプリケーション層及びアプリケーションフレームワーク層は、仮想マシン上で動作する。仮想マシンは、アプリケーション層及びアプリケーションフレームワーク層でJavaファイルをバイナリファイルとして実行する。仮想マシンは、オブジェクトライフサイクル管理、スタック管理、スレッド管理、セキュリティ及び例外管理、並びにガベージコレクションなどの機能を実行するように構成されている。
システムライブラリは、複数の機能モジュール、例えば、サーフェスマネージャ(surface manager)、メディアライブラリ(Media Library)、3次元グラフィックス処理ライブラリ(例えば、OpenGL ES)、及び2Dグラフィックスエンジン(例えば、SGL)を含むことができる。
サーフェスマネージャは、ディスプレイサブシステムを管理し、複数のアプリケーションのために2Dレイヤと3Dレイヤとの融合を提供するように構成されている。
メディアライブラリは、複数の一般的に使用されるオーディオ及びビデオフォーマット、静止画像ファイルなどの再生及び記録をサポートする。メディアライブラリは、MPEG-4、H.264、MP3、AAC、AMR、JPG、及びPNGなどの、複数のオーディオ及びビデオ符号化フォーマットをサポートすることができる。
3次元グラフィックス処理ライブラリは、3次元グラフィックス描画、画像レンダリング、合成、レイヤ処理などを実施するためのライブラリである。
2Dグラフィックスエンジンは、2D描画のための描画エンジンである。
カーネル層は、ハードウェアとソフトウェアとの間の層である。カーネル層は、少なくともディスプレイドライバ、カメラドライバ、オーディオドライバ、センサドライバを含む。
以下では、撮影シナリオを参照して、電子機器100のソフトウェア及びハードウェアの動作手順の例を説明する。
タッチセンサ180Kがタッチ操作を受け取ると、対応するハードウェア割り込みがカーネル層に送られる。カーネル層は、タッチ操作を元の入力イベント(タッチ座標及びタッチ操作のタイムスタンプなどの情報を含む)に加工する。元の入力イベントは、カーネル層に記憶される。アプリケーションフレームワーク層は、カーネル層から元の入力イベントを取得し、入力イベントに対応するコントロールを識別する。例えば、タッチ操作がシングルタップタッチ操作であり、シングルタップ操作に対応するコントロールがカメラアプリケーションアイコンのコントロールである。カメラアプリケーションは、アプリケーションフレームワーク層のインターフェースを呼び出し、カメラアプリケーションを起動する。次いで、カーネル層を呼び出すことによってカメラドライバを起動し、カメラ193を用いて静止画やビデオを撮影する。
以下、本発明の実施の形態について図面を参照して詳細に説明する。以下の実施形態では、電子機器100が携帯電話機である例を用いる。一部の実施形態では、電子機器のディスプレイの主対話領域及び主表示領域は、電子機器の物理的状態に基づいて決定される。表示要素タイプを決定することによって、電子機器は、主対話要素をディスプレイの主対話領域に表示してユーザが電子機器を操作するのを助け、主表示要素をディスプレイの主表示領域に表示してユーザがコンテンツを閲覧するのを助ける。これにより、ユーザ体験が向上する。
図3Aは、本出願の一実施形態による表示要素の表示方法の概略流れ図である。本方法は、第1の本体及び第2の本体を含む電子機器に適用される。第1の本体は、第2の本体に対して折り曲げ可能である。第1の本体及び第2の本体は、電子機器の異なる表示領域にそれぞれ対応する。異なる表示領域は、主対話領域及び主表示領域を含む。本方法は、ステップ301からステップ306を含む。詳細は以下の通りである。
ステップ301:電子機器は、第1の本体の状態及び第2の本体の状態を検出する。
例えば、ステップ301は、ステップ3011及びステップ3012を含むことができる。詳細は以下の通りである。
ステップ3011:第1の本体の第1のセンサデータ及び第2の本体の第2のセンサデータを取得する。
第1のセンサデータは、第1の本体の1つ又は複数のセンサの検出データを含むことができる。第2のセンサデータは、第2の本体の1つ又は複数のセンサの検出データを含むことができる。
例えば、第1センサデータは、第1センサの第1データと、第2センサの第2データとを含む。第2センサデータは、第3センサの第3データと第4センサの第4データとを含む。第1のセンサ及び第2のセンサは、電子機器の第1の本体の背面ハウジング及びベゼル上にそれぞれ配置された1つ又は複数の圧力センサ180Aである。第3のセンサ及び第4のセンサは、電子機器の第2の本体の背面ハウジング及びベゼル上にそれぞれ配置された1つ又は複数の圧力センサ180Aである。
ステップ3012:第1のセンサデータに基づいて第1の本体の状態を決定し、第2のセンサデータに基づいて第2の本体の状態を決定する。
第1の本体の状態及び第2の本体の状態は、各本体の保持状態及び支持状態を含むことができる。センサデータに基づいて保持状態又は支持状態を判定するための方法については、図1A~図1Fの説明を参照されたい。ここでは詳細は繰り返されない。
ステップ302:電子機器は、第1の本体の状態及び第2の本体の状態に基づいて、主対話領域及び主表示領域を決定する。
「主対話領域」は、電子機器のディスプレイ上のユーザ操作のための領域であってよい。「主表示領域」は、電子機器のディスプレイ上のユーザが閲覧するための領域であってよい。「主対話領域」及び「主表示領域」は、1つのディスプレイの2つの異なる表示領域であってもよく、又は1つの電子機器の2つのディスプレイであってもよい。
例えば、第1の本体の状態及び第2の本体の状態に基づいて主対話領域及び主表示領域を決定することは、具体的には、以下を含むことができる。
(1)電子機器の一方の本体が保持又は支持されており(以下、「支持されている」と呼ぶ)、他方の本体が保持又は支持されていない(以下、「支持されていない」と呼ぶ)場合、電子機器は、支持されている本体に対応する表示領域(以下、「支持されている表示領域」と呼ぶ)を主対話領域であると決定し、支持されていない本体に対応する表示領域(以下、「支持されていない表示領域」と呼ぶ)を主表示領域であると決定する。
例えば、図3Bに示すように、電子機器は、デスクトップ上に配置されている。電子機器の一方の本体がデスクトップによって支持されており、電子機器の他方の本体が支持されていない場合、電子機器は、支持されている本体に対応する表示領域(以下、「支持されている表示領域」と呼ぶ)が主対話領域であり、支持されていない表示領域が主表示領域であると決定することができる。別の例では、図3Cに示すように、電子機器の一方の本体がユーザによって手で保持され、他方の本体が支持されていない場合、電子機器は、保持された本体に対応する表示領域(以下では「保持された表示領域」と呼ぶ)が主対話領域であり、支持されていない表示領域が主表示領域であると決定することができる。以下では、説明の便宜上、「一方の本体が支持され、他方の本体が支持されていない」状態を略して「第1の支持状態」と呼ぶ。
(2)電子機器の両方の本体が支持されている場合(以下では「第2の支持状態」と呼ぶ)、電子機器は、以下のポリシーのうちの1つ又は複数を使用することによって、主表示領域及び主対話領域を決定することができる。
ポリシー1:第1の本体及び第2の本体の姿勢に基づいて、主表示領域又は主対話領域を決定する。
例えば、2つの本体が異なる高さにある場合、電子機器は、より低い高さにある本体に対応する表示領域(以下、「下部表示領域」と呼ぶ)が主対話領域であると決定し、より高い高さにある他方の本体に対応する表示領域(以下、「上部表示領域」と呼ぶ)が主表示領域であると決定する。2つの本体が同じ高さにある場合、電子機器は、右側の本体に対応する表示領域(以下では「右表示領域」と呼ぶ)が主対話領域であると決定し、左側の本体に対応する表示領域(以下では「左表示領域」と呼ぶ)が主表示領域であると決定する。
ポリシー2:第1の本体及び第2の本体の保持状態/支持状態に基づいて、主表示領域又は主対話領域を決定する。
例えば、一方の本体が支持され、他方の本体が保持されている場合、電子機器は、支持されている本体に対応する表示領域(以下、「支持表示領域」と呼ぶ)が主対話領域であると決定し、保持されている本体に対応する表示領域(以下、「保持表示領域」と呼ぶ)が主表示領域であると決定する。
ステップ303:電子機器は、1つ又は複数の表示要素を取得する。
1つ又は複数の表示要素は、表示すべきユーザインターフェース上の1つ又は複数の表示要素である。表示すべきユーザインターフェースは、いかなる処理も行われていない元のユーザインターフェースである。
ステップ304:電子機器は、表示要素タイプを決定し、表示要素タイプは、主対話要素及び主表示要素を含む。
「主対話要素」は、ユーザ操作を受け取るための表示要素である。例えば、主対話要素は、ボタン、スライダーバー、入力ボックス、又はドロップダウンメニューであってもよい。電子機器は、ユーザによって実行される主対話要素に対する操作を受け取ることができる。例えば、主対話要素に対して実行される操作は、タップ、スライド、エンター、又はドラッグを含むことができる。主対話要素に対して実行される操作に応答して、電子機器は、対応する対話機能を実行することができる。例えば、電子機器は、ユーザによるスライダーバーに対して行われる操作に応答して、表示内容をスクロールさせる。別の例では、ユーザによって再生ボタンに対して行われるタップ操作に応答して、電子機器は、ビデオ再生を開始/一時停止する。前述の例は、主対話要素を説明するために使用されているにすぎないことが理解され得る。主対話要素は、他の要素をさらに含むことができる。これは、本出願の一部の実施形態において限定されない。
「主表示要素」とは、ユーザが閲覧するコンテンツを表示するための表示要素である。電子機器は、主表示要素を用いて、異なるコンテンツを表示することができる。前述のコンテンツは、テキスト、画像、ビデオなどであってよい。例えば、テキストコンテンツは電子書籍又はニュースであってもよく、画像は写真であってもよく、ビデオは映画又はTVシリーズであってもよい。
ステップ306:電子機器は、主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示する。
例えば、電子機器のディスプレイは、第1の表示領域及び第2の表示領域を含む。電子機器の第1の表示領域が主対話領域であり、第2の表示領域が主表示領域である場合、電子機器は、主対話要素(例えば、音量を制御するためのコントロール又は再生を制御するためのコントロール)を第1の表示領域に表示し、主表示要素(例えば、歌詞を表示するためのコントロール)を第2の表示領域に表示する。
本ソリューションでは、電子機器の第1の本体の状態及び第2の本体の状態に基づいて、電子機器の主対話領域及び主表示領域が決定され、表示要素分類が実行され、主表示要素が主表示領域に表示され、主対話要素が主対話領域に表示される。これは、ユーザが電子機器をより良く操作するのを助け、また、ユーザが電子機器によって表示されるコンテンツを閲覧するのを助ける。
加えて、一方の本体が支持され、他方の本体が支持されていない場合、支持されている本体に対応する表示領域が主対話領域であり、支持されていない本体に対応する表示領域が主対話領域である。これは、ユーザが、支持されていない本体に対応する表示領域で操作を実行することを防止し、ユーザによる電子機器の操作の安定性を向上させ、ユーザが電子機器に対してタッチ操作を実行するのを助け、良好なユーザ体験を実施することができる。
両方の本体が支持されている場合、ユーザの操作習慣に適合するように、より低い高さにある本体に対応する表示領域が主対話領域であり、より高い高さにある本体に対応する表示領域が主表示領域であり、又はユーザの右手操作習慣に適合するように、右側にある本体に対応する表示領域が主対話領域であり、左側にある本体に対応する表示領域が主表示領域である。
理解を容易にするために、以下では、具体的な例を参照して本出願における方法を説明する。
実施例1
図4に示すように、電子機器は、折り畳まれた形態でデスクトップ上に配置されている。電子機器は、第1の本体に対応する第1の表示領域(例えば、表示領域401a)と、第2の本体に対応する第2の表示領域(例えば、表示領域401b)とを含む。
(ステップ301)第1の本体の背面ハウジング領域の圧力センサAは、デスクトップによって支持され、第1の本体のベゼル領域の圧力センサBは、圧力を受けていない。電子機器は、圧力センサAによって検出された圧力値と圧力センサBによって検出された圧力値とに基づいて、第1の本体が支持されていると判定することができる。第2の本体の背面ハウジング領域の圧力センサC及び第2の本体のベゼル領域の圧力センサDは、圧力を受けていない。電子機器は、圧力センサCによって検出された圧力値と圧力センサDによって検出された圧力値とに基づいて、第2の本体が支持されていないと判定することができる。
(ステップ302)表示領域401bが支持されており、表示領域401aが支持されていない場合、電子機器は、支持されている表示領域401bが主対話領域であると決定し、支持されていない表示領域401aが主表示領域であると決定する。
(ステップ303)表示すべきユーザインターフェースは、電子書籍テキストコンテンツ407、前のチャプタ選択4081、次のチャプタ選択4082、上下スライドコントロール4083、進むボタン4084、コメント入力ボックス4085、コメント閲覧ボタン4086、いいねボタン4087、及びステータスバー400などの表示要素を含む。ステータスバー400は、モバイル通信信号の信号強度インジケータ403と、Wi-Fi信号の信号強度インジケータ404と、バッテリステータスインジケータ405と、時間インジケータ406と、を含むことができる。
(ステップ304)電子機器は、電子書籍テキストコンテンツ407及びステータスバー400が主表示要素であると決定し、前のチャプタ選択4081、次のチャプタ選択4082、上下スライドコントロール4083、進むボタン4084、コメント入力ボックス4085、コメント閲覧ボタン4086、及びいいねボタン4087が主対話要素であると決定する。
ステータスバー400及び電子書籍テキストコンテンツ407は、ユーザ閲覧のために使用され、したがって、主表示要素であることが理解され得る。ユーザは、前のチャプタ選択4081及び次のチャプタ選択4082をタップし、上下スライドコントロール4083をスライドさせて、電子書籍テキストコンテンツ407の表示を制御することができる。ユーザは、進むボタン4084をタップして、進むインターフェースに入ることができる。ユーザは、コメント入力ボックス4085をタップしてコメント入力インターフェースに入り、コメントを入力することができる。ユーザは、コメント閲覧ボタン4086をタップして、履歴コメントコンテンツを閲覧することができる。ユーザは、いいねボタン4087をタップすることができる。したがって、前のチャプタ選択4081、次のチャプタ選択4082、上下スライドコントロール4083、進むボタン4084、コメント入力ボックス4085、コメント閲覧ボタン4086、及びいいねボタン4087は、主対話要素である。
(ステップ306)電子機器は、ユーザインターフェース41を表示している。表示領域401aには、主表示要素(例えば、ステータスバー400、電子書籍テキストコンテンツ407)が表示される。表示領域401bには、主対話要素(例えば、前のチャプタ選択4081、次のチャプタ選択4082、上下スライドコントロール4083、進むボタン4084、コメント入力ボックス4085、コメント閲覧ボタン4086、及びいいねボタン4087)が表示される。
任意選択で、以下の第1の条件が満たされると、電子機器は、ステップ301~ステップ306を実行するようにトリガすることができる。
ポリシー1:電子機器は、ユーザの第1操作を受け取る。第1の操作は、予め設定されたジェスチャ操作などであってもよく、例えば、表示領域の下から上にスライドする操作であってもよく、表示領域を長押しする操作であってもよい。
ポリシー2:電子機器は、折り畳み状態にある。
理解を容易にするために、以下では、具体的な例を参照して本出願における方法を説明する。
実施例2
図5Aに示すように、電子機器は展開状態にある。電子機器は、ユーザインターフェース51を表示している。ユーザインターフェース51は、ステータスバー400と、第1のアプリケーションインターフェース(例えば、写真インターフェース)とを含む。写真インターフェースは、フラッシュボタン501、カメラ機能設定ボタン502、倍率ボタン503、画像表示機能ボタン504、カメラスイッチ505、写真機能ボタン506、ビューファインダフレーム507、3ボタンナビゲーションボタン509、3ボタンナビゲーションボタン510、及び3ボタンナビゲーションボタン511などの表示要素を含む。ユーザは、電子機器を折り畳んで、電子機器をデスクトップ上に置く。電子機器がユーザインターフェース51を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、ステップ301~ステップ306を実行することができる。電子機器は、ユーザインターフェース52を表示している。図5Bに示すように、主対話要素(例えば、倍率ボタン503、画像表示機能ボタン504、カメラスイッチ505、写真機能ボタン506、3ボタンナビゲーションボタン509、3ボタンナビゲーションボタン510、及び3ボタンナビゲーションボタン511)が主対話領域(例えば、表示領域401b)に表示され、主表示要素(例えば、ビューファインダフレーム507及びステータスバー400)が主表示領域(例えば、表示領域401a)に表示される。
実施例3
これは実施例2と同様である。図6Aに示すように、電子機器は、展開状態にある。電子機器は、ユーザインターフェース61を表示している。ユーザインターフェース61は、ステータスバー400と、第1のアプリケーションインターフェース(例えば、ビデオインターフェース)とを含む。電子機器がユーザインターフェース61を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、ステップ301~ステップ306を実行してユーザインターフェース62を表示する。図6Bに示すように、主対話要素(例えば、写真ボタン5083、ビデオボタン5084、一時停止ボタン5085、及びタイミングボタン5086)が主対話領域(例えば、表示領域401b)に表示され、主表示要素(例えば、ステータスバー400及びビューファインダフレーム5082)が主表示領域(例えば、表示領域401a)に表示される。
実施例4
これは、実施例2及び実施例3と同様である。図7Aに示すように、電子機器は、展開状態にある。電子機器は、ユーザインターフェース71を表示している。ユーザインターフェース71は、ステータスバー400及び第1のアプリケーションインターフェース(例えば、ビデオ通話インターフェース)を含む。図7Bに示すように、電子機器がユーザインターフェース71を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、ユーザインターフェース72を表示する。主対話要素(例えば、音声応答ボタン4093、拒否ボタン4091、及びカメラ切り替えボタン411)が主対話領域(例えば、表示領域401b)に表示され、主表示要素(例えば、着呼側のビデオ画像611a、発呼者のビデオ画像611b、及びステータスバー400)が主表示領域(例えば、表示領域401a)に表示される。
実施例5:
これは、実施例2~実施例4と同様である。図8Aに示すように、電子機器は、展開状態にある。電子機器は、ユーザインターフェース81を表示している。ユーザインターフェース81は、ステータスバー400と、第1のアプリケーションインターフェース(例えば、音楽再生インターフェース937)とを含む。図8Bに示すように、電子機器がユーザインターフェース81を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、ユーザインターフェース82を表示する。主対話要素(例えば、一時停止再生ボタン931、早送り再生ボタン932、巻き戻し再生ボタン933、及び再生進行ボタン936)が主表示領域(例えば、表示領域401b)に表示され、主表示要素(例えば、歌詞930及びステータスバー400)が主表示領域(例えば、表示領域401a)に表示される。
実施例2~実施例5は、表示すべきインターフェースが第1のアプリケーションインターフェース及びステータスバーを含む例を使用することによって説明されていることに留意されたい。表示すべきインターフェースは、システムインターフェース及びステータスバーも含むことができることが理解され得る(例えば、実施例6)。システムインターフェースは、ホーム画面、左端画面、ロック画面などであってもよい。
実施例6:
図9A-1及び図9A-2に示すように、電子機器は展開状態にある。電子機器は、ユーザインターフェース91を表示している。ユーザインターフェース91は、ステータスバー400とホーム画面とを含む。ホーム画面は、天気情報914、時間情報915、アプリケーションアイコンバー916、ショートカットアプリケーションバー913などの表示要素を含む。アプリケーションアイコンバー916は、WeChatアイコン901、QQアイコン902、Twitterアイコン903、Facebookアイコン904、電子メールアイコン905、Alipayアイコン906、クラウド共有アイコン907、及びMemoアイコン908などの1つ又は複数のアプリケーションアイコンを含むことができる。ショートカットアプリケーションバー913は、1つ又は複数のアイコン、例えば、電話ボタン909、連絡先ボタン910、SMSメッセージボタン911、及びカメラボタン912を含むことができる。これは、実施例2~実施例5と同様である。図9B-1及び図9B-2に示すように、電子機器がユーザインターフェース91を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、ステップ301~ステップ306を実行してユーザインターフェース92を表示する。主対話要素(例えば、アプリケーションアイコンバー916及びショートカットアプリケーションバー913)が主対話領域(例えば、表示領域401b)に表示され、主表示要素(例えば、天気情報914及び時間情報915)が主表示領域(例えば、表示領域401a)に表示される。
実施例2~実施例6は、折り畳みの前後で電子機器によって表示されるコンテンツが変化しないシナリオを使用することによって説明されていることに留意されたい。換言すれば、電子機器が展開状態から折り畳み状態に切り替わったときに表示されるユーザインターフェース(例えば、ユーザインターフェース51、ユーザインターフェース61、ユーザインターフェース71、ユーザインターフェース81、又はユーザインターフェース91)は、表示すべきユーザインターフェースである。本出願の実施形態に記載される方法は、折り畳みの前後で電子機器によって表示されるコンテンツが変化するシナリオにも適用可能であることが理解され得る。例えば、電子機器が第1のユーザインターフェースを表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、第1の表示領域及び第2の表示領域に第1のユーザインターフェース及び第2のユーザインターフェースをそれぞれ表示する。第2のユーザインターフェースは、例えば、第1のユーザインターフェースが表示される前に電子機器によって表示されたユーザインターフェース(以下、最近表示されたユーザインターフェースと呼ぶ)であってもよく、第1のユーザインターフェースよりも上位層にあるユーザインターフェースであってもよく、第1のユーザインターフェースと同じ層にあるユーザインターフェースであってもよい。第1のユーザインターフェースよりも上位層にあるユーザインターフェースについて、例えば、第1のユーザインターフェースがWeChatチャットインターフェースである場合、チャット情報リストインターフェースは、第1のユーザインターフェースよりも上位層にあるユーザインターフェースである。
実施例7:
図10Aに示すように、電子機器は、展開状態にある。電子機器は、ユーザインターフェース101を表示している。ユーザインターフェース101は、ギャラリー1001を含む。ギャラリー1001は、いくつかの画像、例えば画像1001aを含む。ユーザが画像1001aをタップする操作に応答して、電子機器は、ユーザインターフェース102を表示する。ユーザインターフェース102は、画像1001aを含む。電子機器がユーザインターフェース102を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、ステップ301~ステップ306を実行する。図10Bに示すように、折り畳みの前に電子機器によって表示されたコンテンツが第1のユーザインターフェース(例えば、ユーザインターフェース102)であり、折り畳みの後に電子機器によって表示されたコンテンツが第1のユーザインターフェース(例えば、ユーザインターフェース102)及び最近表示されたユーザインターフェース(例えば、ユーザインターフェース101)であると仮定する。この場合、図10Cに示すように、電子機器は、ユーザインターフェース103を表示している。言い換えれば、第1のユーザインターフェース(例えば、ユーザインターフェース101)及び第2のユーザインターフェース(ユーザインターフェース102)は、表示すべきユーザインターフェースである。電子機器が取得した1つ又は複数の表示要素は、第1のユーザインターフェース上の表示要素及び第2のユーザインターフェース上の表示要素を含む。電子機器は、第1のユーザインターフェース及び第2のユーザインターフェース上の主表示要素(例えば、画像1001a)を主表示領域(例えば、表示領域401a)に表示し、第1のユーザインターフェース及び第2のユーザインターフェース上の主対話要素(例えば、ギャラリー1001)を主対話領域(例えば、表示領域401b)に表示する。
電子機器は、取得した表示要素のすべてを表示してもよく、又は取得した表示要素の一部のみを表示してもよいことに留意されたい。例えば、図10Cに示すように、電子機器は、取得した表示要素(例えば、画像1001a、画像1001b、画像1001c、画像1001d、画像10001e、画像1001f)のうちのいくつかの表示要素(例えば、画像1001a、画像1001b、画像1001c)のみを表示する。任意選択で、図10Dに示すように、いくつかの要素が表示されているとき、ユーザの上下スライド操作又は左右スライド操作などの操作に応答して、電子機器は、表示されているいくつかの表示要素を変更することができる。
実施例7は、第2のユーザインターフェースが最近表示されたユーザインターフェースである例を使用することによって説明される。実施例8は、第2のユーザインターフェースが第1のユーザインターフェースと同じ層にあるユーザインターフェースである実施例を使用することによって以下で説明される。
実施例8
図11A-1及び図11A-2に示すように、電子機器は、展開状態にある。電子機器は、ユーザインターフェース115を表示している。ユーザインターフェース115は、ステータスバー400及び第2のメインインターフェースを含む。第2のメインインターフェースは、アプリケーションアイコンバー917及びショートカットアプリケーションバー913などの表示要素を含む。アプリケーションアイコンバー917は、株式918、計算器919、設定920、電子メール921、ギャラリー922、ブラウザ923、音楽924、ビデオ925、及びAPPストア926などのアイコンを含むことができる。電子機器がユーザインターフェース115を表示しているとき、電子機器が展開状態から折り畳み状態に切り替わったことが検出されると、電子機器は、図11B-1及び図11B-2に示されるユーザインターフェース116を表示する。ユーザインターフェース116は、第2のメインインターフェース上の表示要素(例えば、アプリケーションアイコンバー917及びショートカットアプリケーションバー913)と、第2のメインインターフェースと同じ層にあるユーザインターフェース、すなわち第1のメインインターフェース(例えば、インターフェース91)上の表示要素(例えば、天気情報914及び時間情報915)とを含む。主対話要素は主対話領域に表示され、主表示要素は主表示領域に表示される。
任意選択で、電子機器が第1の条件に基づいてステップ301~ステップ306を実行するようにトリガされた後、電子機器は、ステップ301~ステップ306を繰り返し実行することができる。電子機器は、電子機器が第2の条件を満たすまでステップ301~ステップ306の実行を停止する。第1の条件と第2の条件とは同じであってもよいし、異なっていてもよいことに留意されたい。可能なやり方では、前述の第2の条件は、電子機器の両方の本体が支持され、同じ高さにあることであってもよい。別の可能なやり方では、前述の第2の条件は、予め設定された第2のユーザ操作、例えば、主対話領域の下縁部から上方にスライドする操作であってもよい。
実施例9
図12Aに示すように、電子機器は、展開状態にある。電子機器は、ユーザインターフェース1211を表示している。図12Bに示すように、電子機器がユーザインターフェース1211を表示すると、電子機器は展開状態から折り畳み状態に切り替わる。したがって、第1の条件が満たされ(例えば、電子機器が折り畳み状態にある)、電子機器は、ステップ301~ステップ306を実行してユーザインターフェース122を表示する。主対話要素は主対話領域、すなわち表示領域401bに表示され、主表示要素は主表示領域、すなわち表示領域401aに表示される。電子機器は、ステップ301からステップ306を繰り返し実行する。ユーザが、折り畳み状態の電子機器を展開し、電子機器を保持すると、電子機器は、表示領域401aが保持され、表示領域401bが支持されていないと判定する。この場合、電子機器は、保持された表示領域401aが主対話領域であり、支持されていない表示領域401bが主表示領域であると決定する。電子機器は、表示領域401aに主対話要素を表示する。図12Cに示すように、電子機器は、支持されていない表示領域401bに主表示要素を表示する。
前述の第2の条件は、電子機器の両方の本体が支持され、且つ同じ高さにあると仮定されている。この場合、電子機器が、第1の本体及び第2の本体の両方が支持され、第1の本体及び第2の本体が同じ高さにあることを検出すると、電子機器は、ユーザインターフェース122からユーザインターフェース1211に戻すように切り替える。
第2の条件は、予め設定されたユーザ操作であってもよいことに留意されたい。予め設定されたユーザ操作は、任意の操作、例えば、予め設定されたジェスチャ操作であってもよいことに留意されたい。これは、本明細書では特に限定されない。
実施例10
図13Aに示すように、電子機器は展開状態にある。電子機器は、ユーザインターフェース131を表示している。ユーザインターフェース131は、ビデオ再生インターフェース608及び情報推薦インターフェース609を含む。ビデオ再生インターフェース608は、ビデオ再生ウィンドウ606、ビデオ再生進行巻き戻しボタン601、ビデオ再生進行早送りボタン603、ビデオ再生一時停止ボタン602、ビデオ再生進行バー604、全画面設定ボタン605、情報推薦インターフェース609などの表示要素を含む。情報推薦インターフェース609は、ビデオ607a、ビデオ607b、ビデオ607cなどを含むことができる。図13B-1及び図13B-2に示すように、電子機器は、ユーザが全画面設定ボタン605をタップする操作に応じて、ユーザインターフェース131からユーザインターフェース132に切り替わる。電子機器は、ビデオ再生ウィンドウ606を全画面に表示する。図13Cに示すように、電子機器は、展開状態から折り畳み状態に切り替わる。したがって、第1の条件が満たされ(例えば、電子機器が折り畳み状態にある)、電子機器は、ステップ301~ステップ306を実行してユーザインターフェース133を表示する。主表示要素(例えば、ビデオ再生ウィンドウ606)が主表示領域に表示され、主対話要素(例えば、ビデオ再生一時停止ボタン602及びビデオ再生進行バー604)が主対話領域に表示される。図13Dに示すように、電子機器は、ステップ301~ステップ306を繰り返し実行して、ユーザインターフェース133を表示する。図13E-1及び図13E-2に示すように、電子機器がユーザインターフェース133を表示するとき、電子機器は、予め設定されたユーザ操作(例えば、主対話領域の下縁部から上方にスライドする操作)を受け取る。前述の予め設定されたユーザ操作に応答して、電子機器は、表示されたユーザインターフェース133からユーザインターフェース134に切り替わり、ステップ301~ステップ306の実行を停止する。
任意選択で、ステップ306の前に、本方法は、ステップ305をさらに含むことができる。電子機器は、表示要素レベルを決定する。電子機器が主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示するステップ306は、具体的には、以下を含む。電子機器は、表示要素レベルに基づいて、主対話領域に主対話要素を表示し、主表示領域に主表示要素を表示する。
具体的には、本出願の実施形態に記載された方法に従って、表示要素レベルは、以下のポリシーを使用することによって決定することができる。
ポリシー1:ユーザの操作習慣に基づいて主対話要素のレベルを決定する。
電子機器は、様々なアプリケーションをインストールしている。電子機器は、電子機器内の各アプリケーションの異なる主対話要素の使用頻度を計算することができる。電子機器は、各主対話要素の使用頻度に基づいて各主対話要素の対話レベルを決定することができる。例えば、使用頻度が高いほど、対話レベルが高いことを示す。主対話要素の使用頻度を算出する処理は、電子機器が折り畳み状態にある場合に行われてもよく、又は電子機器が展開状態にある場合に行われてもよい。これは、本出願の一部の実施形態において限定されない。電子機器は、使用頻度が第1の予め設定されたしきい値よりも大きい主対話要素の対話レベルがレベル1であると決定する。電子機器は、使用頻度が第1の予め設定されたしきい値未満であり、第2の予め設定されたしきい値よりも大きい主対話要素の対話レベルがレベル2であると決定する。類推により、異なる主対話要素にそれぞれ対応する対話レベルが取得される。本出願の一部の実施形態では、主対話要素の重要度レベルは、リアルタイムで又は周期的に更新されてもよい。
例えば、電子機器は、主対話要素(例えば、前のチャプタ選択、次のチャプタ選択、スライド上下コントロール、いいねボタン、進むボタン、コメント閲覧ボタン、及びコメント入力ボックス)の使用頻度を取得する。前のチャプタ選択、次のチャプタ選択、及びスライド上下コントロールの使用頻度は、第1の予め設定されたしきい値よりも大きい。いいねボタン及び進むボタンの使用頻度は、第1の予め設定されたしきい値よりも小さく、第2の予め設定されたしきい値よりも大きい。コメント閲覧ボタン及びコメント入力ボックスの使用頻度は、第2の予め設定されたしきい値よりも小さい。この場合、電子機器は、前のチャプタ選択、次のチャプタ選択、及びスライド上下コントロールの対話レベルがレベル1であると決定し、電子機器は、いいねボタン及び進むボタンの対話レベルがレベル2であると決定し、電子機器は、コメント閲覧ボタン及びコメント入力ボックスの対話レベルがレベル3であると決定する。
ポリシー2:アプリケーションインターフェースのレベルに基づいて、アプリケーションインターフェース上の表示要素のレベルを決定する。
電子機器は、予め設定された対話レベルリストに基づいて各アプリケーションインターフェースの対話レベルを決定することができる。例えば、表1に対話レベルリストを示す。着信通知インターフェース、ビデオ通話要求インターフェース、アラームリマインダインターフェースなどの対話レベルは比較的高く、レベル1である。メッセージ通知インターフェース、スケジュール通知インターフェースなどの対話レベルは比較的低く、レベル4である。同じアプリケーションの異なるインターフェースは、レベルが異なってもよい。例えば、通知アプリケーションは、アラームリマインダインターフェース、ファイル転送通知インターフェース、及びスケジュール通知インターフェースを含み、前述のインターフェースは、異なるインターフェースレベルに対応する。アプリケーションインターフェース上の表示要素のレベルは、アプリケーションインターフェースのレベルと同じである。具体的には、電子書籍アプリケーションインターフェースの対話レベルがレベル3である場合、電子機器は、電子書籍アプリケーションインターフェースに含まれる表示要素(例えば、いいねボタン又は進むボタン)の対話レベルがレベル3であると決定することができる。ビデオ通話要求インターフェースの対話レベルがレベル1である場合、電子機器は、ビデオ通話要求インターフェースに含まれる表示要素(例えば、拒否ボタン4091又は応答ボタン4092)の対話レベルがレベル1であると決定することができる。
Figure 2023500656000002
具体的には、本出願の一部の実施形態では、以下のポリシーを使用することによって、表示要素レベルに基づいて、主対話要素が主対話領域に表示され、主表示要素が主表示領域に表示される。
ポリシー1:電子機器は、主対話領域に対してレベル分類を実行して、主対話領域の異なる領域を異なるレベルに分類することができる。電子機器は、主対話領域のレベル分類及び各表示要素の対話レベルに基づいて各表示要素を表示することができる。
例えば、以下では、主対話領域に対してレベル分類を実行するための方法を説明する。
図14(1)及び図14(2)は、本出願の一実施形態による主対話領域のレベルの概略図である。図14(1)及び図14(2)に示すように、電子機器は、機械学習を通して、ユーザが片手で電子機器を保持するときに手のひらが画面と連続的に接触している面積と、ユーザが片手で電子機器を保持するときに指が画面に触れることができる最も遠い距離とを取得し、この面積及び距離に基づいて対話領域レベルを決定することができる。詳細は以下の通りである。
右手操作を例として使用する。ユーザが右手で電子機器を保持するとき、右ベゼル上の圧力センサは、ユーザが加える把持力を受け、左ベゼル上の圧力センサは圧力を受けない。したがって、電子機器は、右ベゼル上の圧力センサ及び左ベゼル上の圧力センサを使用することによって、電子機器が右手によって保持されているかどうかを判定することができる。同様に、電子機器は、電子機器が左手によって保持されているかどうかを判定することができる。
電子機器は、電子機器が右手によって保持されているときの最も遠いタッチ位置を記録することができる。タッチ位置が最も遠いとは、タッチ位置から圧力センサまでの距離が最も遠いことを意味する。したがって、電子機器を右手で把持したときに指が画面に触れることができる最も遠い距離(以下、第1の長さと呼ぶ)を決定する。電子機器は、電子機器が右手によって保持されたときに連続的な接触が行われる面積を記録して、電子機器が右手によって保持されたときに右の手のひらが画面と連続的に接触する面積(以下では第1の接触面積と呼ばれる)を決定することができる。同様に、電子機器は、電子機器が左手で保持されたときに連続的な接触が行われる面積を記録して、電子機器が左手で保持されていたときに左の手のひらが画面と連続的に接触する面積(以下、第2の接触面積と呼ぶ)を決定し、電子機器が左手で保持されたときに最も遠いタッチ位置を記録して、ユーザが左手操作を行うときに指が画面に触れることができる最も遠い距離(以下、第2の長さと呼ぶ)を決定することができる。
電子機器は、第1の長さ、第2の長さ、第1の接触面積、及び第2の接触面積に基づいて対話領域レベルを決定する。
図14(1)に示すように、第1の接触面積(例えば接触面積4024a)の中心W1を円中心として使用し、第1の長さを半径として使用し、点Q1を始点として使用することによって第1の円弧4025aを描く。点Q1と円中心W1との接続線は、主対話領域の上下境界線と平行である。点Q1と点Q2との間に第2の円弧4025cを描く。点Q2は、円中心W1からの距離が第1の長さの1/nである点である。同様に、第3の円弧4025bは、接触面積4024bの中心W2を円中心として使用し、第2の長さを半径として使用し、点Q3を始点として使用することによって描かれる。点Q2と円中心W2との接続線は、主対話領域の上下境界線と平行である。点Q3と点Q4との間に第4の円弧4025dを描く。点Q4は、円中心W2からの距離が第2の長さの1/nである点である。電子機器は、第1の円弧4025a、第2の円弧4025c、第3の円弧4025b、及び第4の円弧4025dによって形成される閉領域(例えば、領域4021)がレベル1の対話領域であると決定し、第1の円弧4025a、第2の円弧4025c、及び主対話領域の右境界線によって形成される閉領域のレベル1の対話領域以外の領域(例えば、領域4022a)がレベル2の対話領域であると決定し、第3の円弧4025b、第4の円弧4025d、及び主対話領域の左境界線によって形成される閉領域のレベル1の対話領域以外の領域(例えば、領域4022b)がレベル2の対話領域であると決定し、主対話領域のレベル1の対話領域(例えば、領域4021)及びレベル2の対話領域(例えば、領域4022a及び領域4022b)以外の領域がレベル3の対話領域(例えば、領域4023)であると決定する。或いは、レベルがレベル3未満の対話領域に対しては分類を行わなくてもよい。
第1の長さがW1から右上隅までの距離よりも大きい場合、又は第2の長さがW2から左上隅までの距離よりも大きい場合には、描かれた第1の円弧4025a、第2の円弧4025c、第3の円弧4025b、及び第4の円弧4025dは、図14(2)に示すことができることに留意されたい。この場合、第1の円弧4025a、第2の円弧4025c、第3の円弧4025b、第4の円弧4025d、及び主対話領域の上側境界線によって形成される閉領域がレベル1の対話領域(例えば、領域4021)であり、第1の円弧4025a、第2の円弧4025c、主対話領域の上側境界線、及び主対話領域の右側境界線によって形成される閉領域においてレベル1の対話領域以外の領域がレベル2の対話領域(例えば、領域4022)であり、第3の円弧4025b、第4の円弧4025d、主対話領域の上側境界線、及び主対話領域の左側境界線によって形成される閉領域においてレベル1の対話領域以外の領域がレベル2の対話領域(例えば、領域4022)である。
電子機器は、主対話領域のレベル分類及び表示要素の対話レベルに基づいて、1つ又は複数の表示要素を表示する。例えば、図15に示すように、ユーザが電子書籍アプリケーションを使用しているときに、電子機器がビデオ通話要求を受信する。取得された表示要素は、電子書籍アプリケーションインターフェース上の表示要素である、テキストコンテンツ、前のチャプタ選択、次のチャプタ選択、スライド上下コントロール、いいねボタン、進むボタン、コメント閲覧ボタン、及びコメント入力ボックスと、ビデオ通話要求インターフェース402b上の表示要素である、発呼者名、発呼者アバター、拒否ボタン4091、応答ボタン4092、及び音声応答への切り替えボタン4093とを含む。電子機器は、ポリシー1及び2に従って各表示要素の対話レベルを決定し、対話レベルがレベル1である主対話要素(例えば、拒否ボタン4091及び応答ボタン4092)をレベル1の対話領域に表示し、対話レベルがレベル2である主対話要素(例えば、音声応答への切り替えボタン4093及び発呼者アバター4094)をレベル2の対話領域に表示し、対話レベルがレベル3である表示要素を主対話領域に表示しない。「主対話領域に表示されない」とは、「主対話領域の代わりに主表示領域に表示される」こと、及び「主対話領域にも主表示領域にも表示されない」ことを意味する場合があることに留意されたい。
本出願の一部の実施形態によると、表示要素レベル分類及び表示領域レベル分類が実行され、比較的高い対話レベルの表示要素が比較的高いレベルの主対話領域に表示されて、ユーザが電子機器をより良く操作するのを助けるようにし、比較的高い表示レベルの表示要素が比較的高いレベルの主表示領域に表示されて、ユーザが電子機器によって表示されたコンテンツをより良く閲覧するのを助けるようにする。
任意選択で、ユーザは、各表示要素の表示位置を調整することができる。
例えば、図16A及び図16Bにおいて、ユーザインターフェース72が表示されているときに、予め設定されたユーザ操作(例えば、主対話領域をダブルタップする操作)が検出されると、電子機器は、主表示領域(例えば、表示領域401a)に表示されている発呼者のビデオ画像611bを主対話領域(例えば、表示領域401b)に移動させて表示し、主対話領域に表示されている音声応答ボタン4093、拒否ボタン4091、及びカメラ切り替えボタン411を非表示にする。
例えば、図17A-1及び図17A-2は、ユーザが電子書籍を読んでいるときに、電子機器がスケジュール通知メッセージをポップアップするシナリオを示す。電子機器は、スケジュール通知メッセージ4001が主表示要素であると判断し、スケジュール通知メッセージ4001を主表示領域(例えば、表示領域401a)に表示する。電子機器は、ユーザインターフェース42を表示する。図17B-1及び図17B-2に示すように、予め設定されたユーザ操作(例えば、主対話領域での上から下へのスライド操作)が予め設定された時間内に検出された場合、電子機器は、主表示領域に表示された表示要素(例えば、スケジュール通知メッセージ4001)を主対話領域(例えば、表示領域401b)に移動させて表示する。
任意選択で、「主表示要素が主表示領域に表示され、主対話要素が主対話領域に表示される」という表示要素の調整を実行することに加えて、電子機器は、システムの操作をさらに調整することができる。
例えば、図18A-1及び図18A-2、並びに図18B-1及び図18B-2に示すように、電子機器は、「ディスプレイの上端から下方にスライドする操作に応答して通知バー1002を表示する」を「主対話領域の上端から下方にスライドする操作に応答して通知バー1002を表示する」に調整することができる。
別の例では、図19A-1及び図19A-2並びに図19B-1及び図19B-2に示すように、電子機器は、「電子機器が、ユーザがディスプレイの右端から内側にスライドする操作に応答して前のインターフェースに戻る動作を実行する」を「電子機器が、ユーザが主対話領域の右端から内側にスライドする操作に応答して前のインターフェースに戻る動作を実行する」に調整することができる。
本出願の実施形態において提供される方法における機能を実装するために、端末機器は、ハードウェア構造及び/又はソフトウェアモジュールを含むことができ、ハードウェア構造、ソフトウェアモジュール、又はハードウェア構造とソフトウェアモジュールの形態で機能を実施する。前述の機能のうちの1つが、ハードウェア構造、ソフトウェアモジュール、又はハードウェア構造とソフトウェアモジュールとの組合せを使用することによって実行されるかどうかは、特定の用途及び技術的ソリューションの設計制約に依存する。
図20に示すように、実施形態は、電子機器を開示する。電子機器は、タッチ画面2001、1つ又は複数のプロセッサ2002、メモリ2003、及びセンサ2004を含むことができる。前述の構成要素は、1つ又は複数の通信バス2005を介して接続されてもよい。センサ2009は、加速度センサ又はジャイロスコープなどであってもよい。
メモリ2003は、1つ又は複数のコンピュータプログラムを記憶することができる。1つ又は複数のコンピュータプログラムは、1つ又は複数のプロセッサ2002によって実行されるように構成される。1つ又は複数のコンピュータプログラムは命令を含む。前述の命令を使用して、実施形態1におけるステップを実行することができる。
プロセッサ2002はプロセッサ110であってよく、センサ2004はセンサモジュール180であってよく、メモリ2003は内部メモリ121であってよい。詳細な説明については、図1A~図1Fの説明を参照されたい。ここでは詳細は繰り返されない。
前述の実施形態は、本出願の技術的ソリューションを説明することを意図しているにすぎず、本出願を限定するものではない。本出願は前述の実施形態を参照して詳細に説明されているが、当業者は、本出願の実施形態の技術的ソリューションの範囲から逸脱することなく、依然として前述の実施形態において記録された技術的ソリューションに対して修正を行うことができ、又はそのいくつかの技術的特徴に対して同等の置換を行うことができることを理解すべきである。
1 アンテナ
2 アンテナ
41 ユーザインターフェース
42 ユーザインターフェース
51 ユーザインターフェース
52 ユーザインターフェース
61 ユーザインターフェース
62 ユーザインターフェース
71 ユーザインターフェース
72 ユーザインターフェース
81 ユーザインターフェース
82 ユーザインターフェース
91 ユーザインターフェース
92 ユーザインターフェース
100 電子機器
101 ユーザインターフェース
102 ユーザインターフェース
103 ユーザインターフェース
110 プロセッサ
111 背面ハウジング
112 領域
113 ベゼル
115 ユーザインターフェース
116 ユーザインターフェース
120 外部メモリインターフェース
121 内部メモリ
122 ユーザインターフェース
130 USBインターフェース
131 ユーザインターフェース
132 ユーザインターフェース
133 ユーザインターフェース
134 ユーザインターフェース
140 充電管理モジュール
141 電源管理モジュール
142 バッテリ
150 モバイル通信モジュール
160 無線通信モジュール
170 オーディオモジュール
170A スピーカ
170B レシーバ
170C マイクロフォン
170D ヘッドセットジャック、ヘッドセットインターフェース
180 センサモジュール
180A 圧力センサ
180B ジャイロセンサ
180C 気圧センサ
180D 磁気センサ
180E 加速度センサ
180F 測距センサ
180G 光学式近接センサ
180H 指紋センサ
180J 温度センサ
180K タッチセンサ
180L 周囲光センサ
180M 骨伝導センサ
190 ボタン
191 モータ
192 インジケータ
193 カメラ
194 ディスプレイ
195 SIMカードインターフェース
400 ステータスバー
401a 表示領域
401b 表示領域
402b ビデオ通話要求インターフェース
403 信号強度インジケータ
404 信号強度インジケータ
405 バッテリステータスインジケータ
406 時間インジケータ
407 電子書籍テキストコンテンツ
411 カメラ切り替えボタン
501 フラッシュボタン
502 カメラ機能設定ボタン
503 倍率ボタン
504 画像表示機能ボタン
505 カメラスイッチ
506 写真機能ボタン
507 ビューファインダフレーム
509 3ボタンナビゲーションボタン
510 3ボタンナビゲーションボタン
511 3ボタンナビゲーションボタン
601 ビデオ再生進行巻き戻しボタン
602 ビデオ再生一時停止ボタン
603 ビデオ再生進行早送りボタン
604 ビデオ再生進行バー
605 全画面設定ボタン
606 ビデオ再生ウィンドウ
607a ビデオ
607b ビデオ
607c ビデオ
608 ビデオ再生インターフェース
609 情報推薦インターフェース
611a ビデオ画像
611b ビデオ画像
901 WeChatアイコン
902 QQアイコン
903 Twitterアイコン
904 Facebookアイコン
905 電子メールアイコン
906 Alipayアイコン
907 クラウド共有アイコン
908 Memoアイコン
909 電話ボタン
910 連絡先ボタン
911 SMSメッセージボタン
912 カメラボタン
913 ショートカットアプリケーションバー
914 天気情報
915 時間情報
916 アプリケーションアイコンバー
917 アプリケーションアイコンバー
918 株式
919 計算器
920 設定
921 電子メール
922 ギャラリー
923 ブラウザ
924 音楽
925 ビデオ
926 APPストア
930 歌詞
931 一時停止再生ボタン
932 早送り再生ボタン
933 巻き戻し再生ボタン
936 再生進行ボタン
937 音楽再生インターフェース
1001 ギャラリー
1001a 画像
1001b 画像
1001c 画像
1001d 画像
1001f 画像
1002 通知バー
1211 ユーザインターフェース
2001 タッチ画面
2002 プロセッサ
2003 メモリ
2004 センサ
2005 通信バス
2009 センサ
4001 スケジュール通知メッセージ
4021 領域
4022 領域
4022a 領域
4022b 領域
4023 領域
4024a 接触面積
4024b 接触面積
4025a 第1の円弧
4025b 第3の円弧
4025c 第2の円弧
4025d 第4の円弧
4081 チャプタ選択
4082 チャプタ選択
4083 上下スライドコントロール
4084 進むボタン
4085 コメント入力ボックス
4086 コメント閲覧ボタン
4087 いいねボタン
4091 拒否ボタン
4092 応答ボタン
4093 音声応答ボタン、音声応答ボタンへの切り替えボタン
4094 発呼者アバター
5082 ビューファインダフレーム
5083 写真ボタン
5084 ビデオボタン
5085 一時停止ボタン
5086 タイミングボタン

Claims (23)

  1. 第1の本体及び第2の本体を含む電子機器に適用される表示要素の表示方法であって、前記第1の本体が前記第2の本体に対して折り曲げ可能であり、前記第1の本体及び前記第2の本体が前記電子機器の異なる表示領域にそれぞれ対応し、前記異なる表示領域が主対話領域及び主表示領域を含み、前記方法は、
    前記電子機器によって、前記第1の本体の状態及び前記第2の本体の状態を検出するステップと、
    前記電子機器によって、前記第1の本体の前記状態及び前記第2の本体の前記状態に基づいて、前記主対話領域及び前記主表示領域を決定するステップと、
    前記電子機器によって、表示すべきユーザインターフェース上の1つ又は複数の表示要素を取得するステップと、
    前記電子機器によって、表示要素タイプを決定するステップであって、前記表示要素タイプが主対話要素及び主表示要素を含む、ステップと、
    前記電子機器によって、前記主対話要素を前記主対話領域に表示し、前記主表示要素を前記主表示領域に表示するステップと、
    を含む、方法。
  2. 前記状態が支持状態及び非支持状態を含み、前記電子機器によって、前記第1の本体の前記状態及び前記第2の本体の前記状態に基づいて、前記主対話領域及び前記主表示領域を決定する前記ステップが、
    前記第1の本体の前記状態及び前記第2の本体の前記状態が、一方の本体が支持されており、他方の本体が支持されていないという条件を満たす場合、前記電子機器によって、前記支持されている本体に対応する表示領域が前記主対話領域であると決定し、前記支持されていない本体に対応する表示領域が前記主表示領域であると決定するステップ、
    を含む、請求項1に記載の方法。
  3. 前記状態が支持状態及び非支持状態を含み、前記電子機器によって、前記第1の本体の前記状態及び前記第2の本体の前記状態に基づいて、前記主対話領域及び前記主表示領域を決定する前記ステップが、
    前記第1の本体の前記状態及び前記第2の本体の前記状態が、両方の前記本体が支持されているという条件を満たす場合、前記電子機器によって、前記第1の本体及び前記第2の本体が異なる高さにあるかどうかを検出するステップと、
    前記第1の本体及び前記第2の本体が異なる高さにある場合、前記電子機器によって、より低い高さにある本体に対応する表示領域が前記主対話領域であると決定し、より高い高さにある本体に対応する表示領域が前記主表示領域であると決定するステップと、
    を含む、請求項1に記載の方法。
  4. 前記電子機器によって、前記第1の本体の状態及び前記第2の本体の状態を検出する前記ステップが、
    前記電子機器が第1のユーザインターフェースを表示するときに、前記電子機器によって、ユーザの第1の操作を受け取るステップと、
    前記電子機器が前記第1の操作に応じて前記第1の本体の前記状態及び前記第2の本体の前記状態を検出するステップと、
    を含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記電子機器によって、前記第1の本体の状態及び前記第2の本体の状態を検出する前記ステップが、
    前記電子機器によって、第1のユーザインターフェースを表示するステップと、
    前記電子機器が折り畳み状態にある場合に、前記電子機器によって、前記第1の本体の前記状態及び前記第2の本体の前記状態を検出するステップと、
    を含む、請求項1から3のいずれか一項に記載の方法。
  6. 前記1つ又は複数の表示要素が前記第1のユーザインターフェース上の表示要素を含む、請求項4又は5に記載の方法。
  7. 前記電子機器が折り畳み状態にある場合に、前記表示すべきユーザインターフェースが前記第1のユーザインターフェース及び第2のユーザインターフェースであり、前記1つ又は複数の表示要素が前記第1のユーザインターフェース上の表示要素及び前記第2のユーザインターフェース上の表示要素を含む、請求項5に記載の方法。
  8. 前記第2のユーザインターフェースが前記第1のユーザインターフェースと同じ層にあるユーザインターフェースであるか、又は
    前記第2のユーザインターフェースが前記第1のユーザインターフェースよりも上位層のユーザインターフェースであるか、又は
    前記第2のユーザインターフェースが前記電子機器によって最近表示されたユーザインターフェースである、
    請求項7に記載の方法。
  9. 前記電子機器によって、前記主対話要素を前記主対話領域に表示し、前記主表示要素を前記主表示領域に表示する前記ステップの前に、前記方法は、
    前記電子機器によって、表示要素レベルを決定するステップ、をさらに含み、
    前記電子機器によって、前記主対話要素を前記主対話領域に表示し、前記主表示要素を前記主表示領域に表示する前記ステップが、
    前記電子機器によって、前記表示要素レベルに基づいて、前記主対話領域に前記主対話要素を表示し、前記主表示領域に前記主表示要素を表示するステップ、
    を含む、
    請求項1から8のいずれか一項に記載の方法。
  10. 前記電子機器によって、表示要素レベルを決定する前記ステップが、前記電子機器によって、表示要素使用頻度に基づいて、前記主対話要素のレベルを決定するステップを含む、請求項9に記載の方法。
  11. 前記電子機器によって、表示要素レベルを決定する前記ステップが、前記電子機器によって、前記ユーザインターフェースのレベルに基づいて、ユーザインターフェース上の表示要素のレベルを決定するステップを含む、請求項9に記載の方法。
  12. 電子機器であって、
    1つ又は複数のプロセッサと、
    コンピュータ命令を記憶するように構成されたメモリと、
    タッチ画面と、
    第1の本体と、
    第2の本体と、
    を備え、
    前記第1の本体が前記第2の本体に対して折り曲げ可能であり、前記第1の本体及び前記第2の本体が前記電子機器の異なる表示領域にそれぞれ対応し、前記異なる表示領域が主対話領域及び主表示領域を含み、
    前記1つ又は複数のプロセッサが前記コンピュータ命令を実行すると、前記電子機器に、以下の操作、すなわち、
    前記第1の本体の状態及び前記第2の本体の状態を検出するステップと、
    前記第1の本体の前記状態及び前記第2の本体の前記状態に基づいて、前記主対話領域及び前記主表示領域を決定するステップと、
    表示すべきユーザインターフェース上の1つ又は複数の表示要素を取得するステップと、
    表示要素タイプを決定するステップであって、前記表示要素タイプが主対話要素及び主表示要素を含む、ステップと、
    前記主対話領域に前記主対話要素を表示し、前記主表示領域に前記主表示要素を表示するステップと、
    を実行させることができる、
    電子機器。
  13. 前記状態が支持状態及び非支持状態を含み、前記第1の本体の前記状態及び前記第2の本体の前記状態に基づいて、前記主対話領域及び前記主表示領域を決定する前記ステップが、
    前記第1の本体の前記状態及び前記第2の本体の前記状態が、一方の本体が支持され、他方の本体が支持されていないという条件を満たす場合、前記支持されている本体に対応する表示領域が前記主対話領域であると決定し、前記支持されていない本体に対応する表示領域が前記主表示領域であると決定するステップ、
    を含む、請求項12に記載の電子機器。
  14. 前記状態が支持状態及び非支持状態を含み、前記第1の本体の前記状態及び前記第2の本体の前記状態に基づいて、前記主対話領域及び前記主表示領域を決定する前記ステップが、
    前記第1の本体の前記状態及び前記第2の本体の前記状態が、両方の前記本体が支持されているという条件を満たす場合、前記第1の本体及び前記第2の本体が異なる高さにあるかどうかを検出するステップと、
    前記第1の本体及び前記第2の本体が異なる高さにある場合、より低い高さにある本体に対応する表示領域が前記主対話領域であると決定し、より高い高さにある本体に対応する表示領域が前記主表示領域であると決定するステップと、
    を含む、請求項12に記載の電子機器。
  15. 前記第1の本体の状態及び前記第2の本体の状態を検出する前記ステップが、
    前記電子機器が第1のユーザインターフェースを表示するときに、ユーザの第1の操作を受け取るステップと、
    前記第1の操作に応答して、前記第1の本体の前記状態及び前記第2の本体の前記状態を検出するステップと、
    を含む、請求項12から14のいずれか一項に記載の電子機器。
  16. 前記第1の本体の状態及び前記第2の本体の状態を検出する前記ステップが、
    第1のユーザインターフェースを表示するステップと、
    前記電子機器が折り畳み状態にある場合に、前記第1の本体の前記状態及び前記第2の本体の前記状態を検出するステップと、
    を含む、請求項12から14のいずれか一項に記載の電子機器。
  17. 前記1つ又は複数の表示要素が前記第1のユーザインターフェース上の表示要素を含む、請求項15又は16に記載の電子機器。
  18. 前記電子機器が折り畳み状態にある場合に、前記表示すべきユーザインターフェースが前記第1のユーザインターフェース及び第2のユーザインターフェースであり、前記1つ又は複数の表示要素が、前記第1のユーザインターフェース上の表示要素及び前記第2のユーザインターフェース上の表示要素を含む、請求項16に記載の電子機器。
  19. 前記第2のユーザインターフェースが前記第1のユーザインターフェースと同じ層にあるユーザインターフェースであるか、又は
    前記第2のユーザインターフェースが前記第1のユーザインターフェースよりも上位層のユーザインターフェースであるか、又は
    前記第2のユーザインターフェースが前記電子機器によって最近表示されたユーザインターフェースである、
    請求項18に記載の電子機器。
  20. 前記主対話要素を前記主対話領域に表示し、前記主表示要素を前記主表示領域に表示する前記ステップの前に、前記電子機器が、以下の操作、すなわち、
    表示要素レベルを決定するステップ、をさらに実行し、
    前記主対話領域に前記主対話要素を表示し、前記主表示領域に前記主表示要素を表示する前記ステップが、
    前記表示要素レベルに基づいて、前記主対話領域に前記主対話要素を表示し、前記主表示領域に前記主表示要素を表示するステップ、を含む、
    請求項12から19のいずれか一項に記載の電子機器。
  21. 表示要素レベルを決定する前記ステップが表示要素の使用頻度に基づいて前記主対話要素のレベルを決定するステップを含む、請求項20に記載の電子機器。
  22. 表示要素レベルを決定する前記ステップが、ユーザインターフェース上の表示要素のレベルを前記ユーザインターフェースのレベルに基づいて決定するステップを含む、請求項20に記載の電子機器。
  23. コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されると、請求項1から11のいずれか一項に記載の表示方法が実施される、コンピュータ可読記憶媒体。
JP2022525433A 2019-10-30 2020-09-23 表示要素の表示方法及び電子機器 Active JP7400095B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911047159.8A CN110955373A (zh) 2019-10-30 2019-10-30 一种显示要素的显示方法和电子设备
CN201911047159.8 2019-10-30
PCT/CN2020/117078 WO2021082815A1 (zh) 2019-10-30 2020-09-23 一种显示要素的显示方法和电子设备

Publications (2)

Publication Number Publication Date
JP2023500656A true JP2023500656A (ja) 2023-01-10
JP7400095B2 JP7400095B2 (ja) 2023-12-18

Family

ID=69975928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022525433A Active JP7400095B2 (ja) 2019-10-30 2020-09-23 表示要素の表示方法及び電子機器

Country Status (5)

Country Link
US (1) US20220374123A1 (ja)
EP (1) EP4036700A4 (ja)
JP (1) JP7400095B2 (ja)
CN (2) CN110955373A (ja)
WO (1) WO2021082815A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110955373A (zh) * 2019-10-30 2020-04-03 华为技术有限公司 一种显示要素的显示方法和电子设备
CN114095542B (zh) * 2020-08-05 2023-11-28 华为技术有限公司 显示控制方法及电子设备
CN117716333A (zh) 2021-07-30 2024-03-15 三星电子株式会社 电子装置以及用于在电子装置中提供控制应用的面板的方法
CN117806516A (zh) * 2021-09-22 2024-04-02 荣耀终端有限公司 一种悬浮窗显示方法及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227397A (ja) * 2010-04-22 2011-11-10 Canon Inc 表示制御装置及び表示制御方法
JP2014511524A (ja) * 2011-02-10 2014-05-15 サムスン エレクトロニクス カンパニー リミテッド タッチスクリーンディスプレイを設ける携帯機器及びその制御方法
US20180039387A1 (en) * 2016-08-03 2018-02-08 Samsung Electronics Co., Ltd. Method for controlling display, storage medium, and electronic device
CN107770440A (zh) * 2017-10-19 2018-03-06 广东欧珀移动通信有限公司 拍摄界面显示方法、装置及终端
JP2019505858A (ja) * 2017-01-03 2019-02-28 ゼットティーイー コーポレーションZte Corporation スクリーン内容の切り替え方法及びダブルスクリーン移動端末
CN110381282A (zh) * 2019-07-30 2019-10-25 华为技术有限公司 一种应用于电子设备的视频通话的显示方法及相关装置
CN110389802A (zh) * 2019-06-05 2019-10-29 华为技术有限公司 一种柔性屏幕的显示方法及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102981715B (zh) * 2012-12-11 2016-12-21 广州华多网络科技有限公司 一种图标显示方法、微处理器及移动终端
US10712918B2 (en) * 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
CN104348978A (zh) * 2014-11-12 2015-02-11 天津三星通信技术研究有限公司 移动终端的通话处理方法和装置
EP3521990A1 (en) * 2018-02-05 2019-08-07 Alkymia Method for interacting with one or more of software applications using a touch sensitive display
CN110134304A (zh) * 2019-03-29 2019-08-16 努比亚技术有限公司 一种折叠显示方法、设备及计算机可读存储介质
CN110286972A (zh) * 2019-05-14 2019-09-27 华为技术有限公司 一种折叠屏显示应用的方法及电子设备
CN110955373A (zh) * 2019-10-30 2020-04-03 华为技术有限公司 一种显示要素的显示方法和电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227397A (ja) * 2010-04-22 2011-11-10 Canon Inc 表示制御装置及び表示制御方法
JP2014511524A (ja) * 2011-02-10 2014-05-15 サムスン エレクトロニクス カンパニー リミテッド タッチスクリーンディスプレイを設ける携帯機器及びその制御方法
US20180039387A1 (en) * 2016-08-03 2018-02-08 Samsung Electronics Co., Ltd. Method for controlling display, storage medium, and electronic device
CN107688370A (zh) * 2016-08-03 2018-02-13 三星电子株式会社 用于控制显示器、存储介质、和电子设备的方法
JP2019505858A (ja) * 2017-01-03 2019-02-28 ゼットティーイー コーポレーションZte Corporation スクリーン内容の切り替え方法及びダブルスクリーン移動端末
CN107770440A (zh) * 2017-10-19 2018-03-06 广东欧珀移动通信有限公司 拍摄界面显示方法、装置及终端
CN110389802A (zh) * 2019-06-05 2019-10-29 华为技术有限公司 一种柔性屏幕的显示方法及电子设备
CN110381282A (zh) * 2019-07-30 2019-10-25 华为技术有限公司 一种应用于电子设备的视频通话的显示方法及相关装置

Also Published As

Publication number Publication date
US20220374123A1 (en) 2022-11-24
JP7400095B2 (ja) 2023-12-18
CN113010076A (zh) 2021-06-22
WO2021082815A1 (zh) 2021-05-06
EP4036700A4 (en) 2022-12-14
EP4036700A1 (en) 2022-08-03
CN110955373A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
EP3985492A1 (en) Floating window management method and related device
EP3979628B1 (en) Display method of video call applied to electronic device and related apparatus
JP7391102B2 (ja) ジェスチャ処理方法およびデバイス
JP7081048B2 (ja) システムナビゲーションバー表示方法、システムナビゲーションバー制御方法、グラフィカルユーザインターフェース、および電子機器
WO2020052529A1 (zh) 全屏显示视频中快速调出小窗口的方法、图形用户接口及终端
EP4131911A1 (en) Application interface interaction method, electronic device, and computer readable storage medium
WO2019072178A1 (zh) 一种通知处理方法及电子设备
JP7400095B2 (ja) 表示要素の表示方法及び電子機器
WO2022068819A1 (zh) 一种界面显示方法及相关装置
EP3958106A1 (en) Interface display method and electronic device
WO2022017393A1 (zh) 显示交互系统、显示方法及设备
EP4033339A1 (en) User interface display method and electronic device
EP4199499A1 (en) Image capture method, graphical user interface, and electronic device
EP4145809A1 (en) Display control method, electronic device, and computer-readable storage medium
WO2022143180A1 (zh) 协同显示方法、终端设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231206

R150 Certificate of patent or registration of utility model

Ref document number: 7400095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150