JP2023514631A - インタフェースレイアウト方法、装置、及び、システム - Google Patents
インタフェースレイアウト方法、装置、及び、システム Download PDFInfo
- Publication number
- JP2023514631A JP2023514631A JP2022550007A JP2022550007A JP2023514631A JP 2023514631 A JP2023514631 A JP 2023514631A JP 2022550007 A JP2022550007 A JP 2022550007A JP 2022550007 A JP2022550007 A JP 2022550007A JP 2023514631 A JP2023514631 A JP 2023514631A
- Authority
- JP
- Japan
- Prior art keywords
- interface
- terminal device
- information
- area
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 230000009471 action Effects 0.000 claims abstract description 24
- 230000001960 triggered effect Effects 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 23
- 230000000153 supplemental effect Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 39
- 238000004891 communication Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000010295 mobile communication Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000000576 supplementary effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036449 good health Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/452—Remote windowing, e.g. X-Window System, desktop virtualisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0442—Handling or displaying different aspect ratios, or changing the aspect ratio
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Digital Computer Display Output (AREA)
- Telephone Function (AREA)
Abstract
Description
画面投影命令を受信するステップであって、画面投影命令が、第2の端末デバイスへの画面投影を実行するように第1の端末デバイスに指示するために使用される、ステップと、
第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、第2の端末デバイスに表示されるべき第2のインタフェースを生成するステップであって、第1のインタフェースが第1の端末デバイスに表示されるインタフェースであり、第2のデバイス情報が第2の端末デバイスの画面サイズ及び画面状態を示すために用いられる、ステップと、
を含む。
第1のインタフェースのインタフェース情報及び第2のデバイス情報を取得するステップであって、第1のインタフェースのインタフェース情報が第1のインタフェースにおける少なくとも1つのインタフェース要素の要素情報を含み、要素情報がインタフェース要素の名前及びタイプ並びに第1のインタフェースにおけるインタフェース要素の位置を示すために用いられる、ステップと、
インタフェースカテゴリを決定するために、事前トレーニングされたインタフェース認識モデルを使用することによって少なくとも1つのインタフェース要素の要素情報に基づいて認識を行なうステップと、
第2のインタフェースを取得するために、インタフェースカテゴリ及び第2のデバイス情報に基づいて少なくとも1つのインタフェース要素を配置するステップと、
を含む。
インタフェースカテゴリを決定するために、事前トレーニングされたインタフェース認識モデルを使用することによって少なくとも1つのインタフェース要素の要素情報に基づいて認識を行なうステップは、
インタフェース特徴データを取得するために、インタフェース属性に基づいて少なくとも1つの要素情報に関して特徴抽出を実行するステップと、
インタフェース認識モデルにインタフェース特徴データを入力するとともに、インタフェース認識モデルから出力されるインタフェースカテゴリを取得するために、インタフェース認識モデルを使用することによってインタフェース特徴データを認識するステップと、
を含む。
複数のサブエリアを取得するために、インタフェースカテゴリに基づいて、第2の端末デバイスの表示エリアを分割するステップであって、表示エリアが第2のデバイス情報によって示される、ステップと、
各サブエリアに配置されるインタフェース要素を決定するステップと、
第2のインタフェースを取得するために、第2のデバイス情報によって示される表示エリアのサイズと各サブエリア内に配置されるインタフェース要素の数量とに基づいて各サブエリア内の各インタフェース要素を調整するステップと、
を含む。
各サブエリア内のインタフェース要素の数量を決定するステップと、
調整されたインタフェース要素を取得するために、表示エリアのサイズ、事前設定された配置規則、及び、サブエリアに対応する要素の数量に基づいて、各サブエリア内の各インタフェース要素のサイズ及び方向を調整するステップと、
第2のインタフェースを取得するために、各サブエリアにおいて、サブエリアに対応する要素の数量に基づいてサブエリア内の調整されたインタフェース要素の位置を調整するステップと、
を含む。
第2の端末デバイスが第2のインタフェースを表示するように、第2のインタフェースを第2の端末デバイスに送信するステップ、
を更に含む。
フィードバック情報を取得するステップであって、フィードバック情報が、第2の端末デバイスに表示される第2のインタフェースに関してユーザによりフィードバックされる情報である、ステップと、
フィードバック情報が事前設定された更新条件を満たす場合に、フィードバック情報に基づいてインタフェース認識モデルを更新するステップと、
を更に含む。
複数のインタフェース要素を取得するために、ユーザによってトリガされる抽出動作に基づいて第1のインタフェースにおいてインタフェース要素抽出を行なうステップと、
ユーザによってトリガされる補足動作に基づいて複数のインタフェース要素の要素情報を生成するステップと、
を更に含む。
第2のインタフェースにおける少なくとも1つのインタフェース要素にユーザによりトリガされる調整動作を記録するステップと、
調整動作に基づいて配置規則を調整するステップと、
を更に含む。
画面投影命令を受信するように構成される受信モジュールであって、画面投影命令が、第2の端末デバイスへの画面投影を実行するように第1の端末デバイスに指示するために使用される、受信モジュールと、
第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、第2の端末デバイスに表示されるべき第2のインタフェースを生成するように構成される生成モジュールであって、第1のインタフェースが第1の端末デバイスに表示されるインタフェースであり、第2のデバイス情報が第2の端末デバイスの画面サイズ及び画面状態を示すために用いられる、生成モジュールと、
を含む。
生成モジュールは、更に、インタフェース特徴データを取得するために、インタフェース属性に基づいて少なくとも1つの要素情報に関して特徴抽出を実行し、インタフェース認識モデルにインタフェース特徴データを入力するとともに、インタフェース認識モデルから出力されるインタフェースカテゴリを取得するために、インタフェース認識モデルを使用することによってインタフェース特徴データを認識するように特に構成される。
第2の端末デバイスが第2のインタフェースを表示するように、第2の端末デバイスに第2のインタフェースを送信するように構成される送信モジュール、
を更に含む。
フィードバック情報を取得するように構成される取得モジュールであって、フィードバック情報が、第2の端末デバイスに表示される第2のインタフェースに関してユーザによりフィードバックされる情報である、取得モジュールと、
フィードバック情報が事前設定された更新条件を満たす場合に、フィードバック情報に基づいてインタフェース認識モデルを更新するように構成される更新モジュールと、
を更に含む。
複数のインタフェース要素を取得するために、ユーザによってトリガされる抽出動作に基づいて第1のインタフェースにおけるインタフェース要素抽出を実行するように構成される抽出モジュールと、
ユーザによってトリガされる補足動作に基づいて複数のインタフェース要素の要素情報を生成するように構成される補足モジュールと、
を更に含む。
ユーザによってトリガされる調整動作を第2のインタフェース内の少なくとも1つのインタフェース要素に記録するように構成される記録モジュールと、
前記調整動作に基づいて配置規則を調整するように構成される調整モジュールと、
を更に含む。
第1の端末デバイスが画面投影命令を受信し、画面投影命令は、第2の端末デバイスへの画面投影を実行するように第1の端末デバイスに指示するために使用され、
第1の端末デバイスは、第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、第2の端末デバイスに表示されるべき第2のインタフェースを生成し、第1のインタフェースが第1の端末デバイスに表示されるインタフェースであり、第2のデバイス情報は、第2の端末デバイスの画面サイズ及び画面状態を示すために用いられ、
第1の端末デバイスが第2のインタフェースを第2の端末デバイスに送信し、
第2の端末デバイスが第2のインタフェースを受信して表示する。
[{’’label’’:0,’’labelName’’:’’title’’,’’uiRect’’:{’’bottom’’:170,’’left’’:168,’’right’’:571,’’top’’:102},’’viewId’’:684},{’’label’’:1,’’labelName’’:’’seek’’,’’uiRect’’:{’’bottom’’:1992,’’left’’:0,’’right’’:1080,’’top’’:1924},’’viewId’’:670},{’’label’’:2,’’labelName’’:’’repeat’’,’’uiRect’’:{’’bottom’’:2167,’’left’’:84,’’right’’:204,’’top’’:2047},’’viewId’’:675},{’’label’’:3,’’labelName’’:’’pre’’,’’uiRect’’:{’’bottom’’:2167,’’left’’:279,’’right’’:399,’’top’’:2047},’’viewId’’:676},{’’label’’:4,’’labelName’’:’’play’’,’’uiRect’’:{’’bottom’’:2212,’’left’’:435,’’right’’:645,’’top’’:2002},’’viewId’’:677},{’’label’’:5,’’labelName’’:’’next’’,’’uiRect’’:{’’bottom’’:2167,’’left’’:681,’’right’’:801,’’top’’:2047},’’viewId’’:678},{’’label’’:6,’’labelName’’:’’menu’’,’’uiRect’’:{’’bottom’’:2167,’’left’’:876,’’right’’:996,’’top’’:2047},’’viewId’’:679},{’’label’’:7’’labelName’’:’’cover’’,’’uiRect’’:{’’bottom’’:1255,’’left’’:0,’’right’’:1080,’’top’’:451},’’viewId’’:618}].
を挙げることができる。
画面投影命令を受信するように構成される受信モジュール1901であって、画面投影命令が、第2の端末デバイスへの画面投影を実行するように前記第1の端末デバイスに指示するために使用される、受信モジュール1901と、
第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、第2の端末デバイスに表示されるべき第2のインタフェースを生成するように構成される生成モジュール1902であって、第1のインタフェースが第1の端末デバイスに表示されるインタフェースであり、第2のデバイス情報が第2の端末デバイスの画面サイズ及び画面状態を示すために用いられる、生成モジュール1902と、
を含む。
第2の端末デバイスが第2のインタフェースを表示するように、第2のインタフェースを第2の端末デバイスに送信するように構成される送信モジュール1903、
を更に含む。
フィードバック情報を取得するように構成される取得モジュール1904であって、フィードバック情報が、第2の端末デバイスに表示される第2のインタフェースに関してユーザによりフィードバックされる情報である、取得モジュール1904と、
フィードバック情報が事前設定された更新条件を満たす場合に、フィードバック情報に基づいてインタフェース認識モデルを更新するように構成される更新モジュール1905と、
を更に含む。
複数のインタフェース要素を取得するために、ユーザによってトリガされる抽出動作に基づいて第1のインタフェースにおけるインタフェース要素抽出を実行するように構成される抽出モジュール1906と、
ユーザによってトリガされる補足動作に基づいて複数のインタフェース要素の要素情報を生成するように構成される補足モジュール1907と、
を更に含む。
ユーザによってトリガされた調整動作を第2のインタフェースにおける少なくとも1つのインタフェース要素に記録するように構成される記録モジュール1908と、
調整動作に基づいて配置規則を調整するように構成される調整モジュール1909と、
を更に含む。
101 端末デバイス
102 端末デバイス
200 携帯電話
210 プロセッサ
211 プロセッサ
212 メモリ
220 外部メモリインタフェース
221 内部メモリ
230 USBポート
240 充電管理モジュール
241 電力管理モジュール
242 バッテリ
251 モバイル通信モジュール
252 無線通信モジュール
270 オーディオモジュール
270A スピーカ
270B 受信機
270C マイクロフォン
270D ヘッドセットジャック
280 センサモジュール
280A ジャイロスコープセンサ
280B 加速度センサ
280G 光近接センサ
280H 指紋センサ
280K タッチセンサ
290 ボタン
291 モータ
292 インジケータ
293 カメラ
294 折り畳み式ディスプレイ
295 SIMカードインタフェース
503 バー
504 再生制御
505 制御
507 制御
508 制御
1901 受信モジュール
1902 生成モジュール
1903 送信モジュール
1904 取得モジュール
1905 更新モジュール
1906 抽出モジュール
1907 補足モジュール
1908 記録モジュール
1909 調整モジュール
Claims (13)
- 第1の端末デバイスに適用されるインタフェースレイアウト方法であって、前記第1の端末デバイスが第2の端末デバイスに接続され、前記方法は、
画面投影命令を受信するステップであって、前記画面投影命令が、前記第2の端末デバイスへの画面投影を実行するように前記第1の端末デバイスに指示するために使用される、ステップと、
第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成するステップであって、前記第1のインタフェースが前記第1の端末デバイスに表示されるインタフェースであり、前記第2のデバイス情報が前記第2の端末デバイスの画面サイズ及び画面状態を示すために用いられる、ステップと、
を含む、インタフェースレイアウト方法。 - 第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成する前記ステップは、
前記第1のインタフェースの前記インタフェース情報及び前記第2のデバイス情報を取得するステップであって、前記第1のインタフェースの前記インタフェース情報が前記第1のインタフェースにおける少なくとも1つのインタフェース要素の要素情報を含み、前記要素情報が前記インタフェース要素の名前及びタイプ並びに前記第1のインタフェースにおける前記インタフェース要素の位置を示すために用いられる、ステップと、
インタフェースカテゴリを決定するために、事前トレーニングされたインタフェース認識モデルを使用することによって前記少なくとも1つのインタフェース要素の前記要素情報に基づいて認識を行なうステップと、
前記第2のインタフェースを取得するために、前記インタフェースカテゴリ及び前記第2のデバイス情報に基づいて前記少なくとも1つのインタフェース要素を配置するステップと、
を含む、請求項1に記載のインタフェースレイアウト方法。 - 前記第1のインタフェースの前記インタフェース情報がインタフェース属性を更に含み、前記インタフェース属性は、前記第1のインタフェースのインタフェースサイズ及びインタフェース方向を示すために用いられ、
インタフェースカテゴリを決定するために、事前トレーニングされたインタフェース認識モデルを使用することによって前記少なくとも1つのインタフェース要素の前記要素情報に基づいて認識を行なう前記ステップは、
インタフェース特徴データを取得するために、前記インタフェース属性に基づいて少なくとも1つの要素情報に関して特徴抽出を実行するステップと、
前記インタフェース認識モデルに前記インタフェース特徴データを入力するとともに、前記インタフェース認識モデルから出力される前記インタフェースカテゴリを取得するために、前記インタフェース認識モデルを使用することによって前記インタフェース特徴データを認識するステップと、
を含む、請求項2に記載のインタフェースレイアウト方法。 - 前記第2のインタフェースを取得するために、前記インタフェースカテゴリ及び前記第2のデバイス情報に基づいて前記少なくとも1つのインタフェース要素を配置する前記ステップは、
複数のサブエリアを取得するために、前記インタフェースカテゴリに基づいて、前記第2の端末デバイスの表示エリアを分割するステップであって、前記表示エリアが前記第2のデバイス情報によって示される、ステップと、
各サブエリアに配置されるインタフェース要素を決定するステップと、
前記第2のインタフェースを取得するために、前記第2のデバイス情報によって示される前記表示エリアのサイズと各サブエリア内に配置されるインタフェース要素の数量とに基づいて各サブエリア内の各インタフェース要素を調整するステップと、
を含む、請求項2に記載のインタフェースレイアウト方法。 - 前記第2のインタフェースを取得するために、前記第2のデバイス情報によって示される前記表示エリアのサイズと各サブエリア内に配置されるインタフェース要素の数量とに基づいて各サブエリア内の各インタフェース要素を調整する前記ステップは、
各サブエリア内のインタフェース要素の数量を決定するステップと、
調整されたインタフェース要素を取得するために、表示エリアのサイズ、事前設定された配置規則、及び、前記サブエリア内のインタフェース要素の数量に基づいて、各サブエリア内の各インタフェース要素のサイズ及び方向を調整するステップと、
前記第2のインタフェースを取得するために、各サブエリアにおいて、前記サブエリア内のインタフェース要素の数量に基づいて前記サブエリア内の調整されたインタフェース要素の位置を調整するステップと、
を含む、請求項4に記載のインタフェースレイアウト方法。 - 第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成する前記ステップの後に、前記方法は、
前記第2の端末デバイスが前記第2のインタフェースを表示するように、前記第2のインタフェースを前記第2の端末デバイスに送信するステップ、
を更に含む、請求項1から5のいずれか一項に記載のインタフェースレイアウト方法。 - 前記第2のインタフェースを前記第2の端末デバイスに送信する前記ステップの後に、前記方法は、
フィードバック情報を取得するステップであって、前記フィードバック情報が、前記第2の端末デバイスに表示される前記第2のインタフェースに関してユーザによりフィードバックされる情報である、ステップと、
前記フィードバック情報が事前設定された更新条件を満たす場合に、前記フィードバック情報に基づいて前記インタフェース認識モデルを更新するステップと、
を更に含む、請求項6に記載のインタフェースレイアウト方法。 - 第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成する前記ステップの前に、前記方法は、
複数のインタフェース要素を取得するために、ユーザによってトリガされる抽出動作に基づいて前記第1のインタフェースにおいてインタフェース要素抽出を行なうステップと、
前記ユーザによってトリガされる補足動作に基づいて前記複数のインタフェース要素の要素情報を生成するステップと、
を更に含む、請求項1から5のいずれか一項に記載のインタフェースレイアウト方法。 - 第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成する前記ステップの後に、前記方法は、
前記第2のインタフェースにおける少なくとも1つのインタフェース要素にユーザによりトリガされる調整動作を記録するステップと、
前記調整動作に基づいて前記配置規則を調整するステップと、
を更に含む、請求項1から5のいずれか一項に記載のインタフェースレイアウト方法。 - 第1の端末デバイスに適用されるインタフェースレイアウト装置であって、前記第1の端末デバイスが第2の端末デバイスに接続され、前記インタフェースレイアウト装置は、
画面投影命令を受信するように構成される受信モジュールであって、前記画面投影命令が、前記第2の端末デバイスへの画面投影を実行するように前記第1の端末デバイスに指示するために使用される、受信モジュールと、
第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成するように構成される生成モジュールであって、前記第1のインタフェースが前記第1の端末デバイスに表示されるインタフェースであり、前記第2のデバイス情報が前記第2の端末デバイスの画面サイズ及び画面状態を示すために用いられる、生成モジュールと、
を備える、インタフェースレイアウト装置。 - 第1の端末デバイスと第2の端末デバイスとを備えるインタフェースレイアウトシステムであって、前記第1の端末デバイスが前記第2の端末デバイスに接続され、前記第1の端末デバイスが画面投影命令を受信し、前記画面投影命令は、前記第2の端末デバイスへの画面投影を実行するように前記第1の端末デバイスに指示するために使用され、
前記第1の端末デバイスは、第1のインタフェースのインタフェース情報及び第2のデバイス情報に基づいて、前記第2の端末デバイスに表示されるべき第2のインタフェースを生成し、前記第1のインタフェースが前記第1の端末デバイスに表示されるインタフェースであり、前記第2のデバイス情報は、前記第2の端末デバイスの画面サイズ及び画面状態を示すために用いられ、
前記第1の端末デバイスが前記第2のインタフェースを前記第2の端末デバイスに送信し、
前記第2の端末デバイスが前記第2のインタフェースを受信して表示する、
インタフェースレイアウトシステム。 - メモリと、プロセッサと、前記メモリに記憶されて前記プロセッサで実行されるコンピュータプログラムとを備える端末デバイスであって、前記プログラムを実行するときに、前記プロセッサが請求項1から9のいずれか一項に記載の方法を実施する、端末デバイス。
- コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体がコンピュータプログラムを記憶し、前記コンピュータプログラムがプロセッサによって実行されるときに、請求項1から9のいずれか一項に記載の方法が実施される、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010106801.1A CN111399789B (zh) | 2020-02-20 | 2020-02-20 | 界面布局方法、装置及系统 |
CN202010106801.1 | 2020-02-20 | ||
PCT/CN2020/125607 WO2021164313A1 (zh) | 2020-02-20 | 2020-10-30 | 界面布局方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023514631A true JP2023514631A (ja) | 2023-04-06 |
Family
ID=71436045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022550007A Pending JP2023514631A (ja) | 2020-02-20 | 2020-10-30 | インタフェースレイアウト方法、装置、及び、システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230099824A1 (ja) |
EP (1) | EP4080345A4 (ja) |
JP (1) | JP2023514631A (ja) |
CN (1) | CN111399789B (ja) |
WO (1) | WO2021164313A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111324327B (zh) * | 2020-02-20 | 2022-03-25 | 华为技术有限公司 | 投屏方法及终端设备 |
CN111399789B (zh) * | 2020-02-20 | 2021-11-19 | 华为技术有限公司 | 界面布局方法、装置及系统 |
CN114363678A (zh) * | 2020-09-29 | 2022-04-15 | 华为技术有限公司 | 一种投屏方法及设备 |
CN114115629A (zh) * | 2020-08-26 | 2022-03-01 | 华为技术有限公司 | 一种界面显示方法及设备 |
CN112083867A (zh) | 2020-07-29 | 2020-12-15 | 华为技术有限公司 | 一种跨设备的对象拖拽方法及设备 |
CN114201128A (zh) | 2020-09-02 | 2022-03-18 | 华为技术有限公司 | 一种显示方法及设备 |
EP4191400A4 (en) * | 2020-08-25 | 2024-01-10 | Huawei Technologies Co., Ltd. | METHOD AND DEVICE FOR IMPLEMENTING A USER INTERFACE |
CN112153459A (zh) * | 2020-09-01 | 2020-12-29 | 三星电子(中国)研发中心 | 用于投屏显示的方法和装置 |
CN113741840A (zh) * | 2020-09-10 | 2021-12-03 | 华为技术有限公司 | 多窗口投屏场景下的应用界面显示方法及电子设备 |
CN114168236A (zh) * | 2020-09-10 | 2022-03-11 | 华为技术有限公司 | 一种应用接入方法及相关装置 |
CN112887954B (zh) * | 2020-11-04 | 2022-08-30 | 博泰车联网(南京)有限公司 | 用于车辆交互的方法、计算设备和计算机存储介质 |
CN112423084B (zh) * | 2020-11-11 | 2022-11-01 | 北京字跳网络技术有限公司 | 热点榜单的显示方法、装置、电子设备和存储介质 |
CN112269527B (zh) * | 2020-11-16 | 2022-07-08 | Oppo广东移动通信有限公司 | 应用界面的生成方法及相关装置 |
CN112492358B (zh) * | 2020-11-18 | 2023-05-30 | 深圳万兴软件有限公司 | 一种投屏方法、装置、计算机设备及存储介质 |
CN114579223A (zh) * | 2020-12-02 | 2022-06-03 | 华为技术有限公司 | 一种界面布局方法、电子设备和计算机可读存储介质 |
CN112616078A (zh) * | 2020-12-10 | 2021-04-06 | 维沃移动通信有限公司 | 投屏处理方法、装置、电子设备和存储介质 |
CN114756184B (zh) * | 2020-12-28 | 2024-10-18 | 华为技术有限公司 | 协同显示方法、终端设备及计算机可读存储介质 |
CN112711389A (zh) * | 2020-12-31 | 2021-04-27 | 安徽听见科技有限公司 | 应用于电子白板的多终端上屏方法、装置以及设备 |
CN112965773B (zh) * | 2021-03-03 | 2024-05-28 | 闪耀现实(无锡)科技有限公司 | 用于信息显示的方法、装置、设备和存储介质 |
CN114286152A (zh) * | 2021-08-02 | 2022-04-05 | 海信视像科技股份有限公司 | 显示设备、通信终端及投屏画面动态显示方法 |
CN113835802A (zh) * | 2021-08-30 | 2021-12-24 | 荣耀终端有限公司 | 设备交互方法、系统、设备及计算机可读存储介质 |
CN113794917A (zh) * | 2021-09-15 | 2021-12-14 | 海信视像科技股份有限公司 | 一种显示设备和显示控制方法 |
CN113934390A (zh) * | 2021-09-22 | 2022-01-14 | 青岛海尔科技有限公司 | 一种投屏的反向控制方法和装置 |
CN115914700A (zh) * | 2021-09-30 | 2023-04-04 | 上海擎感智能科技有限公司 | 投屏处理方法、系统、电子设备和存储介质 |
CN113992958B (zh) * | 2021-10-18 | 2023-07-18 | 深圳康佳电子科技有限公司 | 一种多窗口同屏互动方法、终端及存储介质 |
CN116243759B (zh) * | 2021-12-08 | 2024-04-02 | 荣耀终端有限公司 | 一种nfc通信方法、电子设备、存储介质及程序产品 |
CN113997786B (zh) * | 2021-12-30 | 2022-03-25 | 江苏赫奕科技有限公司 | 一种适用于车辆的仪表界面显示方法和装置 |
CN117850715A (zh) * | 2022-09-30 | 2024-04-09 | 华为技术有限公司 | 投屏显示方法、电子设备及系统 |
CN116820229B (zh) * | 2023-05-17 | 2024-06-07 | 荣耀终端有限公司 | Xr空间的显示方法、xr设备、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063108A (ja) * | 2000-08-16 | 2002-02-28 | Matsushita Electric Ind Co Ltd | 情報処理システムおよびゲートウエイサーバおよび情報端末 |
JP2003281030A (ja) * | 2002-03-19 | 2003-10-03 | Canon Inc | 情報提供サーバ、情報提供方法 |
WO2012157014A1 (ja) * | 2011-05-13 | 2012-11-22 | 三菱電機株式会社 | 遠隔操作通信装置およびナビゲーション装置 |
US20150128065A1 (en) * | 2013-11-06 | 2015-05-07 | Sony Corporation | Information processing apparatus and control method |
CN109508189A (zh) * | 2018-10-18 | 2019-03-22 | 北京奇艺世纪科技有限公司 | 一种布局模板处理方法、装置及计算机可读存储介质 |
US20190296930A1 (en) * | 2018-03-20 | 2019-09-26 | Essential Products, Inc. | Remote control of an assistant device using an adaptable user interface |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102375733A (zh) * | 2010-08-24 | 2012-03-14 | 北大方正集团有限公司 | 一种便捷的界面布局方法 |
US9124657B2 (en) * | 2011-12-14 | 2015-09-01 | International Business Machines Corporation | Dynamic screen sharing for optimal performance |
CN103462695B (zh) * | 2013-09-11 | 2015-11-18 | 深圳市科曼医疗设备有限公司 | 监护仪及其屏幕的布局方法与系统 |
CN103823620B (zh) * | 2014-03-04 | 2017-01-25 | 飞天诚信科技股份有限公司 | 一种屏幕适配的方法和装置 |
CN104731589A (zh) * | 2015-03-12 | 2015-06-24 | 用友网络科技股份有限公司 | 用户界面的自动生成方法及自动生成装置 |
CN106055327B (zh) * | 2016-05-27 | 2020-02-21 | 联想(北京)有限公司 | 一种显示方法及电子设备 |
CN108268225A (zh) * | 2016-12-30 | 2018-07-10 | 乐视汽车(北京)有限公司 | 投屏方法及投屏装置 |
CN107168712B (zh) * | 2017-05-19 | 2021-02-23 | Oppo广东移动通信有限公司 | 界面绘制方法、移动终端及计算机可读存储介质 |
CN108874341B (zh) * | 2018-06-13 | 2021-09-14 | 深圳市东向同人科技有限公司 | 屏幕投影方法及终端设备 |
CN109144656B (zh) * | 2018-09-17 | 2022-03-08 | 广州视源电子科技股份有限公司 | 多元素布局的方法、装置、计算机设备和存储介质 |
CN109448709A (zh) * | 2018-10-16 | 2019-03-08 | 华为技术有限公司 | 一种终端投屏的控制方法和终端 |
CN110377250B (zh) * | 2019-06-05 | 2021-07-16 | 华为技术有限公司 | 一种投屏场景下的触控方法及电子设备 |
CN110381195A (zh) * | 2019-06-05 | 2019-10-25 | 华为技术有限公司 | 一种投屏显示方法及电子设备 |
CN110688179B (zh) * | 2019-08-30 | 2021-02-12 | 华为技术有限公司 | 一种显示方法及终端设备 |
CN111399789B (zh) * | 2020-02-20 | 2021-11-19 | 华为技术有限公司 | 界面布局方法、装置及系统 |
-
2020
- 2020-02-20 CN CN202010106801.1A patent/CN111399789B/zh active Active
- 2020-10-30 US US17/801,197 patent/US20230099824A1/en active Pending
- 2020-10-30 JP JP2022550007A patent/JP2023514631A/ja active Pending
- 2020-10-30 WO PCT/CN2020/125607 patent/WO2021164313A1/zh unknown
- 2020-10-30 EP EP20920102.9A patent/EP4080345A4/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063108A (ja) * | 2000-08-16 | 2002-02-28 | Matsushita Electric Ind Co Ltd | 情報処理システムおよびゲートウエイサーバおよび情報端末 |
JP2003281030A (ja) * | 2002-03-19 | 2003-10-03 | Canon Inc | 情報提供サーバ、情報提供方法 |
WO2012157014A1 (ja) * | 2011-05-13 | 2012-11-22 | 三菱電機株式会社 | 遠隔操作通信装置およびナビゲーション装置 |
US20150128065A1 (en) * | 2013-11-06 | 2015-05-07 | Sony Corporation | Information processing apparatus and control method |
JP2015090570A (ja) * | 2013-11-06 | 2015-05-11 | ソニー株式会社 | 情報処理装置および制御方法 |
US20190296930A1 (en) * | 2018-03-20 | 2019-09-26 | Essential Products, Inc. | Remote control of an assistant device using an adaptable user interface |
CN109508189A (zh) * | 2018-10-18 | 2019-03-22 | 北京奇艺世纪科技有限公司 | 一种布局模板处理方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111399789B (zh) | 2021-11-19 |
EP4080345A4 (en) | 2023-06-28 |
US20230099824A1 (en) | 2023-03-30 |
WO2021164313A1 (zh) | 2021-08-26 |
CN111399789A (zh) | 2020-07-10 |
EP4080345A1 (en) | 2022-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023514631A (ja) | インタフェースレイアウト方法、装置、及び、システム | |
WO2022100315A1 (zh) | 应用界面的生成方法及相关装置 | |
EP3964937B1 (en) | Method for generating user profile photo, and electronic device | |
WO2022057384A1 (zh) | 拍摄方法和装置 | |
WO2021254113A1 (zh) | 一种三维界面的控制方法和终端 | |
CN114449171B (zh) | 控制摄像头的方法、终端设备、存储介质及程序产品 | |
WO2022194005A1 (zh) | 一种跨设备同步显示的控制方法及系统 | |
EP4296840A1 (en) | Method and apparatus for scrolling to capture screenshot | |
US12008211B2 (en) | Prompt method and terminal device | |
CN114520867B (zh) | 基于分布式控制的相机控制方法及终端设备 | |
CN116204254A (zh) | 一种批注页面生成方法、电子设备及存储介质 | |
EP4273679A1 (en) | Method and apparatus for executing control operation, storage medium, and control | |
US20240320887A1 (en) | Scrolling screenshot method and apparatus | |
WO2024027504A1 (zh) | 一种应用显示方法及电子设备 | |
WO2023072113A1 (zh) | 显示方法及电子设备 | |
CN117421073A (zh) | 一种显示方法及电子设备 | |
CN118331464A (zh) | 显示方法、显示装置和电子设备 | |
CN116820288A (zh) | 窗口控制方法、电子设备及计算机可读存储介质 | |
CN118484113A (zh) | 应用管理的方法和电子设备 | |
CN118193092A (zh) | 显示方法和电子设备 | |
CN116095405A (zh) | 视频播放方法和装置 | |
CN111427492A (zh) | 一种显示位置的控制方法及终端 | |
CN114327324A (zh) | 一种界面的分布式显示方法、电子设备及通信系统 | |
CN117991937A (zh) | 多窗口管理方法、图形界面及相关装置 | |
CN117806744A (zh) | 控件显示方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240820 |