JP7245167B2 - 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス - Google Patents

表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス Download PDF

Info

Publication number
JP7245167B2
JP7245167B2 JP2019546362A JP2019546362A JP7245167B2 JP 7245167 B2 JP7245167 B2 JP 7245167B2 JP 2019546362 A JP2019546362 A JP 2019546362A JP 2019546362 A JP2019546362 A JP 2019546362A JP 7245167 B2 JP7245167 B2 JP 7245167B2
Authority
JP
Japan
Prior art keywords
operating area
display
finger
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019546362A
Other languages
English (en)
Other versions
JP2020510254A (ja
JP2020510254A5 (ja
Inventor
バーリント ゲーザ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2020510254A publication Critical patent/JP2020510254A/ja
Publication of JP2020510254A5 publication Critical patent/JP2020510254A5/ja
Application granted granted Critical
Publication of JP7245167B2 publication Critical patent/JP7245167B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electric Clocks (AREA)
  • Steering Controls (AREA)

Description

本発明は、インテリジェント電子デバイスのディスプレイ上に表示される画像の手動制御された選択のため、及び/又は画像の表示パラメータを調整するための取り決め(arrangement)に関し、インテリジェント電子デバイスは、指のタッチにより制御される操作領域(handling field)を有し、画像の第1の所定グループ及び/又は表示のパラメータはユーザの指により制御できる。
コンピュータデバイスの迅速な発展が、全てが小型の幾つかの種類のスマートデバイスの実現を可能にしたような高いプロセッサーとデータストレージの能力を提供してきたことは周知の事実である。そのようなデバイスは、第1に、より多くの機能を備えたモバイルフォンであり、それら機能の中で、電話としての使用はその能力のほんの一部分を必要とし、又はそのようなモバイルフォンの能力と競う性能を有するスマートウォッチであり、更には異なるタスクを提供する特定のスマートデバイスである。車内に搭載することができるデバイスもまた、ナビゲーション用の使用に加え、幾つかのタスクを実行できるそのようなデバイスに属する。
そのようなデバイスは、そのユーザがこれまでより高い選択の可能性の中から選べること、又はそのようなデバイスにより供給される電力を利用することを要求し、一方で、人間の手と指のサイズ、及びその身体構造上の制限又はその他の環境(例えば、車の運転者の手のその他のタスク、又はデバイスを保持する必要性)は、デバイスを操作する観点からの小型化及び複数の機能から選択ことに人間的制限を与える。
そのような制限は、例えば、データの入力に必要なキーボードの設計であり、小型化は今までより小さい範囲での操作を要求する。データ入力に関する限り、発展の1つの方向は、手動のデータ入力をある程度まで置き換えられる音声認識の完成であり、又は少しの指の動きのスマートな認識が直接データ入力を提供できる解決方法の発明であり、ここでユーザは所定のジェスチャーの組合せを習得しなければならない。そのようなシステムは、公報WO2016/170374 A1から知ることができ、ここでは、直接データ入力に対して新たな実例的システムが提供されている。ここで、同じジェスチャーの組合せの検出に対して、2つの代替的な解決方法が提案されている。それらの1つにおいて、デバイスの操作表面の一部又は全部は、2つの互いに垂直な方向に沿って、デバイスの本体に対して僅かな範囲で移動できる。移動は閉じた経路(好ましくは、円形又は楕円形)により制限され、この経路に沿って、好ましくは直径方向に反対の位置に凹部又はブロックが配置され、これらは、タッチにより、又はハプティックフィードバックによりユーザの指で簡単に検出できる。経路の端の到達も検出できる。操作領域は、バイアスがかかったばねシステムにより、常に領域の中心に移動され、このため、文字の入力は、簡単に学習及び検出できるジェスチャーの組合せの描画(drawing)により行うことができる。同じ原理を用いるその他の実施例において、入力領域は固定であるが、一種の凹部の同様の経路を含み、それに沿って指を動かすことができる。特定の位置は、そのような位置に配置された凹部、又は指先により検出できる小さく膨らんだ島のどちらか一方により認識できる。文字の「描画」が同一の方法で行われることが、これら代替案の両方に対する特徴であり、この操作はハプティックフィードバックと常に関連し、即ち、文字の描写において、ユーザはディスプレイ領域を観察すること、又は視覚の観察により指移動を確認することを必要としない。
ユーザの必要性に応じてディスプレイ上に示される画像の制御は、可能性とユーザ要求の正に増加する数のために益々複雑化するタスクを表す。タッチスクリーンデバイスの場合、幾つかのディスプレイ機能が、両方向での画像のシフト、増加、減少する縮尺、又は画像の回転を含む異なる方向で行われるジェスチャーにより実現できる。これら解決方法の共通の欠点は、それ自体もまた小さいディスプレイ領域から無視できない小さいエリアを利用することである。問題は、ディスプレイサイズの減少に伴い増加する。
要求の進展は、リストに挙げられた可能性を上回る画像操作を必要とする。そのような要求に対する典型的な例は、これまでより多くのアプリケーションにおいて必要となる3Dでの可視化である。表示されるオブジェクトの3次元データは、デバイスのメモリ内で利用可能であるが、ユーザは、3つの相互に垂直な方向の1以上で画像をシフトさせ、任意の軸を中心に画像を回転させ、及びそのサイズを拡大又は縮小させる必要があるだろう。2次元平面において解決できない同様のタスクは、ナビゲーションの際に、所定のエリアの地図を異なる観点から観察すべきかどうかにあり、例えば、興味ある地点(POI)の選択されたタイプであり、交通ボード又は等高線又は周辺の建物をより近接に観察する必要があるかである。これらの異なるディスプレイコンテンツは、レイヤ内に配置され、画像制御のために、レイヤ間を移動する必要もある。
画像操作パラメータの更なるグループは、3Dタスクと関連せず、探索(スクロール)タスクの最適性能と関連し、ここでは、先ず、より小さい領域が大きい領域内で探索され、目的に到達すると、拡大された画像がよりゆっくりと動かされるべきである。これは、パラメータに沿った移動(左右又は上下移動)において、探索速度を変えることもできなければならないことを意味する。要求の側面から、多数のパラメータを変更する必要があり、一方、これまでより小さいサイズを有する2次元領域において、操作できるパラメータ数は制限され、タスクは、例えば、幾つかの機能領域の関連付け及び使用により解決できる。
本発明の目的は、このようなマン・マシンシステムの人間側のより良い利用であり、画像の制御及び操作の可能性を提供することであり、これにより、以前に使用された2次元制御により十分に操作することができるパラメータのグループが、更なるパラメータに対する調整の可能性を生成することにより拡張される。
本発明の更なる目的は、可能性の拡大がユーザをより疲労させるのではなく、ユーザが快適に、ほぼ自動的な方法で必要な調整を実行できることにある。
本発明の更なる目的は、利用可能なディスプレイ表面から貴重な部分を取り込まない、又は最大でも小さいエリアのみの更なる操作領域を提供することである。
本発明のより更なる目的は、特定のアプリケーション(スマートウォッチ、車アプリケーション、モバイルデバイスでの使用)の制限を考慮することにより、そのようなアプリケーションの個別の重要な領域に以前に設定されたオブジェクトを最適化することである。
本発明のより更なる目的は、拡大された画像の操作及び画像の制御タスクの提供の際に、画像の操作及び制御に対してもまた、上記した直接データ入力機能の使用を提供することである。
これらの目的は、指のタッチにより制御される操作領域を含むスマート電子デバイスのディスプレイ上に示されるイメージの制御された手動選択、及び/又はイメージの表示パラメータの調整に対する取り決めを提供することにより達成されており、イメージの第1の所定グループ及び/又は表示パラメータはユーザの指により制御でき、本発明によれば、取り決めは、同じユーザの異なる指によりタッチできる位置に配置される更なる操作領域を含み、タッチされることにより、第1のグループに属さない少なくとも1つの更なる表示パラメータが調整され、更なる操作領域は上記の操作領域から間隔を空けて配置され、操作領域は共通の本体を通して機械的に相互接続される。
自然な3Dの動きを再現するために、上記の操作領域が互いに角度を縮めるか、又はそれらが本体の反対面に配置されるかが望まれる。
既知の直接データ入力の解決方法の利用において、操作領域又はその一部は、2つの互いに垂直な方向で閉じた経路に沿って本体に対して移動でき、操作領域のそのような設計は、第1の機能性モードにおいて、既知のデータ入力デバイスそれ自体の要素を構成し、異なるその他の機能性モードにおいて、本体に関連するそのような移動は更なる表示パラメータに関連する。
上記の操作領域及び更なる操作領域上での2本の指の同時の動きが、所定の論理体系に従い互いに連動され、そのような動きが同一の論理体系と論理的に結合されたイメージの移動をもたらす場合、入力の習得はより容易になるであろう。
表示パラメータの第1及び第2グループが、3つの互いに垂直な座標x、y、zに沿ったイメージの調整に要求されるパラメータを同時に含むとき、特定のイメージ処理の可能性が提供されるであろう。
アプリケーションの重要な領域において、本体は、ユーザの手首に取り付けることができるスマートウォッチの本体により構成され、操作領域はディスプレイの端に接近して配置され、更なる操作領域はディスプレイのその他の端に接近して配置される。
更なる操作領域が操作領域より実質的に小さい場合、全体のサイズを減らすことができる。
更なる重要なアプリケーションにおいて、本体は車のハンドルの一部により構成される。
この場合、ハンドルを握っているとき、操作領域は手の指の届く範囲内に置かれ、それは運転者に向いており、更なる操作領域は同じ手の別の指の届く範囲に配置され、反対方向を向いていることが好ましい。
アプリケーションの更なる目的にかなった領域において、本体はスマート電子デバイスの平坦な長方形本体により構成され、操作領域はデバイスの前面上に配置され、前面はデバイスのディスプレイを含み、更なる操作領域はデバイの後面上に配置され、ジェスチャーの組合せにより閉じた経路に沿って手段又は指の一方を動かすことにより、操作領域はハプティックフィードバックによるデータの入力を促す手段を備え、一方、操作の更なるモードにおいて閉じた経路を含む同一の手段により、更なるイメージ表示パラメータを制御できる。
アプリケーションの更なる可能な領域において、操作領域及び更なる操作領域は、キーボードを備えたラップトップ又はタブロイドの平面的な処理表面から空間に傾き出た1つの本体又は複数の本体上に提供される。
本発明による取り決めは、タスクのセットの完全な解決方法を提供し、その使用は、以前に知られた解決方法と比べ、実質的に改善され、簡潔化された操作を提供する。
本発明による取り決めは、その例示的な実施例と関連して、より詳細に記載され、ここで添付する図面が説明される。
わずかに下から見えるスマートウォッチの斜視図を示す。 わずかに上から見える図1と類似した図である。 操作領域1の可動特性を可視化する拡大された見取り図である。 異なる方向から見えるスマートウォッチの簡潔な斜視図を示す。 軸zに沿った下方への動きの見取り図を示す。 軸zに沿った上方への動きの見取り図を示す。 軸xに沿った動きの見取り図を示す。 軸zを中心とする時計方向の回転動きの見取り図を示す。 その他の方向での軸zを中心とする回転の見取り図を示す。 平面x、y内の動きの見取り図を示す。 1つの方向での軸xを中心とする回転の見取り図を示す。 その他の方向での軸xを中心とする回転の見取り図を示す。 ハンドル及びダッシュボードとフロントガラスの一部を備えた車の内部空間の詳細を示す。 運転者に向いた第1の操作領域の操作を説明する見取り図である。 運転者に後ろを向けている第2の操作領域の見取り図である。 スマートモバイルデバイスの斜視図であり、全ディスプレイ領域が移動可能である。 図16と類似した図であり、操作領域は上部表面の上部表面の小部分のみ利用する。 モバイルデバイスの後プレートを示す見取り図である。 ラップトップ又はデスクトップデバイスのプレート面の見取り図を示す。 図19に示されるデバイスの上面から上方向に延びた2つの操作領域を示す。
本発明によるデバイスの第1の実施例は、前腕(手首)の形状に従う大きく弧状をなす本体を有するスマートウォッチ10であり、本体は、取り外し又は開放が可能なマッチングスタイルの金属ストラップ12に回転による(pivotal)接続を通して連結され、ストラップは、前腕へのウォッチ10の快適な装着を確保する。小型の電子システムがスマートウォッチ10の内部に配置され、スマートウォッチ10は、最先端のスマートモバイルフォンと同等の内部構造及び処理電力を有し、実質的に同一の機能、更に本事例において、従来の平面のハンドヘルド型のモバイルフォンで実現できなかった追加の機能を提供できる。本発明の本質は、スマートウォッチの内部設計にあるのではなく、この小型の電子デバイスがより快適、高速に、同時により効率的な方法で、そのユーザにより操作できる解決方法にある。
ウォッチ10の最大の中心領域は、好適には、しかし必須ではないが、タッチセンサー式であるわずかに湾曲したディスプレイ13である。ウォッチ10は、やや下から図1に示され、やや上から図2に示される。(図2に示されるように)ディスプレイ13の上部端を超えて下側に(over and under)、第1の操作領域(センサー)1が配置され、タッチセンサー式の操作面を有し、水平方向に伸長し、実質的にウォッチ10の全幅に沿って伸びた長方形を形成する細長い形状を有する。
ディスプレイ13の下に、第2の操作領域(センサー)2が配置され、図1において十分に見ることができ、ウォッチ10の本体11の幅と好ましくは等しい幅を持ち、しかし、第1の操作領域1の高さより大きい高さを有し、このため実質的により大きい表面を持つ。
好適な実施例において、第2の操作領域2は、2つの矢印14により図1において視覚化される2つの互いに垂直な軸に沿って、ウォッチ10の本体11に対してそれ自体と平行に(しかし、回転する場合はない)、わずかに動かすことができる平坦な機械的ユニットである。操作領域2と本体11との間の機械的な接続及び関連する機能は、公報WO2016/170374 A1において開示されるように行われ、即ち、操作領域2は、図3に示される閉じた経路15により制限される方法で、1本の指により動かすことができ、その動きはハプティックフィードバックを提供し、簡単な方法で習得できるデータ入力を可能にする。経路15の直径方向に反対側でのハプティックフィードバックを容易にするため、それぞれ小型の凹部16が形成され、これにより、使用中、経路15に沿った移動の間、それぞれの凹部16に達したときに検出できる。そのような操作領域2を移動することの可能性が、参照する公報に記載される直接データ入力を可能にする。図3に示される経路15の実際のサイズはかなり小さく、変位の直径の長さは最大で数ミリメートルであることに注意すべきである。その他の点において、操作領域1及び2の表面は検出面であり、このため、表面に沿った指の動きは適切な電子ユニットにより検出され、それぞれの動きジェスチャーは、それらの方向、速度、サイズ及び位置に従い互いに区別できる。操作表面2がもう一方より実質的に大きいため、この表面に沿って指を動かすことにより、より詳細で、複雑なジェスチャーを作ることができる。
図3に示される経路15に沿った操作領域2の移動は、ばねバイアスに対して行われることに注目すべきであり、このため、ユーザは、彼/彼女が固定された表面に沿って指を動かしているのか(ただ撫でられているかのように)、又は、データ入力において要求される全体の操作領域2が力で押されて、動かされたのかを十分に区別することができる。
操作領域2は、その上の(好ましくは、その上部分上の)異なる役割のために使用されるため、幾つかの小さい機能ゾーンが示され、図1において、その機能ゾーン17は数字入力に関連して示されている。デフォルト状態において、操作領域2のセンサー入力機能が設定され、操作領域2が押されて、本体11に対して完全に動かされる場合、データ入力機能がトリガーされるであろう。この開始状態において、データ入力は、例えば、英語のアルファベットの文字の入力に適合されるが、機能ゾーン17の先の押下に続いて、それぞれの移動の組合せが数字又は句読点と関連するであろうし、更なる機能ゾーンを様々なワードプロセッシングのコマンド又は状態に割り当てることができる。これらの可能性は、引用された公報に詳細に記載されており、本発明の観点から、より強い押下状態において、操作領域2はデータ及びコマンドの入力に対しても使用できることが唯一重要である。
本発明がスマートウォッチ10に対して使用される場合において、操作領域1及び2が、それらが互いに離れて、例えば、ディスプレイ13の2つの端に配置されるという事実により特徴付けられる点に注目することが重要であるだけでなく、それらのそれぞれの面が角度を狭め、これにより、後述される空間制御の処理をユーザに対して容易にすることもまた重要である。また、操作領域1及び2の距離及び配置が、何らかの肉体的な努力なしに、それら操作領域を2本の指により簡単にタッチできることを可能にする点に注目することも重要であり、これにより、それら操作領域は、別個に又は同時に、指により接触することができ、指をそれらに沿って快適に動かすことができる。
図4は、操作領域1及び2により狭められた相対角度がより良く示されたスマートウォッチ10の簡潔な斜視図を示す。それぞれの機能の理解をより簡単に提供するために、それら機能の基本的な特性が、その英語表現により図4~12に示されている。
それぞれの主な機能の実現を説明している図5~12について述べる。操作は空間、即ち、3次元で行われるため、それぞれの指の横に、空間座標系の方向x、y及びzが常に示されており、座標の右横に、x-y面内の投影が示され、これらの座標は太線を用いて描写されており、この太線に沿って、既定の機能(動きの組合せ)がディスプレイ13上に示される画像又はカーソルの移動を制御できる。スマートウォッチ10内のプロセッサーは、既定の機能の空間データを含み、それらを表示できると想定する。そのようなものは、例えば、地図の場合、x、y面内の地図自体の表示であり、同時に、(知られているように)それぞれ異なるレイヤ内で視覚化される特性があり(例えば、異なる興味ある地点、交通ボード、規則、等高線など)、これは、それらの同時の表示が画像を解釈するために余りに複雑なものにするためである。本体又は製品の内部座標が機械内で利用可能である場合(例えば、3Dプランニングの場合)、更なる機能及びプログラムがあり、ユーザは、x、y面内のみの構造を見ることができるだけでなく、深さ、即ち、軸zに沿った検査も可能とするべきであり、即ち、関心ある画像を選択できることが重要である。本発明による解決方法は、操作の間、指及び手がディスプレイ13のエリアを覆うことのないように、このかなり洗練されたタスクを処理する簡単な方法を提供する。
図5は、軸zに沿った下方への動き(スプレッド)を示す。そのような動きに対し、図内の矢印により示されるように、2本の指は操作領域1、2に沿って下方に移動するであろう。そして、深さ方向の下方にレイヤからレイヤに移動する。ウォッチ10は、殆どの場合に左手首に装着されるため、空間内のコンテンツの下方移動は、2本の指を下方にスライドするための脳による自然なイメージングを表し、このため、そのような制御はユーザにとって最も自然なものである動きの組合せを利用する。
図6は、上に記載した動きの正に反対である、軸zに沿った反対の上方への動き(ピッチ(pitch))を示す。
図7は、両方向への2本の指を用いた制御の場合に、面x-y内のイメージの方向xでのシフト(スワイプと呼ばれる)を示す。実際に表示される面内において、基本的な動き(右から左と上下のシフト、及びイメージの拡大又は縮小)は、操作領域2の平面的な制御によっても実現できるが、ユーザが表示されたイメージの位置を制御することに慣れた場合、2本の指によるそのような動きの制御を保証することに価値があることに注意すべきである。
図8は軸zを中心とした時計方向の回転の制御を示し、一方、図9は半時計方向の同様の制御を示す。複数指は反対方向に動かされるため、回転に関連する指の動きは、同様に自然な方法に対応する。
図10は、1本の指を用いた上述した動きを示し、ここで、操作領域2に沿ってのみ指を動かす必要がある。既定のイメージ面内で行われるこの種の動き(パン動き)は、最もよく使用される。このため、そのような動きは、複数の機能によりサポートされる。イメージ又はカーソルが表示された面内を移動しなければならないとき、先ず、探索される位置がより粗い移動で探索され、そして、目標が可視化されるようになると、移動の速度を低下させるべきである。用語「速度(speed)」は、単一の指の変位に関連したスクリーン上の変位と解釈される。速度の変化に対し、その他の操作領域1の存在は良い可能性を提供する。操作領域1が不変の位置18において異なる指でタッチされた場合、この接触は、速度を変化するための制御イベントとして、ウォッチ10内のプロセッサーにより検出されるであろう。幾つかの例において、1回の速度変更ステップのみが与えられれば十分であり、そのような場合、位置18が単にタッチされれば十分である。幾つかの速度を持つシステムにおいて、複数の続く接触により制御が行われ、反対方向への変更も幾つかの方法を有する。そのような可能性の1つとして、操作領域1の右側がタッチされた場合に速度は減少し、左側がタッチされた場合に速度は増加する。代わりの可能性において、接触の位置は何の役割も持たないが、例えば、初めの3回の接触は速度を増加し、それぞれの続く接触は速度を減少する。本質は、速度の変化が行われる方法にはなく、速度の変化がその他の操作領域1のタッチにより可能となる事実にある。
最後に、図11と12は、y-z面内の回転(即ち、軸yを中心とした)の制御を示し、x-y面にあるのと同様にユーザにおいて自然である。
2本の指を用いた制御に加えて、先のデバイスで使用され、学習された機能が更に使用でき、即ち、2本の指がより大きい操作領域2に沿って離れた場合、イメージは拡大され、指が互いに向かい動いた場合、イメージはより小さくなるだろう。
操作領域2が本体11に対して移動した場合、更なる興味ある可能性が得られ、即ち、既定の面内に表示されるイメージのシフトが、上方向と下方向又は右から左を行うために1本の指により制御され、この可能性はスクロール機能に対応する。ディスプレイがこの方法により制御される場合、操作領域2はデータ入力モードではなく、このため、操作領域2は、図3に示される経路15に沿った4つの凹部16により定義される特定の位置のどれか1つに移動できる。それらの位置は、例えば、上方、下方、右及び左方向の移動のそれぞれに関連することができる。ディスプレイ制御モードにおいて、凹部16のどれか1つへの操作領域2の配置が表示されたイメージを関連する方向に移動(シフト)するような方法で、ウォッチ10内のプロセッサーをプログラムすることもでき、これは、何らかの別個の操作手段の必要なしに、上下及び左右方向へのスクロール機能の簡単な実現を意味する。本体11に対して操作領域2を移動する可能性は、それぞれのジェスチャーを簡単に解釈することができる適切な表示制御機能に関連付けることにより更なる表示制御機能と関連付けることができることに注目すべきである。例えば、経路15に沿った時計方向の回転ジェスチャーは、右へのイメージの回転となり、反対方向へのジェスチャーは、左へのイメージの回転をもたらす。このため、本発明によれば、単一の面内での従来の制御は、図5~12に示されるように、まず、2つの操作領域を用いた制御により拡大され、これは、本体11に対して操作領域2を移動させ、及び特定の位置の存在を利用する可能性と結合し、又は補完することができ、これにより、更なる表示機能が実現されて、操作の自由の程度が増加し、その快適性も増加する。
複数の指によるイメージ及び/又はカーソルの3次元制御は、スマートウォッチの事例だけではなく、アプリケーションの幾つかのその他の領域においても利用できる。図13は、車の内部空間の詳細を示し、ここで、ハンドル20が運転者の両手によって握られている。車の内部空間において、内蔵のディスプレイ21が示す通常の操作及び表示手段を見ることができ、フロントガラスの前に、ダッシュボードに内蔵されたスマート電子制御ユニットのプロジェクターにより生成される投影イメージ22を見ることができる。イメージ22は、ルートマップの詳細を示すことができる。本発明による制御のタスクは、先の実施例において説明された方法と同様の方法で、上述されているが、描写されていない制御ユニットにより運転者のために投影された表示されたイメージ22の3次元制御である。車のハンドル20及びステアリングコラムに固定されたその中心部分23は、一般的に2つの接続部材24により相互接続され、それらの1つは運転者の右手に近く、他の1つは左手に近い。運転者が右利きか又は左利きかに応じて、右又は左の接続部材24の前面上に、センサーを用いた操作領域25が配置され、これは、先の例におけるスマートウォッチ10の操作領域2と同様の方法で設計し、及び制御することができる。違いは、操作領域2における事例でのように全操作領域25が可動する方法で設計されて、それによりデータ入力タスクを解決することを不要にするより大きい利用可能な表面にある。この場合、異なるタイプのデータ入力がより好適となり、これは、公報WO2016/170374 A1内に第2のデータ入力モードとして記載され、ここで、操作領域が閉じた経路に沿って動かされるのではなく、閉じた経路が表面上に作られ、対角線上に反対の位置のタッチ検出を可能にする凹部が経路の端に配置される。この内部領域は、僅かに外側に膨らんだ島により、複数の部分、好ましくは4つの部分に分割され、そのような場合、全領域が経路に沿って移動されたとき、データ入力は同じ動きの組合せで行うことができ、しかし、この場合、指は固定された領域上を移動しなければならない。データ入力領域が操作領域25の分離された部分上に提供されるのか、あるいはその横又はどこか都合の良い場所に配置されるのかどうかは、単なる詳細の課題である。
図14及び15の拡大された図において、ハンドルの接続部材24の前部分(図14)及びその後部分(図15)が示されている。図14は、親指26によりタッチされるよう、運転者に向かい合う前操作領域25の拡大された図を示す。図15は、運転者からより離れた接続部材24の後面を示し、後面上に後操作領域27が提供され、センサーを有し、運転者の人差し指28によりタッチされる。
投影される又はディスプレイ21上に表示されるイメージ及び/又はカーソルを制御するため、同一の動きの組合せを、それらが図5~12と関連して示されて、説明されたように、関連付けることができ、このため、軸x、y、zに沿った又はそれら軸を中心とした全ての種類の動きが、運転者の2本の指の簡単に連動された動きにより制御できる。2つの前及び後操作領域25、27が互いの後ろに配置され、同じ手の2本の指みより制御できることが好ましいが、異なる解決方法も可能であり、第2の操作領域27がハンドル20のその他の接続部材又は更なる接続部材の前面上に提供され、そして、これは、運転者の左手29(図13)の1本の指により制御される。
上記したデータ入力機能は、先に参照した公報の両方のバージョンに従い実現することができる。前操作領域25は、操作領域2の移動と同様に、ハンドルの接続部材24に対して可動とすることができ、その場合、同様の機能的可能性が利用できるであろう。その代わりに、上記したように、閉じた経路が前操作領域25の一部分上に備えられ、その領域上の指の動きが、データ入力又は特定のイメージ移動機能のどちらかをもたらすことが可能である。これまでに記載された実施例において、ウォッチ10は手に固定され、もう一方の手の指がその上を自由に移動できたため、操作領域がその上に提供される構造は、手による特定の保持を必要としなかった。このアプリケーションにおいて、車内で、操作領域はハンドルにより保持され、ハンドルを握る手の指は領域に沿って簡単な方法で移動できる。
スマートモバイルフォン又はその他のインテリジェント電子デバイスの操作要素の場合、3次元制御に対する、又は操作機能の拡大に対する最も頻繁な要求の1つは、それ自体に存在する。そのような場合、指の自由な動きは、手によりデバイス自体を保持する必要性により制限され、即ち、手は複数のタスクを有し、先の事例でのように、デバイスを落とす危険を伴わずに、指の動きは極めて自由が少ない。
図16及び17において、それぞれ典型的なスマートモバイルデバイスが示され、これらは、先に参照した公報WO2016/170374 A1に記載されるように、データ入力操作領域を基本的に備える。図16に示されるデバイス30は、平坦な長方形の本体31を有し、本体は、同時にタッチスクリーンディスプレイである操作領域32によりほぼ完全にカバーされる。操作領域32は、公報で詳細に記載されるように、2つの矢印33のそれぞれの方向に沿って、一定の制限内で移動できる。図17に示されるデバイス34は、より小さい操作領域35のみを有するという点においてのみ、それと異なり、操作領域は、一定の制限内で両方向に移動することもでき、デバイス34の前面の大部分をそのまま残し、その上で、タッチスクリーンディスプレイもまた提供される。操作領域35の表面は、同時に、それに接触する指の動きを検出できるセンサー面である。操作領域35は、参照された公報に記載されるように、データ入力に対しても当然に使用することができる。
図18は、上記のデバイス30、34の後ろ側を示し、好ましくは、中心部において、突起部36が、デバイスの長手方向の軸と平行に、表面から僅かに盛り上がっている。突起部の両側上に、それぞれ操作領域37、38が提供される。デバイスが手により保持されるとき、親指は、デバイスの前側上に備えられた前操作領域32又は35を自由に動かすことができ、更なる指が、デバイスを落とす危険なしに、後表面に沿って移動でき、しかし、保持機能が制限を与えるため、この移動は、指がその他のタスクを持たない場合のように優れて、洗練されてはないだろう。後側をタッチする指の1つは、突起部36の存在を感じるためのそのような自由度を有し、突起部36の右又は左側における領域37又は38に接触しているかどうかを区別できる。
そのようなデバイスにおいて、前面上の操作領域は、再び、複数の方法で使用され、即ち、それが僅かに押されて、デバイス30又は34の本体31に対して方向x又はyに沿って動かされる場合、データ入力機能が選択されて、移動と共に、データ入力が行われる。
操作領域がそのバイアスのかかった基本位置から離れないような小さい力で、指が操作領域32又は35上を移動するとき、指の移動に伴い、図10に示されるように、パン制御が実現できる。同時に、例えば、突起部36から左側の操作領域37がタッチされる場合(即ち、デバイスを保持することにより拘束された指を動かす必要がない)、機能の変更が行われ、操作領域32又は35を動かすことにより、更なる動き機能を選択することができる。操作領域32又は35は、異なるジェスチャーを作成することで、中心部から凹部16のいずれかへの放射状の移動により動かすことができ、それら凹部に押下することができ、又は閉じた経路に沿って動かすことができる。それぞれのイメージ又はカーソル制御機能はこれらの位置及びジェスチャーと関連付けることができ、例えば、操作領域が軸yに沿って上側凹部に押された場合、イメージは上方向又は反対に下方向に移動し、それを横断する対角線の端部に押下すると、イメージは左又は右にシフトし、時計方向の円弧のジェスチャーは右への回転となり、反対方向の円弧によるジェスチャーは左への回転となる。興味ある組合せに達することができ、例えば、操作領域が縦の凹部に押されると、イメージは上に移動し、この場合において、圧力が減少されて、指が検出領域に沿って同一の縦方向に動く場合、指が離れるか、持ち上げられるまで、開始された縦のイメージ移動は継続する。
後側にある指が突起部36の左側において操作領域37にタッチせず、右側の操作領域38にタッチされる場合、機能の変更が行われ、前操作領域32又は35の移動の場合、上方向又は下方向の移動である方向zに沿った移動の制御が行われ、先のケースで行われた制御に垂直である。
図16~18に示される解決方法は、特別なイメージ制御モードにおける本質を有さないが、従来の制御に加えてセンサーの操作表面に沿って指を動かすことを加えて、更なる制御次元が提供されるであろう。これを達成するために、操作領域自体は、デバイスの本体に対して移動しなければならず、デバイスの後側における適当な領域をタッチすることにより、2つの更なる機能をこれらの可能性に追加することができ、これは、落下の危険なしに、後側においてデバイスを保持する指により実行される。
最後に、図19及び20を参照して、図19は、従来のラップトップ40又は同様のコンピュータの上面図を示し、キーボードはエリア39により記号化され、その前に、実質的に長方形の領域が、カーソル制御領域として従来のタッチパッドに対して提供される。本発明によれば、既定のエリア内で、互いに対して角度を持って起き上がる2つの操作領域41、42が備えられるような方法で、操作領域の拡張された機能が提供される。最初又は基本の位置において、これらの領域はラップトップ40の上部平面に配置され、2つの部分に分割されているにも関わらず、それらは従来のカーソル制御機能に使用できる。操作領域41、42の横に、ボタン43又は同様の手段が提供され、ボタン43の押下の結果として、2つの操作領域41、42は(ばねバイアスのおかげで)上部平面から飛び出し、図20に示される位置につくであろう。図には示されないガイド要素が、操作領域41、42のこの傾斜位置が安定して保たれるようにする。この持ち上がった位置において、操作領域41、42の役割は分離されており、それらは、図1~12に関連したスマートウォッチ10の記載に関連して記載されるように、操作領域1、2の機能を仮定するであろう。2つの操作領域41、42は分離して、それぞれに異なる傾斜した平面を有するため、スマートウォッチ10の制御に関連して記載されたものと同一の機能が、それらにより実現できる。角度を持って傾斜した設計が好適ではあるが、代替の解決方法も実現可能であり、ここで、長方形のサポート要素が上部平面に対して直立の位置を取り、操作領域はこの平面上の前面及び後面上に備えられる。
本発明は、示された例示の実施例の何れにも限定されず、これは、その本質が操作機能の実質的な拡張と簡素化にあるためであり、一方、本発明は、これまで解決不可能として見られていたタスクを解決し、例えば、スマートウォッチ10のような小型の操作領域を持つデバイスは、ラップトップ又はモバイルフォンの操作可能性を有するだけでなく、それらの機能を考慮して、そのようなデバイスに関して、優れたサービスを提供できる。

Claims (5)

  1. ユーザにより選択可能な複数の機能性モードを有し、ユーザの第1の指のタッチにより制御されるタッチセンサー式表面を備える操作領域(2、25、32、41)を有するスマート電子デバイスのディスプレイ(13、22)上に示されるイメージの制御された手動選択、及び/又はその表示パラメータの調整に対する取り決めであって、
    前記操作領域(2、25、32、41)は、前記ディスプレイ(13、22)の外部に配置され、
    少なくとも1つの選択された機能において、指の動きは、イメージ及び/又は表示パラメータの第1の所定のグループを調整し、
    前記スマート電子デバイスは、タッチセンサー式表面を備え、前記操作領域(2、25、32、41)及び前記ディスプレイ(13、22)から離れて配置される更なる操作領域(1、27、37、38、42)を有し、
    2つの操作領域は、共通の本体(11、24、31)を通して機械的に接続され、
    前記更なる操作領域(1、27、37、38、42)は、前記第1の指による前記操作領域のタッチと同時に、前記ユーザの同じ手の第2の指によりタッチできる位置に配置され、
    選択された機能性モードにおいて、前記操作領域(2、25、32、41)は、2つの互いに垂直な方向における前記第1の指の動きを感知し、前記更なる操作領域(1、27、37、38、42)に沿った前記第2の指の動きが、前記第1の所定のグループに属さない少なくとも1つの更なる表示パラメータを調整でき、
    前記操作領域(2、25、32、41)及び前記更なる操作領域(1、27、37、38、42)は、互いに角度を狭め、又はそれらは前記本体(11、24、31)の反対側の表面上に配置され、
    前記操作領域及び前記更なる操作領域上の2本の指の同時の動きは、所定の論理システムに従い互いに連動され、そのような動きは、同一の論理システムと論理的に関連付けられたイメージ移動とな
    前記2本の指の同時の動きは、3つの互いに垂直な座標(x、y、z)に沿った前記ディスプレイ上の前記イメージを調整し、前記論理システムは、空間内の前記イメージの移動に対応する、取り決め。
  2. 前記本体は、前記ユーザの手首に取り付けられるスマートウォッチ(10)の本体(11)により構成され、前記操作領域(2)はディスプレイ(13)の端に接近して配置され、前記更なる操作領域(1)は前記ディスプレイ(13)のその他の端に接近して配置され、前記更なる操作領域(1)は、前記操作領域(2)より実質的に小さい、請求項に記載の取り決め。
  3. 前記本体は、車のハンドル(20)の一部により構成され、前記操作領域(25)は、前記ハンドル(20)を握るとき、手の指の範囲内に位置し、前記操作領域は運転者と向き合い、前記更なる操作領域(27)は、同じの手の更なる指の範囲に配置されて、反対方向に向いている、請求項に記載の取り決め。
  4. 前記本体は、スマート電子デバイスの平坦な長方形本体(31)により構成され、前記操作領域(35)は前記デバイスの前面上に配置され、前記前面は前記デバイスのディスプレイを含み、前記更なる操作領域(37、38)は前記デバイスの後面上に配置され、前記操作領域(35)は、前記選択された機能性モードと異なるデータ入力機能性モードにおいて、ジェスチャーの組合せにより、閉じた経路に沿って手段又は指のどちらかを移動させることによるハプティックフィードバックによるデータの入力を促す手段を有する、請求項に記載の取り決め。
  5. キーボード(39)を備えたラップトップ又はタブロイドの平面の操作面から空間に傾き出ることができる前記操作領域(41)及び前記更なる操作領域(42)が、本体又は複数の本体上に備えられる、請求項に記載の取り決め。
JP2019546362A 2017-02-27 2018-02-23 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス Active JP7245167B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
HUP1700089 2017-02-27
HUP1700089 2017-02-27
PCT/HU2018/050010 WO2018154346A1 (en) 2017-02-27 2018-02-23 Smart device with a display that enables simultaneous multi-functional handling of the displayed information and/or data

Publications (3)

Publication Number Publication Date
JP2020510254A JP2020510254A (ja) 2020-04-02
JP2020510254A5 JP2020510254A5 (ja) 2021-04-08
JP7245167B2 true JP7245167B2 (ja) 2023-03-23

Family

ID=89720283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546362A Active JP7245167B2 (ja) 2017-02-27 2018-02-23 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス

Country Status (10)

Country Link
US (1) US11106356B2 (ja)
EP (1) EP3586216A4 (ja)
JP (1) JP7245167B2 (ja)
KR (1) KR20210002380A (ja)
CN (1) CN110419019A (ja)
AU (1) AU2018223313B2 (ja)
CA (1) CA3053719A1 (ja)
EA (1) EA201991981A1 (ja)
IL (1) IL268825A (ja)
WO (1) WO2018154346A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110134311A (zh) * 2019-04-08 2019-08-16 努比亚技术有限公司 一种屏幕显示方法、可穿戴设备及计算机可读存储介质
EP3835885B1 (fr) * 2019-12-10 2023-12-06 The Swatch Group Research and Development Ltd Montre pourvue d'un organe de commande
EP3835892B1 (fr) * 2019-12-10 2022-08-10 The Swatch Group Research and Development Ltd Montre pourvue d'un organe de commande
FR3126387B1 (fr) * 2021-08-27 2024-05-03 Psa Automobiles Sa Gestion à distance d’un dispositif utilisateur dans un véhicule

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120090A (ja) 2009-12-04 2011-06-16 Nec Corp 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
JP2012247838A (ja) 2011-05-25 2012-12-13 Ntt Docomo Inc 表示装置、表示制御方法及びプログラム
JP2013095289A (ja) 2011-11-01 2013-05-20 Clarion Co Ltd 入力装置
JP2015005182A (ja) 2013-06-21 2015-01-08 カシオ計算機株式会社 入力装置、入力方法及びプログラム並びに電子機器
US20150111558A1 (en) 2013-10-18 2015-04-23 Lg Electronics Inc. Wearable device and method for controlling the same
WO2016170374A1 (en) 2015-04-24 2016-10-27 Bálint Géza Method and data entry device for the entry of data in electrical form

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6096984A (en) * 1997-01-21 2000-08-01 Dell Usa, L.P. Adjustable touchpad
US8245158B1 (en) * 2002-03-11 2012-08-14 Brad Schrick System and method for providing a keyboard type interface for a computing device
US7561146B1 (en) * 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
US20110087963A1 (en) * 2009-10-09 2011-04-14 At&T Mobility Ii Llc User Interface Control with Edge Finger and Motion Sensing
US20110169750A1 (en) 2010-01-14 2011-07-14 Continental Automotive Systems, Inc. Multi-touchpad multi-touch user interface
US8177182B1 (en) * 2011-01-07 2012-05-15 Apple Inc. Wireless remote control device for a portable media device
DE102012011179A1 (de) * 2012-06-06 2013-12-12 Gm Global Technology Operations, Llc Vorrichtung zur Bedienung einesKraftfahrzeuges
BR112015000507A2 (pt) 2012-07-12 2017-06-27 Chiesi Farm Spa inibição de enzimas
WO2014094205A1 (en) * 2012-12-17 2014-06-26 Intel Corporation Receiving input from multiple touch sensors
JP5874625B2 (ja) * 2012-12-20 2016-03-02 カシオ計算機株式会社 入力装置、入力操作方法及び制御プログラム並びに電子機器
JP5784061B2 (ja) * 2013-03-27 2015-09-24 本田技研工業株式会社 入力装置、入力方法及び入力プログラム
KR20150061420A (ko) * 2013-11-27 2015-06-04 엘지전자 주식회사 스마트 워치 및 그 동작 방법
CN105302350B (zh) * 2014-07-25 2018-01-23 南京瀚宇彩欣科技有限责任公司 穿戴式智能装置及计算机执行的方法
US20160085397A1 (en) * 2014-09-23 2016-03-24 Qualcomm Incorporated Smart Watch Notification Manager
KR102298972B1 (ko) * 2014-10-21 2021-09-07 삼성전자 주식회사 전자 장치의 엣지에서 수행되는 제스처를 기반으로 하는 동작 수행
KR20160099399A (ko) * 2015-02-12 2016-08-22 엘지전자 주식회사 와치 타입 단말기
CN104978142B (zh) * 2015-06-17 2018-07-31 华为技术有限公司 一种智能穿戴设备及智能穿戴设备的控制方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120090A (ja) 2009-12-04 2011-06-16 Nec Corp 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
JP2012247838A (ja) 2011-05-25 2012-12-13 Ntt Docomo Inc 表示装置、表示制御方法及びプログラム
JP2013095289A (ja) 2011-11-01 2013-05-20 Clarion Co Ltd 入力装置
JP2015005182A (ja) 2013-06-21 2015-01-08 カシオ計算機株式会社 入力装置、入力方法及びプログラム並びに電子機器
US20150111558A1 (en) 2013-10-18 2015-04-23 Lg Electronics Inc. Wearable device and method for controlling the same
WO2016170374A1 (en) 2015-04-24 2016-10-27 Bálint Géza Method and data entry device for the entry of data in electrical form

Also Published As

Publication number Publication date
US20190369866A1 (en) 2019-12-05
AU2018223313B2 (en) 2023-02-23
AU2018223313A1 (en) 2019-10-17
CN110419019A (zh) 2019-11-05
CA3053719A1 (en) 2018-08-30
EP3586216A4 (en) 2020-12-30
KR20210002380A (ko) 2021-01-08
EP3586216A1 (en) 2020-01-01
WO2018154346A1 (en) 2018-08-30
JP2020510254A (ja) 2020-04-02
EA201991981A1 (ru) 2020-02-27
US11106356B2 (en) 2021-08-31
IL268825A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
JP7245167B2 (ja) 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス
US5568603A (en) Method and system for transparent mode switching between two different interfaces
JP5074475B2 (ja) 3次元表示制御方法、3次元表示制御装置、及び3次元表示制御プログラム
KR100811160B1 (ko) 사용자명령을 3차원적으로 입력가능한 전자장치
US20050162402A1 (en) Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US9811200B2 (en) Touch input device, vehicle including the touch input device, and method for controlling the touch input device
JP5003377B2 (ja) 電子機器におけるマークの位置あわせ方法
KR20090096528A (ko) 인간과 컴퓨터의 상호작용 장치, 전자장치 및 인간과 컴퓨터의 상호작용 방법
KR20130088752A (ko) 다방향 버튼, 키 및 키보드
KR101685891B1 (ko) 터치 입력장치 및 터치 입력장치의 제어방법
CN106095150B (zh) 触摸输入装置以及具有该装置的车辆
US11474687B2 (en) Touch input device and vehicle including the same
CN105607770B (zh) 触摸输入装置以及包括该装置的车辆
KR20170001014A (ko) 터치 입력장치 및 이를 포함하는 차량
KR101681987B1 (ko) 터치 입력장치 및 이를 포함하는 차량
Ryan et al. Tech-note: rapMenu: remote menu selection using freehand gestural input
KR101696596B1 (ko) 차량, 및 그 제어방법
US20160137064A1 (en) Touch input device and vehicle including the same
Benko et al. Imprecision, inaccuracy, and frustration: The tale of touch input
Kang et al. UFO-Zoom: A new coupled map navigation technique using hand trajectories in the air
CN104063046A (zh) 输入装置及切换输入方式的方法
JP7001368B2 (ja) 操作装置
EA043001B1 (ru) Интеллектуальное устройство с дисплеем, включающее средство одновременного многофункционального управления отображаемой информацией и/или данными
KR101744736B1 (ko) 터치 입력장치 및 터치 입력장치의 제어방법
KR101681994B1 (ko) 터치 입력장치 및 이를 포함하는 차량

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R150 Certificate of patent or registration of utility model

Ref document number: 7245167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150