JP2021157267A - 表示制御方法,情報処理装置及び表示制御プログラム - Google Patents

表示制御方法,情報処理装置及び表示制御プログラム Download PDF

Info

Publication number
JP2021157267A
JP2021157267A JP2020054320A JP2020054320A JP2021157267A JP 2021157267 A JP2021157267 A JP 2021157267A JP 2020054320 A JP2020054320 A JP 2020054320A JP 2020054320 A JP2020054320 A JP 2020054320A JP 2021157267 A JP2021157267 A JP 2021157267A
Authority
JP
Japan
Prior art keywords
work
input
display
work process
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020054320A
Other languages
English (en)
Inventor
翔大 川竹
Shota Kawatake
翔大 川竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020054320A priority Critical patent/JP2021157267A/ja
Priority to US17/204,029 priority patent/US20210303113A1/en
Publication of JP2021157267A publication Critical patent/JP2021157267A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】遠隔支援システムにおいて、効率的な入力インタフェースを提供する。【解決手段】作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、作業フローに基づき、分岐元の作業工程に先行する作業工程と、入力された作業結果に応じた分岐先の作業工程とを特定し、作業画像を作業工程に対応付けて記憶する記憶装置を参照して、分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成し、特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる。【選択図】図10

Description

本発明は、表示制御方法,情報処理装置及び表示制御プログラムに関する。
人材不足や設備数増加等の要因により、現場業務の品質が低下するおそれがある。そこで、Internet of Things(IoT)技術を利用して、現場業務の品質維持を行なうことがある。
図1は、遠隔支援システムを例示する図である。
現場6における作業者は、クラウド8を介して事務所7から送信される作業ガイドによるナビゲーションを利用して、作業を実施する。作業内容は、作業者が装着するHead Mounted Display(HMD)61のディスプレイに表示されたり、HMD61のスピーカから音声出力されたりしてよい。事務所7においては、支援者が作業者に対して、遠隔支援による作業指示を実施する。
図2は、図1に示した遠隔支援システムにおけるミッションカードの表示処理を説明する図である。
図2においては、ミッションカード(別言すれば、作業手順)として、ミッションカード#1〜#3が示されている。符号A1に示すように、ミッションカード#1〜#3の中からミッションカード#2が選択され、ミッションカード#2に関する画面情報がクラウド8を介して現場6に送信される。現場6においては、符号A2に示すように、作業者のHMD61に作業内容を示す画面が表示される。
特開2015−049695号公報 特開2009−037392号公報 特開2005−148869号公報 特開2011−197924号公報
現場6において業務に利用できるインタフェースは、制限される場合がある。例えば、両手や高所での作業、梯子の昇降においては、タブレット端末の利用は適さず、例えばHMD61が利用される。ただし、HMD61は、タッチパッドとしての利用ができなかったり、画面が小さかったりする場合がある。また、分厚い手袋での作業においては、キーボードやリモコンの利用は適さず、例えば音声コマンドを入力するマイクが利用される。ただし、マイクは、入力に時間がかかったり、同時に複数の入力ができなかったりする場合がある。更に、安全な視覚の確保が求められる作業においては、シースルー型のHMD61の利用は適さず、例えば片目型のHMD61が利用される。ただし、片目型のHMD61は、画面が小さい場合がある。
図3は、図1に示した遠隔支援システムにおける音声コマンドによる画面切り替えの操作処理を説明する図である。
符号B1に示すように、ミッションカード#1の表示中に、例えば「次へ」という音声コマンドを入力すると、画面の表示はミッションカード#2に切り替えられる。また、符号B2に示すように、ミッションカード#2の表示中に、例えば「次へ」という音声コマンドを入力すると、画面の表示はミッションカード#3に切り替えられる。更に、符号B3に示すように、ミッションカード#3の表示中に、例えば「前へ」という音声コマンドを入力すると、画面の表示はミッションカード#2に切り替えられる。また、符号B4に示すように、ミッションカード#2の表示中に、例えば「前へ」という音声コマンドを入力すると、画面の表示はミッションカード#1に切り替えられる。
このような音声コマンドによる入力では、非連続な操作しかできず、操作手番数が多くなり、作業効率が低下するおそれがある。
1つの側面では、遠隔支援システムにおいて、効率的な入力インタフェースを提供することを目的とする。
1つの側面では、表示制御方法は、作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定し、作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成し、特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる。
1つの側面では、遠隔支援システムにおいて、効率的な入力インタフェースを提供する。
遠隔支援システムを例示する図である。 図1に示した遠隔支援システムにおけるミッションカードの表示処理を説明する図である。 図1に示した遠隔支援システムにおける音声コマンドによる画面切り替えの操作処理を説明する図である。 実施形態における情報処理装置のハードウェア構成例を模式的に示すブロック図である。 図4に示した情報処理装置のソフトウェア構成例を模式的に示すブロック図である。 図4に示した情報処理装置におけるミッションカードの表示切り替えの操作処理を説明する図である。 図6に示したミッションカードの表示切り替えの操作処理の詳細を説明する図である。 図4に示した情報処理装置における表示モードの切り替えの操作処理を説明する図である。 作業手順を例示するフローチャートである。 図4に示した情報処理装置における図9に示した作業手順の表示例を説明する図である。 図4に示した情報処理装置における作業漏れアラートの表示例を示す図である。 作業手順の具体例を示すフローチャートである。 図12に示した作業手順において必須作業を示すフローチャートである。 図8に示した表示モードの切り替えの操作処理の詳細例を示す図である。 図4に示した情報処理装置におけるミッションカードの一覧画面の遷移例を示す図である。 図11に示した作業漏れアラートの具体例を示す図である。 図4に示した情報処理装置における遠隔支援処理を説明するフローチャートである。 図17に示した表示作業一覧の演算処理を説明するフローチャートである。
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A〕実施形態の一例
〔A−1〕システム構成例
図4は、実施形態の一例における情報処理装置1のハードウェア構成例を模式的に示すブロック図である。
情報処理装置1は、作業者の遠隔支援を行なうための事務所等に設けられてよい。図4に示すように、情報処理装置1は、CPU11,メモリ部12,表示制御部13,記憶装置14,入力Interface(IF)15,外部記録媒体処理部16及び通信IF17を備える。
メモリ部12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)などである。メモリ部12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ部12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ部12のRAMは、一時記録メモリあるいはワーキングメモリとして利用されてよい。
表示制御部13は、表示装置130と接続され、表示装置130を制御する。表示装置130は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置130は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。
記憶装置14は、高IO性能の記憶装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。記憶装置14は、ストリームデータの中の少なくとも一部のエントリを記憶する。記憶装置14は、図17を用いて後述する表示作業一覧情報141を記憶する。
入力IF15は、マウス151やキーボード152等の入力装置と接続され、マウス151やキーボード152等の入力装置を制御してよい。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行なう。
外部記録媒体処理部16は、記録媒体160が装着可能に構成される。外部記録媒体処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
通信IF17は、外部装置との通信を可能にするためのインタフェースである。通信IF17は、情報処理装置1において生成された画像をHMD21(図6等を用いて後述)に送信する。また、通信IF17は、HMD21からの入力を受信する。
CPU11は、種々の制御や演算を行なう処理装置であり、メモリ部12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
情報処理装置1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、情報処理装置1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
図5は、図4に示した情報処理装置1のソフトウェア構成例を模式的に示すブロック図である。
情報処理装置1のCPU11は、音声処理部111,動作処理部112及び画面制御部113として機能する。
音声処理部111は、HMD21に搭載されたマイクに対して作業者が入力した音声を処理する。動作処理部112の詳細は、図8等を用いて後述する。
動作処理部112は、HMD21に搭載されたジャイロセンサに対して作業者が入力した動作に関する情報を処理する。動作処理部112の詳細は、図6及び図7等を用いて後述する。
画面制御部113は、音声処理部111及び動作処理部112からの入力に基づき、HMD21のディスプレイに表示される画面を制御する。画面制御部113の詳細は、図6〜図11等を用いて後述する。
図6は、図4に示した情報処理装置1におけるミッションカードの表示切り替えの操作処理を説明する図である。
作業者がHMD21で見るミッションカードは、複数枚(図示する例では、ミッションカード#1〜#3の3枚)が横方向に結合されている。作業者は、頭を右又は左に振る操作(符号C1及びC2参照)を行なうことによって、目的のミッションカードを見つける。これにより、符号C3に示すように、作業者の注目個所がHMD21のディスプレイに表示される。作業者の頭を振る操作は、HMD21に搭載されたジャイロセンサによって検知され、情報処理装置1の動作処理部112によって処理される。
別言すれば、画面制御部113は、HMD21のディスプレイに画像一覧が表示されている状態において、HMD21の使用者の動作に応じて、画像一覧のうちHMD21のディスプレイに表示させる領域を移動させる。
図7は、図6に示したミッションカードの表示切り替えの操作処理の詳細を説明する図である。
符号D1に示す例では、基準方向(例えば、作業者の胴体正面方向)と顔が向いている方向との角度の差で注目箇所(破線枠参照)を動かす速度が決定される。マウスホイールによるウェブブラウザの画面操作のように、当該角度の差がある状態が継続されると、注目箇所も動かされ続けられてよい。例えば、作業者が右を向いている間、注目箇所が右に動かされ続け、者業者が正面を向くと注目箇所の動きが止まる。
符号D2に示す例では、基準方向と顔が向いている方向との角度の差で1つの注目箇所(破線枠参照)が決定される。例えば、開始位置である作業#3のミッションカードが表示されている状態において、少し右に向くと作業#4のミッションカードが表示され、更に右に向くと作業#5のミッションカードが表示される。また、顔の向きを正面に戻すと、作業#3のミッションカードが再び表示される。
符号D3に示す例では、スマートフォンやタブレットでのスワイプ操作のように、頭を振る勢いに応じて注目箇所(破線枠参照)の動きの加速度が決定され、やがて注目箇所の動きが止まる。例えば、開始位置である作業#1のミッションカードが表示されている状態において、頭を強く右に振ると注目箇所が右へ動いて作業#5のミッションカードで止まり、頭を弱く右に振ると注目箇所が右へ動いて作業#2のミッションカードで止まる。
図8は、図4に示した情報処理装置1における表示モードの切り替えの操作処理を説明する図である。
図8に示すように、ミッションカードの表示は、符号E1に示す一覧表示状態と符号E2に示す画面固定状態とに分けられてよい。作業者は、一覧表示状態においてジャイロセンサを用いて注目作業が表示されたミッションカードを探し、探したミッションカードの表示を固定したい場合に音声コマンドによって画面固定状態に遷移させる。例えば、符号E3に示すように、「カード#3」という音声コマンドが入力されると、ミッションカード#3が固定されて表示される。これにより、作業者の顔の動きによって注目箇所が動くことがないため、作業結果の入力が容易になる。また、例えば、符号E4に示すように、画面固定状態において、「一覧」という音声コマンドが入力されると、ミッションカードは一覧表示状態に戻る。作業者による音声コマンドの入力は、HMD21に搭載されたマイクによって検知され、情報処理装置1の音声処理部111によって処理される。
別言すれば、画面制御部113は、HMD21のディスプレイに画像一覧が表示されている状態において、画像一覧に含まれる一の作業画像を特定する音声コマンドの入力に応じて、HMD21のディスプレイに一の作業画像を表示させる。また、画面制御部113は、HMD21のディスプレイに画像一覧に含まれるいずれかの作業画像が表示されている状態において、画像一覧を示す音声コマンドの入力に応じて、HMD21のディスプレイに画像一覧を表示させる。
図9は、作業手順を例示するフローチャートである。図10は、図4に示した情報処理装置1における図9に示した作業手順の表示例を説明する図である。
図9に示す作業手順では、確認Aの作業が実施され、確認Bの作業が実施され、確認Cの作業において入力結果が「はい」か「いいえ」かによって処理が分岐する。確認Cの作業の入力結果が「いいえ」の場合には、異常系処理Fが実施される。一方、確認Cの作業の入力結果が「はい」の場合には、入力Dの作業が実施され、選択肢Eの作業において入力結果が「1」か「2」か「3」かによって処理が分岐する。選択肢Eの作業の入力結果が「1」の場合には、作業が完了する。一方、選択肢Eの作業の入力結果が「2」の場合には異常系処理Gが実施され、選択肢Eの作業の入力結果が「3」の場合には異常系処理Hが実施される。
図9に示す作業手順は、図10に示すように、作業分岐点までのミッションカードが横に結合され、作業分岐点の入力によって更に先のカードが結合されて表示される。符号F1に示すように、始めは、最初の分岐点である確認Cまでのミッションカードが結合して表示される。確認Cで「はい」が選択された後に、符号F2に示すように、確認Cでの入力内容に合わせて右側に次の分岐点までのミッションカードである入力D及び選択肢Eが結合される。ここで、操作者が確認Cのミッションカードに戻って「いいえ」を選択した後には、符号F3に示すように、確認Cのミッションカードの右側に結合されるミッションカードが異常系処理Fに更新される。
別言すれば、画面制御部113は、作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、作業フローに基づき、分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定する特定部の一例として機能する。また、画面制御部113は、作業画像を作業工程に対応付けて記憶する記憶装置14を参照して、分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成する生成部の一例として機能する。更に、画面制御部113は、特定の指示を受け付けると、生成した画像一覧をHMD21のディスプレイに表示させる表示処理部の一例として機能する。ここで、特定の指示は、作業結果の入力であってよい。
図11は、図4に示した情報処理装置1における作業漏れアラートの表示例を示す図である。
入力必須のミッションカードは配色等によって強調表示されてよい。また、入力必須のミッションカードについて、入力済みと未入力とで配色等の強調方法が分けられてよい。また、入力必須であるが未入力のミッションカードがある場合には、作業完了ができない旨が表示されてよい。
図11に示す例では、符号G1に示すように、確認Cが入力必須で入力済みのミッションカードとして太枠で強調表示されている。また、符号G2に示すように、選択肢Eが入力必須であるが未入力のミッションカードとして点線枠で強調表示されている。更に、符号G3に示すように、作業完了画面では、選択肢Eのミッションカードで未入力であるため、作業が完了できない旨が表示されている。
入力必須とされるミッションカードとしては、分岐点となるミッションカードと、値入力やカメラ撮影等の結果入力を伴うミッションカードが設定されてよい。
別言すれば、画面制御部113は、複数の作業工程のうち分岐点となる作業工程及び作業結果の入力が実施される作業工程について、入力必須の作業工程に設定する。また、画面制御部113は、入力必須の作業工程のうち、入力済みの作業工程と未入力の作業工程とを識別可能に強調表示させる。
図12は、作業手順の具体例を示すフローチャートである。図13は、図12に示した作業手順において必須作業を示すフローチャートである。
図12に示す作業は、「つまみを動かしながら計器の値を確認する」ものである。具体的には、作業#1において操作盤のカバーを鍵を用いて開け、作業#2においてつまみの方向がAになっていることを確認し、作業#3において計器の値を入力し、作業#4において計器の値は正常であったかを入力する。作業#4において計器の値が異常であった場合は作業#5’において支援者に電話をかける一方、作業#4において計器の値が正常であった場合は作業#5においてつまみの方向をAからBに変更する。作業#6において計器の値を入力し、作業#7において計器の値は正常であったかを入力する。作業#7において計器の値が異常であった場合は作業#8’において支援者に電話をかける一方、作業#7において計器の値が正常であった場合は作業#8においてつまみの方向をBからAに戻す。そして、作業#9において操作盤のカバーを閉じて鍵をしめ、作業が完了する。
図13に示すように、図12に示した操作手順では、作業#3,#4,#6,#7が結果入力を伴うミッションカード又は分岐点となるミッションカードとして、自動的に入力必須に設定される。
図14は、図8に示した表示モードの切り替えの操作処理の詳細例を示す図である。
図示する例では、符号I1に示す一覧画面と、符号I2に示す画面詳細とが切り替えられる。符号I1に示す一覧画面では、最初の選択肢までのミッションカードが結合して表示されている。また、入力必須のミッションカードは、強調表示されてよい。一覧画面と画面詳細との切り替えは、音声コマンドによって実施される。
例えば、一覧画面において、符号I3に示すように音声コマンドとして「1」が入力されればミッションカード#1の画面詳細が表示され、符号I4に示すように音声コマンドとして「2」が入力されればミッションカード#2の画面詳細が表示される。また、一覧画面において、符号I5に示すように音声コマンドとして「3」が入力されればミッションカード#3の画面詳細が表示され、符号I6に示すように音声コマンドとして「4」が入力されればミッションカード#4の画面詳細が表示される。更に、画面詳細において、符号I7に示すように、音声コマンドとして「一覧」が入力されれば、ミッションカードの一覧画面が表示される。
図15は、図4に示した情報処理装置1におけるミッションカードの一覧画面の遷移例を示す図である。
符号J1において、一覧画面には、ミッションカード#1〜#4が表示されており、ミッションカード#3,#4が入力必須として設定されている(太線枠参照)。ここで、ミッションカード#3,#4の作業結果として正常値が入力されると、符号J2に示すように、一覧画面には、ミッションカード#1〜#4に加えて、ミッションカード#5〜#6が表示される。なお、ミッションカード#3,#4は入力済みの必須作業として点線枠で表示され、ミッションカード#6,#7は未入力の必須作業として太線枠で表示されている。符号J1に示した一覧画面の状態において、ミッションカード#3,#4の入力結果として異常値が入力されると、符号J3に示すように、ミッションカード#1〜#4に加えて、「支援者の呼出を行う」ことを指示するミッションカード#5が表示される。なお、ミッションカード#3,#4は入力済みの必須作業として点線枠で表示されている。
このように、一覧画面は、入力結果によって動的に次の選択肢のミッションカードまで結合されるように表示が遷移される。
図16は、図11に示した作業漏れアラートの具体例を示す図である。
符号K1に示す一覧画面には、ミッションカード#1〜#9及び作業完了画面が表示されている。ミッションカード#3,#4,#6は入力済みであるとして点線枠で強調表示されているが、ミッションカード#7は未入力であるとして太線枠で強調表示されている。このように、未入力のミッションカードがあると、符号K11に示すように、作業完了画面において作業が完了できない旨が表示される。
符号K1に示した一覧画面の状態で、ミッションカード#7の作業の結果が入力されると、符号K2に示すように、ミッションカード#7が入力済みであるとして点線枠で強調表示される。また、符号K21に示すように、作業完了画面においては、作業を完了するか否かを作業者に確認する画面が表示される。
〔A−2〕動作例
図4に示した情報処理装置1における遠隔支援処理を、図17に示すフローチャート(ステップS11〜S18)に従って説明する。
画面制御部113は、作業が開始されると、作業詳細をHMD21のディスプレイに表示させる(ステップS11)。
音声処理部111及び動作処理部112は、ユーザ(別言すれば、作業者)の入力を受け付ける(ステップS12)。
画面制御部113は、入力内容が、作業結果の入力であるか、一覧表示であるかを判定する(ステップS13)。
入力内容が作業結果の入力である場合には(ステップS13の“作業結果入力”ルート参照)、画面制御部113は、表示作業一覧演算を行ない、表示作業一覧情報141を記憶装置14に記憶させる(ステップS14)。なお、表示作業一覧演算の詳細は、図18を用いて後述する。
画面制御部113は、現在処理しているミッションカードが最後の作業であるかを判定する(ステップS15)。
最後の作業でない場合には(ステップS15のNOルート参照)、処理はステップS11へ戻る。
一方、最後の作業である場合には(ステップS15のYESルート参照)、画面制御部113は、必須作業がすべて入力済みであるかを判定する(ステップS16)。
必須作業の少なくとも一部が入力済みでない場合には(ステップS16のNOルート参照)、処理はステップS11へ戻る。
一方、必須作業がすべて入力済みである場合には(ステップS16のYESルート参照)、作業を完了させて、遠隔支援処理は終了する。
ステップS13において、入力内容が一覧表示である場合には(ステップS13の“一覧表示”ルート参照)、画面制御部113は、表示作業一覧情報141に基づき、作業一覧を表示する(ステップS17)。
音声処理部111及び動作処理部112は、ユーザの入力を受け付け(ステップS18)、処理はステップS11へ戻る。
次に、図17に示した表示作業一覧の演算処理を、図18に示すフローチャート(ステップS141〜S148)に従って説明する。
画面制御部113は、最初の作業分岐点までのミッションカードを一覧表示する作業のミッションカードに結合する(ステップS141)。
音声処理部111及び動作処理部112は、ユーザの入力を受け付ける(ステップS142)。
画面制御部113は、結果が入力された作業は分岐点であるかを判定する(ステップS143)。
結果が入力された作業が分岐点でない場合には(ステップS143のNOルート参照)、処理はステップS142へ戻る。
一方、結果が入力された作業が分岐点である場合には(ステップS143のYESルート参照)、画面制御部113は、結果が入力された作業が一覧表示に含まれる最後の作業であるかを判定する(ステップS144)。
結果が入力された作業が一覧表示に含まれる最後の作業でない場合には(ステップS144のNOルート参照)、画面制御部113は、入力された作業から後ろの作業のミッションカードを一覧表示から削除する(ステップS145)。そして、処理はステップS146へ進む。
一方、結果が入力された作業が一覧表示に含まれる最後の作業である場合には(ステップS144のYESルート参照)、入力結果に沿った作業の分岐先に次の分岐点があるかを判定する(ステップS146)。
入力結果に沿った作業の分岐先に次の分岐点がない場合には(ステップS146のNOルート参照)、最後の作業のミッションカードまでを一覧表示する作業のミッションカードに結合する(ステップS147)。そして、処理はステップS142へ戻る。
入力結果に沿った作業の分岐先に次の分岐点がある場合には(ステップS146のYESルート参照)、結果が入力された作業の次の作業分岐点までのミッションカードを一覧表示に追加する(ステップS148)。そして、処理はステップS142へ戻る。
〔A−3〕効果
上述した実施形態の一例における表示制御方法,情報処理装置1及び表示制御プログラムによれば、例えば、以下の作用効果を奏することができる。
画面制御部113は、作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、作業フローに基づき、分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定する。また、画面制御部113は、作業画像を作業工程に対応付けて記憶する記憶装置14を参照して、分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成する。更に、画面制御部113は、特定の指示を受け付けると、生成した画像一覧をHMD21のディスプレイに表示させる。
これにより、遠隔支援システムにおいて、効率的な入力インタフェースを提供できる。具体的には、分岐結果に応じた作業画像を抽出して画像一覧に含める一方、実際には実施されないような作業工程の作業画像は画像一覧に含まれないため、画像一覧の視認性が向上する。また、実際には使用されないようなルートに対応した画面一覧を記憶するための記憶容量をHMD21にて消費されることがなく、HMD21の記憶容量を抑制することができる。
特定の指示は、作業結果の入力である。これにより、作業者は表示された作業画像に基づき作業を開始することになるが、その作業時間内に作業画像の連結処理が行なわれるため、連結処理の完了のための待ち時間が発生しない。別言すれば、画像一覧の表示指示を行なうタイミングまでに、画像一覧の生成を完了させることができる。
画面制御部113は、複数の作業工程のうち分岐点となる作業工程及び作業結果の入力が実施される作業工程について、入力必須の作業工程に設定する。これにより、作業者は、入力必須の作業工程を視認できる。
画面制御部113は、入力必須の作業工程のうち、入力済みの作業工程と未入力の作業工程とを識別可能に強調表示させる。これにより、作業者は、入力済みの作業工程と未入力の作業工程とを視認できる。
画面制御部113は、HMD21のディスプレイに画像一覧が表示されている状態において、画像一覧に含まれる一の作業画像を特定する音声コマンドの入力に応じて、HMD21のディスプレイに一の作業画像を表示させる。また、画面制御部113は、HMD21のディスプレイに画像一覧に含まれるいずれかの作業画像が表示されている状態において、画像一覧を示す音声コマンドの入力に応じて、HMD21のディスプレイに画像一覧を表示させる。これにより、作業者は、両手が塞がっている場合においても、HMD21のディスプレイにおいて、画像一覧の画面と各作業画面とを容易に切り替えることができる。
画面制御部113は、HMD21のディスプレイに画像一覧が表示されている状態において、HMD21の使用者の動作に応じて、画像一覧のうちHMD21のディスプレイに表示させる領域を移動させる。これにより、両手が塞がっている場合においても、HMD21のディスプレイにおいて、画像一覧の表示領域を容易に移動させることができる。
〔B〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
〔C〕付記
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定し、
作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成し、
特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
前記特定の指示は、前記作業結果の入力である、
ことを特徴とする付記1に記載の表示制御方法。
(付記3)
前記複数の作業工程のうち分岐点となる作業工程及び前記作業結果の入力が実施される作業工程について、入力必須の作業工程に設定する、
処理を前記コンピュータが実行することを特徴とする付記1又は2に記載の表示制御方法。
(付記4)
前記入力必須の作業工程のうち、入力済みの作業工程と未入力の作業工程とを識別可能に強調表示させる、
処理を前記コンピュータが実行することを特徴とする付記3に記載の表示制御方法。
(付記5)
前記表示装置に前記画像一覧が表示されている状態において、前記画像一覧に含まれる一の作業画像を特定する音声コマンドの入力に応じて、前記表示装置に前記一の作業画像を表示させ、
前記表示装置に前記画像一覧に含まれるいずれかの作業画像が表示されている状態において、前記画像一覧を示す音声コマンドの入力に応じて、前記表示装置に前記画像一覧を表示させる、
処理を前記コンピュータが実行することを特徴とする付記1〜4のいずれか1項に記載の表示制御方法。
(付記6)
前記表示装置に前記画像一覧が表示されている状態において、前記表示装置の使用者の動作に応じて、前記画像一覧のうち前記表示装置に表示させる領域を移動させる、
処理を前記コンピュータが実行することを特徴とする付記1〜5のいずれか1項に記載の表示制御方法。
(付記7)
作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定する特定部と、
作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成する生成部と、
特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる表示処理部と、
を備えることを特徴とする情報処理装置。
(付記8)
前記特定の指示は、前記作業結果の入力である、
ことを特徴とする付記7に記載の情報処理装置。
(付記9)
前記表示処理部は、前記複数の作業工程のうち分岐点となる作業工程及び前記作業結果の入力が実施される作業工程について、入力必須の作業工程に設定する、
ことを特徴とする付記7又は8に記載の情報処理装置。
(付記10)
前記表示処理部は、前記入力必須の作業工程のうち、入力済みの作業工程と未入力の作業工程とを識別可能に強調表示させる、
処理を前記コンピュータが実行することを特徴とする付記9に記載の情報処理装置。
(付記11)
前記表示処理部は、前記表示装置に前記画像一覧が表示されている状態において、前記画像一覧に含まれる一の作業画像を特定する音声コマンドの入力に応じて、前記表示装置に前記一の作業画像を表示させ、
前記表示処理部は、前記表示装置に前記画像一覧に含まれるいずれかの作業画像が表示されている状態において、前記画像一覧を示す音声コマンドの入力に応じて、前記表示装置に前記画像一覧を表示させる、
ことを特徴とする付記7〜10のいずれか1項に記載の情報処理装置。
(付記12)
前記表示処理部は、前記表示装置に前記画像一覧が表示されている状態において、前記表示装置の使用者の動作に応じて、前記画像一覧のうち前記表示装置に表示させる領域を移動させる、
ことを特徴とする付記7〜11のいずれか1項に記載の情報処理装置。
(付記13)
作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定し、
作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成し、
特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記14)
前記特定の指示は、前記作業結果の入力である、
ことを特徴とする付記13に記載の表示制御プログラム。
(付記15)
前記複数の作業工程のうち分岐点となる作業工程及び前記作業結果の入力が実施される作業工程について、入力必須の作業工程に設定する、
処理を前記コンピュータに実行させることを特徴とする付記13又は14に記載の表示制御プログラム。
(付記16)
前記入力必須の作業工程のうち、入力済みの作業工程と未入力の作業工程とを識別可能に強調表示させる、
処理を前記コンピュータに実行させることを特徴とする付記15に記載の表示制御プログラム。
(付記17)
前記表示装置に前記画像一覧が表示されている状態において、前記画像一覧に含まれる一の作業画像を特定する音声コマンドの入力に応じて、前記表示装置に前記一の作業画像を表示させ、
前記表示装置に前記画像一覧に含まれるいずれかの作業画像が表示されている状態において、前記画像一覧を示す音声コマンドの入力に応じて、前記表示装置に前記画像一覧を表示させる、
処理を前記コンピュータに実行させることを特徴とする付記13〜16のいずれか1項に記載の表示制御プログラム。
(付記18)
前記表示装置に前記画像一覧が表示されている状態において、前記表示装置の使用者の動作に応じて、前記画像一覧のうち前記表示装置に表示させる領域を移動させる、
処理を前記コンピュータに実行させることを特徴とする付記13〜17のいずれか1項に記載の表示制御プログラム。
1 :情報処理装置
11 :CPU
111 :音声処理部
112 :動作処理部
113 :画面制御部
12 :メモリ部
13 :表示制御部
130 :表示装置
14 :記憶装置
141 :表示作業一覧情報
151 :マウス
152 :キーボード
16 :外部記録媒体処理部
160 :記録媒体
21,61:HMD
6 :現場
7 :事務所
8 :クラウド

Claims (8)

  1. 作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定し、
    作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成し、
    特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  2. 前記特定の指示は、前記作業結果の入力である、
    ことを特徴とする請求項1に記載の表示制御方法。
  3. 前記複数の作業工程のうち分岐点となる作業工程及び前記作業結果の入力が実施される作業工程について、入力必須の作業工程に設定する、
    処理を前記コンピュータが実行することを特徴とする請求項1又は2に記載の表示制御方法。
  4. 前記入力必須の作業工程のうち、入力済みの作業工程と未入力の作業工程とを識別可能に強調表示させる、
    処理を前記コンピュータが実行することを特徴とする請求項3に記載の表示制御方法。
  5. 前記表示装置に前記画像一覧が表示されている状態において、前記画像一覧に含まれる一の作業画像を特定する音声コマンドの入力に応じて、前記表示装置に前記一の作業画像を表示させ、
    前記表示装置に前記画像一覧に含まれるいずれかの作業画像が表示されている状態において、前記画像一覧を示す音声コマンドの入力に応じて、前記表示装置に前記画像一覧を表示させる、
    処理を前記コンピュータが実行することを特徴とする請求項1〜4のいずれか1項に記載の表示制御方法。
  6. 前記表示装置に前記画像一覧が表示されている状態において、前記表示装置の使用者の動作に応じて、前記画像一覧のうち前記表示装置に表示させる領域を移動させる、
    処理を前記コンピュータが実行することを特徴とする請求項1〜5のいずれか1項に記載の表示制御方法。
  7. 作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定する特定部と、
    作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成する生成部と、
    特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる表示処理部と、
    を備えることを特徴とする情報処理装置。
  8. 作業フローに含まれる複数の作業工程のうち作業結果に応じた複数の分岐先が定義された分岐元の作業工程について作業結果の入力を受け付けると、前記作業フローに基づき、前記分岐元の作業工程に先行する作業工程と、入力された前記作業結果に応じた分岐先の作業工程とを特定し、
    作業画像を作業工程に対応付けて記憶する記憶装置を参照して、前記分岐元の作業工程に先行する作業工程に対応付けられた作業画像と、前記分岐先の作業工程に対応付けられた作業画像とを含む画像一覧を生成し、
    特定の指示を受け付けると、生成した前記画像一覧を表示装置に表示させる、
    処理をコンピュータに実行させることを特徴とする表示制御プログラム。
JP2020054320A 2020-03-25 2020-03-25 表示制御方法,情報処理装置及び表示制御プログラム Pending JP2021157267A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020054320A JP2021157267A (ja) 2020-03-25 2020-03-25 表示制御方法,情報処理装置及び表示制御プログラム
US17/204,029 US20210303113A1 (en) 2020-03-25 2021-03-17 Display control method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054320A JP2021157267A (ja) 2020-03-25 2020-03-25 表示制御方法,情報処理装置及び表示制御プログラム

Publications (1)

Publication Number Publication Date
JP2021157267A true JP2021157267A (ja) 2021-10-07

Family

ID=77856061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054320A Pending JP2021157267A (ja) 2020-03-25 2020-03-25 表示制御方法,情報処理装置及び表示制御プログラム

Country Status (2)

Country Link
US (1) US20210303113A1 (ja)
JP (1) JP2021157267A (ja)

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517663A (en) * 1993-03-22 1996-05-14 Kahn; Kenneth M. Animated user interface for computer program creation, control and execution
US5818715A (en) * 1994-04-18 1998-10-06 International Business Machines Corporation Method and system for efficiently modifying a project model in response to an update to the project model
DE19535084A1 (de) * 1995-09-21 1997-03-27 Ibm Verfahren und Vorrichtung zur dynamischen Optimierung von durch ein Computersystem gemanagten Geschäftsprozessen
US6175857B1 (en) * 1997-04-30 2001-01-16 Sony Corporation Method and apparatus for processing attached e-mail data and storage medium for processing program for attached data
US5987422A (en) * 1997-05-29 1999-11-16 Oracle Corporation Method for executing a procedure that requires input from a role
US6621505B1 (en) * 1997-09-30 2003-09-16 Journee Software Corp. Dynamic process-based enterprise computing system and method
US6003011A (en) * 1998-01-07 1999-12-14 Xerox Corporation Workflow management system wherein ad-hoc process instances can be generalized
US6349238B1 (en) * 1998-09-16 2002-02-19 Mci Worldcom, Inc. System and method for managing the workflow for processing service orders among a variety of organizations within a telecommunications company
JP2000242392A (ja) * 1999-02-12 2000-09-08 Dbm Korea:Kk 動的な情報ディスプレイのためのコンピュータシステム及びその方法
US6243615B1 (en) * 1999-09-09 2001-06-05 Aegis Analytical Corporation System for analyzing and improving pharmaceutical and other capital-intensive manufacturing processes
US7184966B1 (en) * 1999-12-30 2007-02-27 Honeywell International Inc. Systems and methods for remote role-based collaborative work environment
WO2002019272A1 (en) * 2000-09-01 2002-03-07 Togethersoft Corporation Methods and systems for animating a workflow and a project plan
US7653566B2 (en) * 2000-11-30 2010-01-26 Handysoft Global Corporation Systems and methods for automating a process of business decision making and workflow
US7802174B2 (en) * 2000-12-22 2010-09-21 Oracle International Corporation Domain based workflows
US7581011B2 (en) * 2000-12-22 2009-08-25 Oracle International Corporation Template based workflow definition
US8271882B2 (en) * 2002-04-24 2012-09-18 Sap Ag Processing life and work events
US7114037B2 (en) * 2002-07-11 2006-09-26 Oracle International Corporation Employing local data stores to maintain data during workflows
US7272820B2 (en) * 2002-12-12 2007-09-18 Extrapoles Pty Limited Graphical development of fully executable transactional workflow applications with adaptive high-performance capacity
US7168077B2 (en) * 2003-01-31 2007-01-23 Handysoft Corporation System and method of executing and controlling workflow processes
US7379945B1 (en) * 2003-10-20 2008-05-27 International Business Machines Corporation Virtual foldering system for blending process and content in a collaborative environment
US20080209417A1 (en) * 2007-02-22 2008-08-28 Gabriel Jakobson Method and system of project management and task collaboration over instant messenger
US20080249816A1 (en) * 2007-04-05 2008-10-09 Luke Khalilian System and Method for Monitoring Workflow in a Project Management System

Also Published As

Publication number Publication date
US20210303113A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US10013162B2 (en) Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US10365819B2 (en) Device, method, and graphical user interface for displaying a character input user interface
JP6097835B2 (ja) 複数のページを有するフォルダを管理するためのデバイス、方法、及びグラフィカルユーザインタフェース
TWI532976B (zh) 用於產生用於在車輛之互動式通信系統上顯示之多個使用者介面之行動器件及其相關方法及機器可讀媒體
AU2011358860B2 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
AU2022203796A1 (en) Device, method, and graphical user interface for media playback
US9632618B2 (en) Expanding touch zones of graphical user interface widgets displayed on a screen of a device without programming changes
AU2019219816A1 (en) Device, method, and graphical user interface for managing folders
KR20200090969A (ko) 잠금된 디바이스에서 애플리케이션에 액세스하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
JPWO2008035489A1 (ja) ナビゲーションシステムおよび同システムにおける操作ガイダンス表示方法
NL2008029A (en) Device, method, and graphical user interface for switching between two user interfaces.
EP3249361B1 (en) Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
US10331340B2 (en) Device and method for receiving character input through the same
US20170357950A1 (en) Device, Method, and Graphical User Interface for Changing the Time of a Calendar Event
US9575620B2 (en) Method, apparatus and computer program product for graphically enhancing the user interface of a device
JP2018535462A (ja) タッチヒートマップ
JP2014142707A (ja) 情報処理装置、情報処理方法及びプログラム
US11550467B2 (en) Device, method, and graphical user interface for managing data stored on a device
JP2021157267A (ja) 表示制御方法,情報処理装置及び表示制御プログラム
CN110075534B (zh) 实时语音方法与装置、存储介质、电子设备
JP2010066912A (ja) 情報処理装置及びプログラム
WO2022135259A1 (zh) 语音输入方法、装置及电子设备
EP2827256A2 (en) Method for editing object and electronic device therefor
JP2015041244A (ja) 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
JP2014167829A (ja) 入力支援装置、入力支援方法、及び、プログラム