JP2022030551A - プログラムおよび電子デバイス - Google Patents

プログラムおよび電子デバイス Download PDF

Info

Publication number
JP2022030551A
JP2022030551A JP2020134648A JP2020134648A JP2022030551A JP 2022030551 A JP2022030551 A JP 2022030551A JP 2020134648 A JP2020134648 A JP 2020134648A JP 2020134648 A JP2020134648 A JP 2020134648A JP 2022030551 A JP2022030551 A JP 2022030551A
Authority
JP
Japan
Prior art keywords
type
action
gesture
display
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020134648A
Other languages
English (en)
Inventor
諒一 佐藤
Ryoichi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2020134648A priority Critical patent/JP2022030551A/ja
Priority to PCT/JP2021/026769 priority patent/WO2022030221A1/ja
Publication of JP2022030551A publication Critical patent/JP2022030551A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Abstract

【課題】モーションセンサからの出力信号に基づいてジェスチャによる入力操作を受け付けるプログラムおよび電子デバイスにおいて、ユーザの使い勝手を向上させる技術を提供すること。【解決手段】ミリ波レーダ15と表示画面131とを備える電子デバイス1は、ラベル作成アプリ22を実行することにより、ミリ波レーダ15からの出力結果に基づいて、特定のジェスチャを検知し、さらに、特定のジェスチャが検知された場合、表示画面131に表示されているオブジェクトのうちの1つである特定オブジェクトについてオブジェクトの種類を取得し、取得したオブジェクトの種類に割り当てられた動作を特定し、特定された動作を実行する。表示画面131に表示可能なオブジェクトの種類ごとに、特定のジェスチャに応じた動作が割り当てられている。【選択図】図3

Description

本明細書に開示される技術分野は、モーションセンサからの出力信号に基づいてジェスチャによる入力操作を受け付けるプログラムおよび電子デバイスに関する。
モーションセンサを備える電子デバイスが実用化されており、モーションセンサからの出力信号に基づく入力操作を受け付ける技術が知られている。例えば特許文献1には、マウス、タッチパネル、モーションセンサ、の3種類の入力手段を備える情報処理装置であって、入力手段の変更を検知し、変更後の入力手段に応じた表示態様によって、オブジェクトを表示する技術が開示されている。
国際公開第2015/029222号
特許文献1に開示されている技術では、入力手段ごとに1つのオブジェクトに対する表示態様が割り当てられており、モーションセンサによる入力操作であった場合に、他の入力手段による入力操作と異なる表示態様によってオブジェクトを表示するものであるが、入力操作があった後の動作についての詳細な開示は無い。そのため、モーションセンサによる入力操作であるジェスチャを検知した後の動作については改善の余地がある。
本明細書は、モーションセンサからの出力信号に基づいてジェスチャによる入力操作を受け付けるプログラムおよび電子デバイスにおいて、ユーザの使い勝手を向上させる技術を開示する。
この課題の解決を目的としてなされたプログラムは、モーションセンサと表示器とを備える電子デバイスのコンピュータによって実行可能なプログラムであって、前記コンピュータに、前記モーションセンサからの出力結果に基づいて、特定のジェスチャを検知する検知処理を実行させ、さらに前記コンピュータに、前記検知処理によって前記特定のジェスチャが検知された場合、前記表示器に表示されているオブジェクトのうちの1つである特定オブジェクトについてオブジェクトの種類を取得する種類取得処理と、前記表示器に表示可能なオブジェクトの種類ごとに前記特定のジェスチャに応じた動作が割り当てられており、前記種類取得処理にて取得した前記オブジェクトの種類に割り当てられた動作を特定する動作特定処理と、前記特定オブジェクトについて前記動作特定処理にて特定された動作を実行する動作実行処理と、を実行させる、ことを特徴としている。
本明細書に開示されるプログラムを実行することで、電子デバイスは、特定のジェスチャを検知した場合、表示器に表示されているオブジェクトの1つの種類を取得し、オブジェクトの種類ごとに特定のジェスチャに割り当てられた動作を実行する。従って、1つのジェスチャを検知したことに応じて、オブジェクトの種類によって異なる動作が実行されるので、ジェスチャによる入力の使い勝手が向上する。
上記プログラムの機能を実現する電子デバイス、プログラムの機能を実現するための制御方法、プログラムを格納するコンピュータにて読取可能な記憶媒体も、新規で有用である。
本明細書に開示される技術によれば、モーションセンサからの出力信号に基づいてジェスチャによる入力操作を受け付けるプログラムおよび電子デバイスにおいて、ユーザの使い勝手を向上させる技術が実現される。
実施の形態にかかる電子デバイスの概略構成図である。 ラベル作成処理の手順を示すフローチャートである。 編集画面の例を示す説明図である。 割り当て情報の例を示す説明図である。 テキストオブジェクトの編集画面の例を示す説明図である。 シンボルオブジェクトの編集画面の例を示す説明図である。 写真オブジェクトの編集画面の例を示す説明図である。
以下、電子デバイスに組み込まれたプログラムを具体化した実施の形態について、添付図面を参照しつつ詳細に説明する。本形態は、スマートフォンなどの表示画面を備える電子デバイスに組み込まれたアプリケーションプログラム(以下、「アプリ」とする)を開示するものである。
本形態の電子デバイス1は、図1に示すように、CPU11と、メモリ12と、を含むコントローラ10を備える。さらに、電子デバイス1は、ユーザインタフェース(以下、「ユーザIF」とする)13と、通信インタフェース(以下、「通信IF」とする)14と、ミリ波レーダ15と、を備え、これらがコントローラ10に電気的に接続されている。電子デバイス1は、例えば、プリンタ3に印刷させるための各種のアプリを実行可能な装置である。なお、図1中のコントローラ10は、電子デバイス1の制御に利用されるハードウェアやソフトウェアを纏めた総称であって、実際に電子デバイス1に存在する単一のハードウェアを表すとは限らない。
CPU11は、メモリ12から読み出したプログラムに従って、また、ユーザの操作に基づいて、各種の処理を実行する。CPU11は、コンピュータの一例である。メモリ12は、例えば、ROM、RAM、HDD、フラッシュメモリ、を含み、各種のプログラムやデータを記憶する。
ユーザIF13は、表示機能を備えるハードウェアである表示画面131を含み、さらに、操作受付機能を備えるタッチパネルである。表示画面131は、表示器の一例である。本形態の電子デバイス1のユーザIF13は、指先などの接触や押圧を検知可能であり、その接触や押圧の位置を取得できる。なお、ユーザIF13は、情報を表示するディスプレイ等と、ユーザによる入力操作を受け付けるキーボードやマウス等と、の組み合わせを含んでいても良い。
通信IF14は、プリンタ3等の外部装置との通信を行うためのハードウェアを含む。通信IF14の通信方式は、Wi-Fi(登録商標)、Bluetooth(登録商標)、USB等である。また、電子デバイス1は、通信IF14として、複数の通信方式に対応可能であっても良い。
ミリ波レーダ15は、電磁波を送出してその反射波を受信し、受信した反射波に基づいて波形信号を出力するハードウェアを含む。ミリ波レーダ15は、モーションセンサの一例である。ミリ波レーダ15は、例えば、波長がミリメートル単位あるいはミリメートルより小さい単位であって、周波数が60GHz前後の周波数変調信号である電磁波を送出し、反射波の重ね合わせを受信する。ミリ波レーダ15が、受信した反射波に基づく波形信号を出力することで、本形態の電子デバイス1は、その波形信号に基づいて、例えば、電子デバイス1の近辺の物体の位置や動きをミリメートル単位で検出できる。
本形態の電子デバイス1のメモリ12には、図1に示すように、オペレーティングシステム(以下、「OS」とする)21と、ラベル作成アプリ22と、が組み込まれている。OS21は、複数のタスクを管理して切り換えることにより複数のタスクを並行して処理できるマルチタスクOSであり、例えば、iOS(登録商標)、Android(登録商標)、Windows(登録商標)、macOS(登録商標)、Linux(登録商標)のいずれかである。
本形態のラベル作成アプリ22は、プリンタ3を使用して各種のラベルを作成するためのアプリであり、ミリ波レーダ15の出力する波形信号に基づいてユーザのジェスチャを検知し、その検知結果に対応する動作を電子デバイス1に実行させるアプリである。ラベル作成アプリ22は、プログラムの一例である。なお、本形態のラベル作成アプリ22は、ユーザの実行指示に基づいて独立して実行可能なプログラムでも良いし、他のプログラムの実行中にそのプログラムから呼び出されて実行されるプログラムでも良い。
本形態のラベル作成アプリ22は、プリンタ3に印刷させる印刷対象の画像データとして、テキスト、シンボル、写真等の各種のオブジェクトを含む画像を表示画面131に表示可能であり、表示中の各オブジェクトへのユーザの編集指示を受け付ける。本形態のラベル作成アプリ22は、タップ等のユーザIF13への接触による操作、ユーザIF13に非接触でのジェスチャによる操作、によってユーザの指示を受け付ける。なお、本形態のラベル作成アプリ22は、ミリ波レーダ15によって検知されたジェスチャの情報を、OS21を介して取得できる。
本形態のプリンタ3は、少なくとも印刷機能と通信機能とを有し、電子デバイス1等から受信したコマンドに対応する動作を行う。本形態のプリンタ3は、例えば、熱転写方式の印刷ヘッドを備え、ロール状に巻き取られたラベル紙を収容し、ラベル紙を巻き出しつつ印刷を行う、いわゆるラベルプリンタである。プリンタ3は、例えば、電子デバイス1等から受信した印刷コマンドに基づいて、収容されているラベル紙への画像の印刷とラベル紙の搬送とを行い、印刷済みの部分を機外へ突出させることでラベルを作成する。
続いて、本形態のラベル作成アプリ22を利用してプリンタ3にラベルを作成させるためのラベル作成処理の手順について、図2のフローチャートを参照して説明する。ラベル作成処理は、ラベル作成アプリ22の起動指示を受け付けたことを契機に、電子デバイス1のCPU11にて実行される。なお、以下の処理およびフローチャートの各処理ステップは、基本的に、各プログラムに記述された命令に従ったCPU11の処理を示す。CPU11による処理は、電子デバイス1のOS21のAPIを用いたハードウェア制御も含む。本明細書では、OS21の記載を省略してプログラムの動作を説明する。
ラベル作成処理では、CPU11は、まず、ユーザIF13にトップ画面を表示させる(S101)。トップ画面には、例えば、タイトル、トップ画像、ラベルの使用例や作成方法の表示を受け付けるボタン、テンプレートの表示を受け付けるボタン、が含まれる。ユーザは、ユーザIF13への操作によって、例えば、表示内容を変更させて、各種の情報を得ることができる。
CPU11は、テンプレートの選択を受け付けたか否かを判断する(S102)。本形態のラベル作成アプリ22は、ラベル作成用のひな形の画像データとして、文字列、シンボル、コード画像、枠画像などのサンプルを含む複数のテンプレートを有し、テンプレートの選択と、選択されたテンプレートの編集と、を受け付ける。CPU11は、例えば、トップ画面にてテンプレートの表示を受け付けるボタンへのタップを受け付けた場合に、各種のテンプレートを表示させ、さらに、表示中のテンプレートの1つへのタップによってテンプレートの選択を受け付ける。
テンプレートの選択を受け付けていないと判断した場合(S102:NO)、CPU11は、ユーザの操作に従って、各種の動作を行い、テンプレートの選択を受け付けるまで待機する。なお、ラベル作成処理の終了指示を受け付けた場合には、CPU11は、ラベル作成処理を終了する。
テンプレートの選択を受け付けたと判断した場合(S102:YES)、CPU11は、選択されたテンプレートの編集を受け付ける編集画面を、ユーザIF13の表示画面131に表示させる(S105)。編集画面が表示されている状態の電子デバイス1の外観の例を図3に示す。図3は、ラベル作成アプリ22の編集画面50を表示している例であり、電子デバイス1のうち、ユーザIF13の表示画面131を含む面を示す図である。図3に示すように、表示画面131は、電子デバイス1の筐体の一面の中央に配置され、この面のほぼ全てを占めている。本形態のミリ波レーダ15は、表示画面131と同じ面であって、表示画面131の外部の筐体表面に設けられ、表示画面131の近くの物体の動きを検出できる。
なお、図3に示す編集画面50には、テンプレート画像51の他、印刷設定ボタン53、印刷ボタン54、保存ボタン55など、各種のボタンが表示されている。CPU11は、表示中の各ボタンへのタップを検知した場合、そのボタンへの操作を受け付けたと判断する。また、図3に示す例の編集画面50に含まれるテンプレート画像51は、テキストオブジェクト511と、シンボルオブジェクト512と、写真オブジェクト513とを含む画像である。写真オブジェクト513は、イメージオブジェクトの一例である。選択されたテンプレートによって、含まれるオブジェクトは異なっていても良い。なお、編集対象の画像は、テンプレートに限らず、例えば、ラベル作成アプリ22にて以前に保存された画像であっても良い。
ラベル作成アプリ22は、表示中のテンプレート画像51に含まれる各種のオブジェクトのうち、編集対象とするオブジェクトの選択を受け付け、選択されたオブジェクトの編集を受け付ける。ユーザは、例えば、選択したテンプレートの文字列を希望の文字列に変更して印刷させることで、容易に希望のラベルを作成できる。S105にて表示させた図3に示す状態は、複数のオブジェクトを含むテンプレート画像51を表示させただけであり、編集対象としての個別のオブジェクトの選択を受け付けていない状態である。
そして、CPU11は、未選択状態に対応する割り当て情報を取得する(S106)。割り当て情報は、ジェスチャの種類とそのジェスチャに応じて割り当てられている動作との関係を記憶する情報である。割り当て情報は、オブジェクトの選択状態によって異なる。S106では、CPU11は、オブジェクトが選択されていない状態である未選択状態の割り当て情報を取得する。
割り当て情報の例を図4に示す。オブジェクトとジェスチャにはそれぞれ複数の種類があり、割り当て情報では、オブジェクトの種類と、ジェスチャの種類と、の組み合わせごとに動作が割り当てられている。図4では、ジェスチャの種類として、上下左右のフリックを例示している。フリックは、指先を素早く振るジェスチャであり、下から上への移動を上フリック、上から下への移動を下フリック、右から左への移動を左フリック、左から右への移動を右フリックという。また、図4では、オブジェクトの選択状態として、未選択状態、テキストオブジェクト選択中、シンボルオブジェクト選択中、写真オブジェクト選択中、の4種類について例示している。
図4に示すように、例えば、オブジェクト未選択の状態に対しては、上下のフリックに対して表示倍率の変更が、左右のフリックに対してスクロールが、それぞれ対応付けられている。S106では、CPU11は、オブジェクト未選択の状態に関連付けて記憶されている割り当て情報として、フリックの方向とそれぞれに対応する動作の情報とを取得する。
なお、ジェスチャの種類、オブジェクトの選択状態、のいずれについても、図4に示したものに限るものではなく、これら以外にさらにあっても良い。ジェスチャの種類はミリ波レーダ15の出力する波形信号に基づいて区別可能なものであれば良く、例えば、プッシュ、プル、ロールがさらにあっても良い。ジェスチャの種類がさらにあれば、割り当て情報には、ジェスチャの種類ごとにさらに対応する動作が記憶されているとよい。また、各ジェスチャに対応する動作も、図4に示したものに限るものではない。例えば、未選択状態の上下のフリックは、テンプレート画像51の変更であっても良い。また、各状態の左右のフリックは、前の動作の取り消し(Undo)、取り消しのやり直し(Redo)であっても良いし、保存や印刷等のオブジェクトに対する動作以外の動作があっても良い。
そして、CPU11は、オブジェクトの選択を受け付けたか否かを判断する(S111)。CPU11は、例えば、表示中のテンプレート画像51に含まれるオブジェクトの1つへのタップを受け付けた場合、そのオブジェクトが選択されたと判断する。オブジェクトの選択を受け付けたと判断した場合(S111:YES)、CPU11は、選択されたオブジェクトの種類の情報を取得する(S112)。オブジェクトの種類には、例えば、前述したテキストオブジェクト、シンボルオブジェクト、写真オブジェクトがある。選択されたオブジェクトは、特定オブジェクトの一例であり、S112は、種類取得処理の一例である。
さらに、CPU11は、選択されたオブジェクトの編集を受け付ける編集画面をユーザIF13に表示させる(S113)。オブジェクトに対して受け付ける編集の内容は、オブジェクトの種類ごとに異なるため、オブジェクトの編集画面は、オブジェクトの種類ごとに異なる。
例えば、図3の編集画面50にてテキストオブジェクト511が選択された場合、CPU11は、ユーザIF13に、例えば、図5(A)に示すように、テキスト編集画面60を表示させる。テキスト編集画面60には、テキストの変更を受け付けるキーボードと、フォントの変更を受け付けるフォント設定ボタン61と、テキストの編集を完了する完了ボタン62と、が含まれる。
また例えば、図3の編集画面50にてシンボルオブジェクト512が選択された場合、CPU11は、ユーザIF13に、例えば、図6(A)に示すように、シンボル編集画面70を表示させる。ラベル作成アプリ22は、多数のシンボルをカテゴリに分類して記憶しており、ユーザは、好みのシンボルを選択してラベルに印刷させることができる。例えば、図6(A)では、絵文字のカテゴリに含まれる各種のシンボルが表示されている。シンボル編集画面70には、同一カテゴリ内の各種のシンボルと、表示させるシンボルのカテゴリを変更するカテゴリ変更ボタン71と、シンボルの編集を完了する完了ボタン72と、が含まれる。
また例えば、図3の編集画面50にて写真オブジェクト513が選択された場合、CPU11は、ユーザIF13に、例えば、図7に示すように、写真編集画面80を表示させる。写真編集画面80には、トリミング、回転などの調整を受け付けるボタンやサイズの変更を受け付けるバーの他、ハーフトーンの変更指示を受け付けるハーフトーン変更ボタン81と、写真の編集を完了する完了ボタン82と、が含まれる。
そして、CPU11は、選択されたオブジェクトの種類に対応する割り当て情報を取得する(S114)。割り当て情報は、図4に示したように、オブジェクトの種類ごとに設定されている。S114では、CPU11は、以後の処理で利用する割り当て情報を、選択されたオブジェクトに対応するものに変更する。
オブジェクトの選択を受け付けていないと判断した場合(S111:NO)、CPU11は、ジェスチャを検知したか否かを判断する(S121)。例えばS106の後、CPU11は、OS21に電子デバイス1のミリ波レーダ15の駆動を指示し、OS21を介してジェスチャの情報を取得する。
本形態のラベル作成アプリ22は、ミリ波レーダ15からの出力結果である波形信号に基づいて、表示画面131の近くで行われるユーザのジェスチャを検知する。ラベル作成アプリ22は、例えば、波形信号をOS21から取得して解析することでジェスチャを検知しても良いし、波形信号の解析結果としてのジェスチャの情報をOS21から取得することでジェスチャを検知しても良い。
すなわち、ラベル作成アプリ22は、任意のタイミングあるいは定期的に波形信号を取得して、自身で波形信号を解析することでジェスチャの有無やその詳細情報を取得しても良い。あるいは、OS21が、ミリ波レーダ15の波形信号を解析して、ジェスチャを検出した場合にイベントを発行し、ラベル作成アプリ22は、そのイベントによってジェスチャを検知しても良い。この場合、ジェスチャの詳細情報は、イベントに含まれていても良いし、イベントが発行された後、ラベル作成アプリ22がOS21に問い合わせることで取得できても良い。なお、ジェスチャの詳細情報は、ジェスチャの位置、種類、方向、の情報を含む。
ジェスチャを検知したと判断した場合(S121:YES)、CPU11は、オブジェクトが選択されているか否かを判断する(S122)。オブジェクトが選択されていないと判断した場合(S122:NO)、CPU11は、ジェスチャの位置の情報を取得する(S123)。S123は、位置取得処理の一例である。CPU11は、ジェスチャの詳細情報に基づいて、ジェスチャの位置を取得する。
そして、CPU11は、ジェスチャの位置が表示画面131に表示中のテンプレート画像51のうちの1つのオブジェクトの近くであるか否かを判断する(S124)。具体的には、CPU11は、指先などの位置が、テンプレート画像51のうちの1つのオブジェクトの上方であって所定の距離範囲内にあるか否かを判断する。オブジェクトの上方とは、オブジェクトの領域から表示画面131に対して直交する方向へ延びる柱状の範囲である。なお、上方は、柱状の範囲に限らず、例えば、画面から離れるにつれて広がる形状であっても良い。
ジェスチャの位置が1つのオブジェクトの近くであると判断した場合(S124:YES)、CPU11は、そのオブジェクトの種類の情報を取得する(S125)。ジェスチャの位置が近いオブジェクトは、特定オブジェクトの一例であり、S125は、種類取得処理の一例である。なお、この場合のオブジェクトは、編集対象のテンプレート画像に含まれる各オブジェクトに限らず、例えば、図3に示した編集画面50に含まれる印刷設定ボタン53、印刷ボタン54、保存ボタン55など、各種のボタンであっても良い。そして、CPU11は、そのオブジェクトの種類に対応する割り当て情報を取得する(S126)。
オブジェクトが選択されていると判断した場合(S122:YES)、または、1つのオブジェクトの近くではないと判断した場合(S124:NO)、または、S126の後、CPU11は、検知したジェスチャの詳細情報に基づいて、ジェスチャの種類を取得する(S127)。ジェスチャの種類は、例えば、前述した上下左右のフリックのいずれかである。取得されるジェスチャの種類は、特定のジェスチャの一例であり、S127は、検知処理の一例である。
そして、CPU11は、取得したジェスチャの種類に対応する動作を特定する(S128)。S128は、動作特定処理の一例である。CPU11は、S106、S114、S126のいずれかにて取得した割り当て情報とS127にて取得したジェスチャの種類とに基づいて、対応する動作を特定する。取得している割り当て情報は、特定オブジェクトに対応する情報、または、オブジェクト未選択状態に対応する情報である。そして、CPU11は、特定した動作を実行する(S129)。S129は、動作実行処理の一例である。
例えば、本形態のラベル作成アプリ22は、テキストオブジェクトが選択された状態で、つまり、図5(A)に示したテキスト編集画面60を表示させた状態で、ジェスチャを検知した場合、図4の例の割り当て情報に示したように、フォントのサイズやフォントの種類等のフォントの属性の変更の指示を受け付ける。具体的には、CPU11は、上フリックでフォントサイズのアップ、下フリックでフォントサイズのダウン、左フリックでフォントの種類の変更(ノーマル→ボールド→イタリックの順)、右フリックでフォントの種類の変更(左フリックの逆順)を受け付ける。
従来のラベル作成アプリでは、フォントサイズやフォントの種類を変更する場合、ユーザは、図5(A)中のフォント設定ボタン61を操作して、図5(B)に示すフォント設定画面を表示させてから、フォント設定画面中で操作を行う必要があった。これに対し、本形態では、図5(B)のフォント設定画面を表示させることなく、ジェスチャによってフォントの設定を指示できることから、ユーザのフォントの属性の変更の手間を軽減できる。なお、テキストオブジェクトに対応する動作としては、ラベル作成アプリ22は、フォントのサイズや種類に限らず、反転、下線、取消線、文字囲、塗りつぶし等のフォントの飾りの変更を受け付けても良い。
また例えば、本形態のラベル作成アプリ22は、シンボルオブジェクトが選択された状態で、つまり、図6(A)に示すシンボル編集画面を表示させた状態で、ジェスチャを検知した場合、図4の例の割り当て情報に示したように、シンボルの変更やカテゴリの変更の指示を受け付ける。具体的には、CPU11は、上フリックで同一カテゴリ内のシンボル変更(次のシンボル)、下フリックで同一カテゴリ内のシンボル変更(前のシンボル)、左フリックでカテゴリ変更(上から下)、右フリックでカテゴリ変更(下から上)を受け付ける。
従来のラベル作成アプリでは、異なるカテゴリのシンボルを選択する場合、ユーザは、図6(A)中のカテゴリ変更ボタン71を操作して、図6(B)に示すカテゴリ選択画面を表示させてから、カテゴリを選ぶ必要があった。これに対し、本形態では、図6(B)のカテゴリ選択画面を表示させることなく、異なるカテゴリのシンボルを選択できることから、ユーザのシンボルの変更の手間を軽減できる。
また例えば、本形態のラベル作成アプリ22は、写真オブジェクトが選択された状態で、つまり、図7に示す写真編集画面を表示させた状態で、ジェスチャを検知した場合、図4の例の割り当て情報に示したように、ハーフトーンの変更の指示を受け付ける。具体的には、CPU11は、上フリックと下フリックとでハーフトーンの変更(例えば、コントラストのアップとダウン)を受け付ける。
従来のラベル作成アプリでは、画像のコントラストなどの色調の調整を行いたい場合、ユーザは、図7中のハーフトーン変更ボタン81を操作して、画像調整画面を表示させ、その画面中で操作を行う必要があった。これに対し、本形態では、画像調整画面を表示させることなく、イメージの色調の調整を行うことができることから、ユーザの手間を軽減できる。
なお、本形態では、写真オブジェクトが選択された状態での左フリックと右フリックには、対応する動作が割り当てられていない。つまり、CPU11は、特定オブジェクトが写真オブジェクトであって、S127にて取得したジェスチャの種類が左フリックまたは右フリックであると判断した場合、S128では対応動作を特定せず、S129をスキップする。本形態のラベル作成アプリ22は、特定オブジェクトと特定のジェスチャとの組み合わせによっては、動作をスキップする割り当ても含めている。
また、オブジェクトの種類は、前述したテキストオブジェクト、シンボルオブジェクト、写真オブジェクトに限らない。例えば、ラベルの全体を示すラベルオブジェクト、ラベルのカットオプションを示すカットオプションオブジェクト、があっても良い。ラベル作成アプリ22は、例えば、ラベルオブジェクトに対応して、ラベルの長さ方向のサイズを変更する動作を、左右のフリックによるジェスチャに割り当てる。このようにすれば、ラベルの長さの変更の手間を軽減できる。
また、ラベル作成アプリ22は、例えば、カットオプションオブジェクトに対応して、カットオプションの内容を変更する動作を、上下のフリックによるジェスチャに割り当てる。このようにすれば、カットオプションの変更の手間を軽減できる。なお、カットオプションの内容には、カットのオンオフの選択の他、例えば、カットをオンとした場合のフルカットまたはハーフカットの選択、カット後のフィードの有無の選択が含まれる。
ジェスチャを検知していないと判断した場合(S121:NO)、CPU11は、完了指示を受け付けたか否かを判断する(S131)。各種のオブジェクトの編集画面には、前述したように、完了ボタン62、72、82が含まれ、完了指示は、これらの完了ボタンへの操作によって受け付ける指示である。なお、オブジェクトが選択されていない場合には、CPU11は、完了指示を受け付けない。完了指示を受け付けたと判断した場合(S131:YES)、CPU11は、オブジェクトの選択を解除する(S132)。つまり、CPU11は、オブジェクトが選択されていない状態とし、S105に戻って、編集画面50(図3参照)をユーザIF13に表示させる。
完了指示を受け付けていないと判断した場合(S131:NO)、CPU11は、ラベル作成アプリ22の終了指示を受け付けたか否かを判断する(S141)。終了指示を受け付けたと判断した場合(S141:YES)、CPU11は、ラベル作成処理を終了する。
終了指示を受け付けていないと判断した場合(S141:NO)、他の指示を受け付けたか否かを判断する(S142)。他の指示を受け付けたと判断した場合(S142:YES)、CPU11は、受け付けた指示に対応する動作を実行する(S143)。CPU11は、例えば、図3に示した編集画面50にて、印刷設定ボタン53、印刷ボタン54、保存ボタン55などへの操作を受け付けた場合、受け付けた指示に対応する動作を実行する。例えば、印刷ボタン54への操作によって印刷の実行指示を受け付けた場合、CPU11は、印刷コマンドを生成して、生成した印刷コマンドをプリンタ3に送信する。
CPU11は、他の動作として、例えば、図4に示した割り当て情報へのユーザによる設定を受け付けても良い。つまり、ジェスチャと動作との割り当ては、ラベル作成アプリ22にて予め決めた関係であっても良いし、ユーザによる指定を受け付けても良い。例えば、S142にて割り当て設定の指示を受け付けた場合、S143にて、CPU11は、例えば、割り当て可能な動作の一覧を表示させ、動作の選択を受け付けて、割り当て情報に設定する。この場合のS143は、割当処理の一例である。ユーザによる動作の割り当てを受け付けることで、ユーザの使用状況に応じた動作とすることができ、ユーザの使い勝手が良い。
S143の後、または、他の指示を受け付けていないと判断した場合(S142:NO)、CPU11は、S111に戻って、オブジェクトの選択やジェスチャなど、各種の指示を受け付ける。なお、CPU11は、他の指示として、トップ画面に戻る指示や、テンプレートの再選択の指示を受け付けてもよく、その場合、S101やS102に戻ってさらに処理を続行する。
以上、詳細に説明したように、本明細書に記載のラベル作成アプリ22によれば、電子デバイス1は、入力操作として特定のジェスチャを検知した場合、その特定のジェスチャに応じて、オブジェクトの種類ごとに割り当てられた動作を特定して実行する。つまり、特定のジェスチャを検知した後の動作が1つの動作に固定されず、1つのジェスチャを検知したことに応じて、オブジェクトの種類によって異なる動作が実行される。これにより、ジェスチャによる入力の使い勝手が向上する。
さらに、本形態では、選択されたオブジェクトをジェスチャによる動作の対象とする、あるいは、オブジェクトの上でジェスチャを検知した場合、そのオブジェクトをジェスチャによる動作の対象とするので、ジェスチャの使い勝手がさらに向上する。さらに、本形態では、オブジェクトが未選択でも対応する動作があるので、ジェスチャを使う機会が増え、ジェスチャの使い勝手がさらに向上する。つまり、ジェスチャに複数の種類があり、ジェスチャの種類ごとに動作が割り当てられることで、ジェスチャによる動作の種類が豊富であって、ジェスチャの使い勝手がさらに向上する。
なお、本実施の形態は単なる例示にすぎず、本発明を何ら限定するものではない。したがって本発明は当然に、その要旨を逸脱しない範囲内で種々の改良、変形が可能である。例えば、電子デバイス1に接続されるプリンタは、ラベルプリンタに限らず、インクジェットプリンタやレーザプリンタであっても良い。つまり、プリンタ3の印刷方式は、熱転写方式に限らず、例えば、感熱方式、インクジェット方式、電子写真方式でもよい。また、プリンタ3にて使用される印刷媒体は、ラベル紙に限らず、例えば、単なるロール紙やカット紙でもよい。
また、例えば、本形態では、ミリ波レーダ15から出力される波形信号に基づいて、ラベル作成アプリ22がジェスチャを取得するとしたが、これに限らない。例えば、ミリ波レーダ15から出力される波形信号をOS21から取得して、取得した波形信号に基づいてジェスチャを検知する、別のプログラムが有っても良い。また、ジェスチャの情報を取得するための構成は、ミリ波レーダ15に限らず、カメラ、赤外線センサ、光センサ等を用いても良いし、複数の構成の組み合わせによって取得してもよい。
また、例えば、本形態では、ジェスチャを検知したと判断した後、そのジェスチャの種類を取得するとしたが、種類の情報を含めたジェスチャを検知できても良い。例えば、上フリックを検知する場合、ミリ波レーダ15からの出力信号によってフリックを検知した後、上下左右を解析することで上フリックを検知してもよいし、ミリ波レーダ15からの出力信号から直ちに上フリックを検知してもよい。
また、本形態では、オブジェクトが選択されていない場合に、ジェスチャの位置に基づいて特定オブジェクトを決定するとしたが、ジェスチャの位置によるオブジェクトの特定はしなくても良い。つまり、オブジェクトが選択されていない場合は、未選択状態とするとしても良い。また、例えば、オブジェクトが選択されている場合であっても、検知したジェスチャの位置が選択されたオブジェクトの上方ではない場合には、選択されたオブジェクトではなく、ジェスチャの位置に対応する位置にあるオブジェクトを特定オブジェクトとしても良い。
また、本形態では、テンプレートなどの編集対象の画像が選択され、編集画面を表示中の場合にジェスチャを検知するとしたが、電子デバイス1は、編集画面の表示状態に関わらずジェスチャを検知してもよい。例えば、ラベル作成アプリ22の実行中、電子デバイス1は、定期的に指先の位置を取得してもよい。
また、本形態ではタッチパネルを備える電子デバイス1について説明したが、ユーザIF13は、タッチパネルではなくても良い。ユーザIF13は、例えば、ディスプレイとキーボード、マウス等の入力装置との組み合わせであっても良い。その場合、ミリ波レーダ15は、ディスプレイの周囲に設けられるとよい。このようにしても、ユーザは、入力装置によってカーソルを移動させてオブジェクトへの操作を行うとともに、ジェスチャによる動作も行わせることができる。
また、本形態では、ジェスチャとしてユーザの指先の動きを検出するとしたが、検出対象は指先に限らない。つまり、指先か否かの判断は、しなくても良い。例えば、タッチペンのペン先の移動によってフリックの方向を検知しても良い。
また、実施の形態に開示されている任意のフローチャートにおいて、任意の複数のステップにおける複数の処理は、処理内容に矛盾が生じない範囲で、任意に実行順序を変更できる、または並列に実行できる。
また、実施の形態に開示されている処理は、単一のCPU、複数のCPU、ASICなどのハードウェア、またはそれらの組合せで実行されてもよい。また、実施の形態に開示されている処理は、その処理を実行するためのプログラムを記録した記録媒体、または方法等の種々の態様で実現することができる。
1 電子デバイス
3 プリンタ
11 CPU
13 ユーザIF
15 ミリ波レーダ

Claims (14)

  1. モーションセンサと表示器とを備える電子デバイスのコンピュータによって実行可能なプログラムであって、
    前記コンピュータに、
    前記モーションセンサからの出力結果に基づいて、特定のジェスチャを検知する検知処理を実行させ、
    さらに前記コンピュータに、前記検知処理によって前記特定のジェスチャが検知された場合、
    前記表示器に表示されているオブジェクトのうちの1つである特定オブジェクトについてオブジェクトの種類を取得する種類取得処理と、
    前記表示器に表示可能なオブジェクトの種類ごとに前記特定のジェスチャに応じた動作が割り当てられており、前記種類取得処理にて取得した前記オブジェクトの種類に割り当てられた動作を特定する動作特定処理と、
    前記特定オブジェクトについて前記動作特定処理にて特定された動作を実行する動作実行処理と、
    を実行させる、
    ことを特徴とするプログラム。
  2. 請求項1に記載するプログラムにおいて、
    前記種類取得処理では、
    前記表示器に表示されているオブジェクトのうち選択されているオブジェクトを前記特定オブジェクトとして、前記特定オブジェクトの種類を取得する、
    ことを特徴とするプログラム。
  3. 請求項2に記載するプログラムにおいて、
    さらに前記コンピュータに、前記検知処理によって前記特定のジェスチャが検知された場合、
    オブジェクトが選択されておらず、前記種類取得処理にてオブジェクトの種類が取得されなかった場合に、あらかじめ割り当てられた所定の動作を実行させる、
    ことを特徴とするプログラム。
  4. 請求項1に記載するプログラムにおいて、
    さらに前記コンピュータに、
    前記検知処理にて前記特定のジェスチャを検知した場合、検知した前記特定のジェスチャの位置を取得する位置取得処理を実行させ、
    前記種類取得処理では、
    前記表示器に表示されているオブジェクトのうち前記表示器の画面と直交する方向に前記位置取得処理によって取得された前記ジェスチャの位置があるオブジェクトを前記特定オブジェクトとして、前記特定オブジェクトの種類を取得する、
    ことを特徴とするプログラム。
  5. 請求項1から請求項4のいずれか1つに記載するプログラムにおいて、
    前記検知処理では、
    前記モーションセンサからの出力結果に基づいて検知可能なジェスチャには複数の種類があり、検知可能な前記複数の種類のジェスチャのうちの1つを、前記特定のジェスチャとして検知し、
    前記動作特定処理では、
    前記表示器に表示可能なオブジェクトの種類と、前記検知処理にて検知可能なジェスチャの種類と、の組み合わせごとに動作が割り当てられており、前記種類取得処理にて取得した前記特定オブジェクトの種類と、前記検知処理にて検知された前記特定のジェスチャと、の組み合わせに割り当てられた動作を特定する
    ことを特徴とするプログラム。
  6. 請求項5に記載するプログラムにおいて、
    前記動作特定処理では、
    前記表示器に表示可能なオブジェクトの種類と、前記検知処理にて検知可能なジェスチャの種類と、の組み合わせには、動作が割り当てられていない組み合わせが含まれ、前記種類取得処理にて取得した前記特定オブジェクトの種類と、前記検知処理にて検知された前記特定のジェスチャと、の組み合わせに動作が割り当てられている場合、その割り当てられた動作を特定し、前記特定された動作が前記動作実行処理において実行され、前記種類取得処理にて取得した前記特定オブジェクトの種類と、前記検知処理にて検知された前記特定のジェスチャと、の組み合わせに動作が割り当てられていない場合、動作が特定されず、前記動作実行処理における前記特定オブジェクトについての動作がスキップされる、
    ことを特徴とするプログラム。
  7. 請求項1から請求項6のいずれか1つに記載するプログラムにおいて、
    さらに前記コンピュータに、
    前記電子デバイスのユーザインタフェースを介して、前記表示器に表示可能なオブジェクトの種類の選択と、複数ある動作の中から1つの動作の選択と、を受け付け、選択されたオブジェクトの種類と選択された動作とを関連付けて記憶することで、前記特定のジェスチャに応じた動作として、選択されたオブジェクトの種類に選択された動作を割り当てる割当処理を実行させる、
    ことを特徴とするプログラム。
  8. 請求項1から請求項7のいずれか1つに記載するプログラムにおいて、
    前記表示器に表示可能なオブジェクトの種類には、テキストを表示するテキストオブジェクトが含まれ、
    前記テキストオブジェクトには、前記テキストのフォントの属性を変更する動作が割り当てられる、
    ことを特徴とするプログラム。
  9. 請求項1から請求項8のいずれか1つに記載するプログラムにおいて、
    前記表示器に表示可能なオブジェクトの種類には、あらかじめ登録された複数のシンボルのうち選択された1つを表示するシンボルオブジェクトが含まれ、
    前記シンボルオブジェクトには、表示されるシンボルを変更する動作が割り当てられる、
    ことを特徴とするプログラム。
  10. 請求項1から請求項9のいずれか1つに記載するプログラムにおいて、
    前記表示器に表示可能なオブジェクトの種類には、イメージを表示するイメージオブジェクトが含まれ、
    前記イメージオブジェクトには、前記イメージの色調を変更する動作が割り当てられる、
    ことを特徴とするプログラム。
  11. 請求項1から請求項10のいずれか1つに記載するプログラムにおいて、
    前記表示器に表示可能なオブジェクトの種類には、ラベルを表示するラベルオブジェクトが含まれ、
    前記ラベルオブジェクトには、前記ラベルの長さ方向のサイズを変更する動作が割り当てられる、
    ことを特徴とするプログラム。
  12. 請求項1から請求項11のいずれか1つに記載するプログラムにおいて、
    前記表示器に表示可能なオブジェクトの種類には、ラベルのカットオプションを表示するカットオプションオブジェクトが含まれ、
    前記カットオプションオブジェクトには、前記カットオプションの内容を変更する動作が割り当てられる、
    ことを特徴とするプログラム。
  13. 請求項1から請求項12のいずれか1つに記載するプログラムにおいて、
    前記モーションセンサは、波長がミリメートル単位あるいはミリメートルよりも小さい単位の電磁波を受信し、受信した電磁波に基づく波形信号を出力するセンサであり、
    前記検知処理では、
    前記モーションセンサから出力される前記波形信号に基づいて、前記特定のジェスチャを検知する、
    ことを特徴とするプログラム。
  14. モーションセンサと、
    表示器と、
    コンピュータと、
    を備え、
    前記コンピュータは、
    前記モーションセンサからの出力結果に基づいて、特定のジェスチャを検知する検知処理を実行し、
    さらに前記コンピュータは、前記検知処理によって前記特定のジェスチャが検知された場合、
    前記表示器に表示されているオブジェクトのうちの1つである特定オブジェクトについてオブジェクトの種類を取得する種類取得処理と、
    前記表示器に表示可能なオブジェクトの種類ごとに前記特定のジェスチャに応じた動作が割り当てられており、前記種類取得処理にて取得した前記オブジェクトの種類に割り当てられた動作を特定する動作特定処理と、
    前記特定オブジェクトについて前記動作特定処理にて特定された動作を実行する動作実行処理と、
    を実行する、
    ことを特徴とする電子デバイス。
JP2020134648A 2020-08-07 2020-08-07 プログラムおよび電子デバイス Pending JP2022030551A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020134648A JP2022030551A (ja) 2020-08-07 2020-08-07 プログラムおよび電子デバイス
PCT/JP2021/026769 WO2022030221A1 (ja) 2020-08-07 2021-07-16 プログラムおよび電子デバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020134648A JP2022030551A (ja) 2020-08-07 2020-08-07 プログラムおよび電子デバイス

Publications (1)

Publication Number Publication Date
JP2022030551A true JP2022030551A (ja) 2022-02-18

Family

ID=80117269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020134648A Pending JP2022030551A (ja) 2020-08-07 2020-08-07 プログラムおよび電子デバイス

Country Status (2)

Country Link
JP (1) JP2022030551A (ja)
WO (1) WO2022030221A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP6131004B2 (ja) * 2012-06-20 2017-05-17 株式会社セルシス オブジェクト表示方法、プログラム、及び装置
JP6248462B2 (ja) * 2013-08-08 2017-12-20 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6213613B2 (ja) * 2015-05-25 2017-10-18 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP7172093B2 (ja) * 2017-03-31 2022-11-16 大日本印刷株式会社 コンピュータプログラム、表示装置、表示システム及び表示方法
US20200026360A1 (en) * 2018-07-19 2020-01-23 Infineon Technologies Ag Gesture Detection System and Method Using Radar Sensors

Also Published As

Publication number Publication date
WO2022030221A1 (ja) 2022-02-10

Similar Documents

Publication Publication Date Title
KR920001696B1 (ko) 멀티윈도우표시제어장치를 갖추고 있는 데이터처리장치
JP4966533B2 (ja) 印刷システム、印刷方法、印刷プログラムおよび記録媒体
EP2816416B1 (en) Display device, image forming apparatus, and computer-readable recording medium storing display control program
US20170336932A1 (en) Image display apparatus allowing operation of image screen and operation method thereof
US11132122B2 (en) Handwriting input apparatus, handwriting input method, and non-transitory recording medium
US10684772B2 (en) Document viewing apparatus and program
JP6053291B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
US20150058798A1 (en) Image processing apparatus, image processing method, and storage medium
US9565324B2 (en) Apparatus, non-transitory computer readable medium, and method
US9389811B2 (en) Image processing apparatus, image processing method, and recording medium
WO2022030221A1 (ja) プログラムおよび電子デバイス
US20140126013A1 (en) Printing control apparatus and method
US10691293B2 (en) Display device and computer-readable non-transitory recording medium with display control program stored thereon
US20160227057A1 (en) Methods for Optimizing Display Space of a User Interface of an Imaging Apparatus
US20150161431A1 (en) Fingerprint minutia display input device, fingerprint minutia display input method, and fingerprint minutia display input program
JP2017215857A (ja) 表示装置、表示方法およびプログラム
US20160224214A1 (en) Methods for Optimizing Display Space of a User Interface of an Imaging Apparatus
US10334125B2 (en) Image forming apparatus with projector to display an image to be printed and related method
CN106558148A (zh) 画面转移控制方法以及画面转移控制装置
WO2021192841A1 (ja) プログラムおよび電子デバイス
JP2021157707A (ja) プログラムおよび電子デバイス
US11537337B2 (en) Image forming apparatus, storage medium storing program for controlling image forming apparatus, and method for controlling image forming apparatus
US20230236775A1 (en) Editing method, recording medium, information processing apparatus, and printing apparatus
JP2021149314A (ja) プログラムおよび電子デバイス
US20230029973A1 (en) Display method and display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402