JP2015011639A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2015011639A
JP2015011639A JP2013138540A JP2013138540A JP2015011639A JP 2015011639 A JP2015011639 A JP 2015011639A JP 2013138540 A JP2013138540 A JP 2013138540A JP 2013138540 A JP2013138540 A JP 2013138540A JP 2015011639 A JP2015011639 A JP 2015011639A
Authority
JP
Japan
Prior art keywords
information
user
unit
display
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013138540A
Other languages
Japanese (ja)
Other versions
JP5980173B2 (en
Inventor
隆一 大前
Ryuichi Omae
隆一 大前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013138540A priority Critical patent/JP5980173B2/en
Publication of JP2015011639A publication Critical patent/JP2015011639A/en
Application granted granted Critical
Publication of JP5980173B2 publication Critical patent/JP5980173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device and an information processing method capable of improving operability in a case where one piece of information is to be specified by searching a discretionary list.SOLUTION: An information processing device according to the present invention comprises: an input coordinate acquisition unit 2 for acquiring information inputted as a clue to selection by a user in order to select one selection element from an aggregate of a plurality of selection elements; a handwritten character recognition unit 3 for recognizing the acquired information; and a slide bar and list display processing unit 42 for exerting control for displaying a selection element slide bar 20 and a list 21 of at least one or more selection elements corresponding to a spot of the slide bar 20 designated by the user. The slide bar and list display processing unit 42 exerts control on the basis of the information recognized by the handwritten character recognition unit 3 so that the slide bar 20 is displayed in one direction referenced to a designation point designated by the user on a display unit 8.

Description

本発明は、任意のリストを検索して一の情報を特定する情報処理装置および情報処理方法に関する。   The present invention relates to an information processing apparatus and an information processing method for searching an arbitrary list and specifying one piece of information.

従来、テンキーとタッチパネルとを備え、テンキーが押下された場合、テンキーのキー情報に対応する文字群とスライドバーとを表示する技術が開示されている(例えば、特許文献1参照)。   Conventionally, a technique has been disclosed that includes a numeric keypad and a touch panel, and displays a character group and a slide bar corresponding to key information of the numeric keypad when the numeric keypad is pressed (see, for example, Patent Document 1).

特開2012−141923号公報JP 2012-141923 A

従来、タッチ式の表示画面(ユーザのタッチによる入力を受け付ける機能を有する画面)を備えた、例えばカーナビゲーション装置、スマートフォン、あるいはタブレット端末では、画面のサイズが小さく、画面に表示される文字等のサイズも小さいため、スライドバーにおける特定の位置をタッチして選択するためには、画面を注視して細かい指の操作を行う必要があった。特に、カーナビゲーション装置では、運転者にとって確実・容易に操作可能であることが求められている。   Conventionally, for example, in a car navigation device, a smartphone, or a tablet terminal provided with a touch-type display screen (a screen having a function of accepting an input by a user's touch), the screen size is small, characters displayed on the screen, etc. Since the size is small, in order to select a specific position on the slide bar by touching, it is necessary to pay close attention to the screen and perform fine finger operations. In particular, a car navigation device is required to be able to be operated reliably and easily for a driver.

特許文献1では、固定して配置されたテンキーによって先頭文字の入力を行うと、先頭文字を含む候補文字群に対応するスライドバーが予め定められた箇所に固定して表示される。ユーザは、スライドバーを動かすことによって候補文字群から所望の文字を選択している。しかしながら、このような操作を小さい画面上で行う場合は、文字が小さいため他の文字を誤って選択してしまうなど、操作性に問題があった。   In Patent Document 1, when a first character is input using a ten key arranged in a fixed manner, a slide bar corresponding to a candidate character group including the first character is fixedly displayed at a predetermined position. The user selects a desired character from the candidate character group by moving the slide bar. However, when such an operation is performed on a small screen, there is a problem in operability such that a character is small and another character is selected by mistake.

本発明は、これらの問題を解決するためになされたものであり、任意のリストを検索して一の情報を特定する場合における操作性を向上させることが可能な情報処理装置および情報処理方法を提供することを目的とする。   The present invention has been made to solve these problems, and provides an information processing apparatus and information processing method capable of improving the operability when searching for an arbitrary list to identify one piece of information. The purpose is to provide.

上記の課題を解決するために、本発明による情報処理装置は、複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する入力情報取得部と、入力情報取得部にて取得された情報を認識する入力情報認識部と、選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の選択要素のリストとを表示するための制御を行う索引列・リスト表示制御部と、索引列・リスト表示制御部の制御の下で索引列およびリストを表示する表示部とを備え、索引列・リスト表示制御部は、入力情報認識部にて認識された情報に基づいて、かつ表示部においてユーザによって指示された指示点を基点とした一方向に、索引列を表示するよう制御することを特徴とする。   In order to solve the above-described problem, an information processing apparatus according to the present invention obtains information serving as a clue of selection input by a user in order to select one selection element from a collection of a plurality of selection elements. An information acquisition unit; an input information recognition unit for recognizing information acquired by the input information acquisition unit; an index string of a selection element; and at least one or more corresponding to a location specified by a user in the index string An index column / list display control unit that controls to display a list of selected elements, and a display unit that displays the index column and list under the control of the index column / list display control unit. The list display control unit controls to display the index string in one direction based on the information recognized by the input information recognition unit and based on the indication point designated by the user on the display unit. It is characterized in.

また、本発明による情報処理方法は、(a)複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する工程と、(b)工程(a)にて取得された情報を認識する工程と、(c)選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の選択要素のリストとを表示するための制御を行う工程と、(d)工程(c)の制御の下で索引列およびリストを表示する工程とを備え、工程(c)は、工程(b)にて認識された情報に基づいて、かつ工程(d)においてユーザによって指示された指示点を基点とした一方向に、索引列を表示するよう制御することを特徴とする。   In addition, the information processing method according to the present invention includes (a) obtaining information serving as a selection cue input by a user in order to select one selected element from a collection of a plurality of selected elements; ) The step of recognizing the information acquired in step (a), (c) the index string of the selected element, and at least one or more selected elements corresponding to the location specified by the user in the index string And (d) a step of displaying an index string and a list under the control of step (c), wherein step (c) is recognized in step (b). Based on the obtained information, control is performed so that the index row is displayed in one direction based on the designated point designated by the user in the step (d).

本発明によると、情報処理装置は、複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する入力情報取得部と、入力情報取得部にて取得された情報を認識する入力情報認識部と、選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の選択要素のリストとを表示するための制御を行う索引列・リスト表示制御部と、索引列・リスト表示制御部の制御の下で索引列およびリストを表示する表示部とを備え、索引列・リスト表示制御部は、入力情報認識部にて認識された情報に基づいて、かつ表示部においてユーザによって指示された指示点を基点とした一方向に、索引列を表示するよう制御するため、任意のリストを検索して一の情報を特定する場合における操作性を向上させることが可能となる。   According to the present invention, an information processing apparatus includes an input information acquisition unit that acquires information serving as a clue to selection input by a user in order to select one selection element from an aggregate of a plurality of selection elements; An input information recognition unit for recognizing information acquired by the acquisition unit, an index string of selected elements, and a list of at least one or more selected elements corresponding to a part specified by the user in the index string An index column / list display control unit for controlling display, and a display unit for displaying the index column and list under the control of the index column / list display control unit. Based on the information recognized by the input information recognition unit and to control the display of the index string in one direction based on the indication point designated by the user on the display unit, an arbitrary list is detected. It is possible to improve the operability in the case of specifying an information by.

また、情報処理方法は、(a)複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する工程と、(b)工程(a)にて取得された情報を認識する工程と、(c)選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の選択要素のリストとを表示するための制御を行う工程と、(d)工程(c)の制御の下で索引列およびリストを表示する工程とを備え、工程(c)は、工程(b)にて認識された情報に基づいて、かつ工程(d)においてユーザによって指示された指示点を基点とした一方向に、索引列を表示するよう制御するため、任意のリストを検索して一の情報を特定する場合における操作性を向上させることが可能となる。   The information processing method includes (a) a step of acquiring information serving as a selection clue input by a user in order to select one selection element from a set of a plurality of selection elements, and (b) a step ( a step of recognizing the information acquired in a), (c) an index column of the selected element, and a list of at least one or more selected elements corresponding to a location specified by the user in the index column A step of performing control for display, and (d) a step of displaying an index string and a list under the control of step (c), wherein step (c) is information recognized in step (b). In order to control to display the index string in one direction based on the indication point designated by the user in the step (d) in the step (d), an arbitrary list is searched to identify one piece of information. To improve operability The ability.

本発明の実施の形態1による情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による表示の一例を示す図である。It is a figure which shows an example of the display by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の一例を示す図である。It is a figure which shows an example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の一例を示す図である。It is a figure which shows an example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の一例を示す図である。It is a figure which shows an example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の一例を示す図である。It is a figure which shows an example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の他の一例を示す図である。It is a figure which shows another example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の他の一例を示す図である。It is a figure which shows another example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の他の一例を示す図である。It is a figure which shows another example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による情報処理装置の操作の他の一例を示す図である。It is a figure which shows another example of operation of the information processing apparatus by Embodiment 1 of this invention. 本発明の実施の形態1による表示の他の一例を示す図である。It is a figure which shows another example of the display by Embodiment 1 of this invention. 本発明の実施の形態2による情報処理装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the information processing apparatus by Embodiment 2 of this invention. 本発明の実施の形態2による情報処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the information processing apparatus by Embodiment 2 of this invention.

本発明の実施の形態について、図面に基づいて以下に説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<実施の形態1>
まず、本発明の実施の形態1による情報処理装置の構成について説明する。
<Embodiment 1>
First, the configuration of the information processing apparatus according to the first embodiment of the present invention will be described.

本実施の形態1では、音楽再生用のプレイリスト(複数の選択要素の集合体)から特定のアーティスト(artist)(一の選択要素)を選択する場合を一例として説明する。   In the first embodiment, a case where a specific artist (one selection element) is selected from a playlist for music reproduction (a collection of a plurality of selection elements) will be described as an example.

図1は、情報処理装置1の構成の一例を示す図である。また、図2は、表示部8における表示の一例を示す図である。   FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus 1. FIG. 2 is a diagram illustrating an example of display on the display unit 8.

情報処理装置1は、入力座標取得部2と、手書き文字認識部3と、制御部4と、画面表示処理部5と、表示情報記憶部6と、見出しデータベース7とを備えている。また、情報処理装置1は、表示部8と接続している。   The information processing apparatus 1 includes an input coordinate acquisition unit 2, a handwritten character recognition unit 3, a control unit 4, a screen display processing unit 5, a display information storage unit 6, and a heading database 7. Further, the information processing apparatus 1 is connected to the display unit 8.

入力座標取得部2は、ユーザが表示部8の画面にタッチしたときの、画面上における座標情報を取得する。ここで、タッチとは、ユーザが自身の指等を画面に接触させる状態のことをいう。   The input coordinate acquisition unit 2 acquires coordinate information on the screen when the user touches the screen of the display unit 8. Here, the touch means a state in which the user makes his / her finger or the like touch the screen.

手書き文字認識部3は、入力座標取得部2にて取得された座標情報に基づいて、ユーザが表示部8の画面を介して手書き入力した文字(選択の手がかりとなる情報)の認識処理を行う。   Based on the coordinate information acquired by the input coordinate acquisition unit 2, the handwritten character recognition unit 3 performs a process of recognizing characters (information serving as clues for selection) input by the user via the screen of the display unit 8. .

このように、本実施の形態1による入力座標取得部2は、複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する入力情報取得部としての機能を有している。また、手書き文字認識部3は、入力座標取得部2にて取得された情報を認識する入力情報認識部としての機能を有している。   As described above, the input coordinate acquisition unit 2 according to the first embodiment acquires input information that serves as a clue for selection input by the user in order to select one selection element from a collection of a plurality of selection elements. It has a function as an information acquisition unit. The handwritten character recognition unit 3 has a function as an input information recognition unit that recognizes information acquired by the input coordinate acquisition unit 2.

制御部4は、スライドバー・リスト作成処理部41と、スライドバー・リスト表示処理部42と、表示情報記憶処理部43と、拡大処理部44とを有している。   The control unit 4 includes a slide bar / list creation processing unit 41, a slide bar / list display processing unit 42, a display information storage processing unit 43, and an enlargement processing unit 44.

スライドバー・リスト作成処理部41は、アーティストの検索に用いるスライドバー20と、当該スライドバー20のうちのユーザによって指定されている箇所(文字)に対応する少なくとも1以上のアーティストのリスト21とを作成する。なお、図2に示すスライドバー20は、音楽再生用のプレイリストに含まれる各アーティストの索引列(ここでは各アーティスト名の頭文字)のことをいい、レターピッカー(Letter Picker)ともいう。   The slide bar list creation processing unit 41 includes a slide bar 20 used for searching for an artist and a list 21 of at least one artist corresponding to a portion (character) designated by the user in the slide bar 20. create. Note that the slide bar 20 shown in FIG. 2 refers to an index column (in this case, an acronym for each artist name) of each artist included in the playlist for music playback, and is also referred to as a letter picker.

スライドバー・リスト表示処理部42は、スライドバー・リスト作成処理部41にて作成されたスライドバー20およびリスト21を表示部8に表示させるための処理を行う。ここで、表示部8に表示するとは、表示部8の画面に表示することをいう。すなわち、スライドバー・リスト表示処理部42は、選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の選択要素のリストとを表示するための制御を行う索引列・リスト表示制御部としての機能を有している。   The slide bar / list display processing unit 42 performs processing for causing the display unit 8 to display the slide bar 20 and the list 21 created by the slide bar / list creation processing unit 41. Here, displaying on the display unit 8 means displaying on the screen of the display unit 8. That is, the slide bar / list display processing unit 42 controls to display the index string of the selected element and the list of at least one or more selected elements corresponding to the part specified by the user in the index string. It has a function as an index column / list display control unit.

表示情報記憶処理部43は、手書き文字認識部3にて認識された文字や、表示部8に表示されたスライドバー20のうちのユーザによって指定(タッチ)されている箇所に対応する文字を、表示情報記憶部6に記憶するための処理を行う。   The display information storage processing unit 43 displays the characters recognized by the handwritten character recognition unit 3 and the characters corresponding to the location specified (touched) by the user in the slide bar 20 displayed on the display unit 8. Processing for storing in the display information storage unit 6 is performed.

拡大処理部44は、スライドバー20においてユーザが指定中の箇所の文字を拡大する処理を行う。具体的には、ユーザが指定中の箇所の文字を選択ボタン22として拡大する処理を行う。   The enlargement processing unit 44 performs a process of enlarging the character at the location that the user is specifying on the slide bar 20. Specifically, a process of enlarging the character at the location designated by the user as the selection button 22 is performed.

画面表示処理部5は、手書き文字認識部3にて認識された文字や、スライドバー・リスト表示処理部42にて処理されたスライドバー20およびリスト21を表示部8に表示するための処理を行う。   The screen display processing unit 5 performs processing for displaying the characters recognized by the handwritten character recognition unit 3 and the slide bar 20 and the list 21 processed by the slide bar / list display processing unit 42 on the display unit 8. Do.

表示情報記憶部6は、表示情報記憶処理部43にて処理された、手書き文字認識部3にて認識された文字や、表示部8に表示されたスライドバー20のうちのユーザによって指定(タッチ)されている箇所に対応する文字を記憶する。   The display information storage unit 6 is designated (touched) by the user among the characters recognized by the handwritten character recognition unit 3 processed by the display information storage processing unit 43 and the slide bar 20 displayed on the display unit 8. ) Memorize the character corresponding to the place.

見出しデータベース7は、リスト21に関する情報を記憶する。本実施の形態1では、音楽再生用のプレイリストに含まれるアーティストの情報が記憶されている。   The header database 7 stores information regarding the list 21. In the first embodiment, information on artists included in a playlist for music playback is stored.

表示部8は、画面表示処理部5にて処理された情報を表示する。具体的には、手書き文字認識部3にて認識された文字、スライドバー20、リスト21、選択ボタン22などを表示する。すなわち、表示部8は、スライドバー・リスト表示処理部42(索引列・リスト表示制御部)の処理(制御)の下で索引列およびリストを表示する。また、ユーザのタッチによる入力を受け付ける機能を有している。   The display unit 8 displays information processed by the screen display processing unit 5. Specifically, the characters recognized by the handwritten character recognition unit 3, the slide bar 20, the list 21, the selection button 22, and the like are displayed. That is, the display unit 8 displays the index sequence and the list under the processing (control) of the slide bar / list display processing unit 42 (index sequence / list display control unit). Moreover, it has the function to receive the input by a user's touch.

次に、情報処理装置1の動作について説明する。   Next, the operation of the information processing apparatus 1 will be described.

図3は、情報処理装置1の動作の一例を示すフローチャートである。   FIG. 3 is a flowchart illustrating an example of the operation of the information processing apparatus 1.

ステップS101において、入力座標取得部2は、ユーザが表示部8の画面にタッチしたときの、画面上における座標情報を取得したか否かを判断する。座標情報を取得したと判断した場合はステップS102に移行する。一方、座標情報を取得していないと判断した場合は、座標情報を取得するまでステップS101の処理を繰り返す。   In step S <b> 101, the input coordinate acquisition unit 2 determines whether coordinate information on the screen when the user touches the screen of the display unit 8 has been acquired. If it is determined that the coordinate information has been acquired, the process proceeds to step S102. On the other hand, if it is determined that the coordinate information has not been acquired, the process of step S101 is repeated until the coordinate information is acquired.

ステップS102において、制御部4は、座標情報を取得するまでの時間が基点判定タイマ以内か否かを判断する。   In step S102, the control unit 4 determines whether or not the time until the coordinate information is acquired is within the base point determination timer.

ここで、基点判定タイマとは、ステップS101において入力座標取得部2が座標情報を取得した後に再度座標情報を取得するまでの時間(ユーザが画面から指を離した後に再度タッチするまでの時間)の閾値を示しており、ユーザが画面をタッチした指示点を基点としたスライドバー20を表示部8に表示するか否かの判定に用いられる。基点判定タイマは、後述のステップS107およびステップS118にて設定される。   Here, the base point determination timer is the time until the coordinate information is acquired again after the input coordinate acquisition unit 2 acquires the coordinate information in step S101 (the time until the user touches again after releasing the finger from the screen). , And is used to determine whether or not to display the slide bar 20 on the display unit 8 with the point indicated by the user touching the screen as a base point. The base point determination timer is set in step S107 and step S118 described later.

基点判定タイマ以内でないと判断した場合はステップS103に移行する。一方、基点判定タイマ以内であると判断した場合はステップS113に移行する。   If it is determined that it is not within the base point determination timer, the process proceeds to step S103. On the other hand, if it is determined that it is within the base point determination timer, the process proceeds to step S113.

なお、情報処理装置1の動作を開始してから最初のステップS102では、基点判定タイマを設定していない状態であるため、基点判定タイマ以内でないと判断してステップS103に移行する。   In the first step S102 after the operation of the information processing apparatus 1 is started, the base point determination timer is not set. Therefore, it is determined that it is not within the base point determination timer, and the process proceeds to step S103.

ステップS103において、制御部4は、基点判定タイマの設定を解除する。   In step S103, the control unit 4 cancels the setting of the base point determination timer.

ステップS104において、手書き文字認識部3は、入力座標取得部2にて取得された座標情報に基づいて、ユーザが表示部8の画面を介して手書き入力した文字の認識処理を行う。   In step S <b> 104, the handwritten character recognizing unit 3 performs a process of recognizing a character handwritten by the user via the screen of the display unit 8 based on the coordinate information acquired by the input coordinate acquiring unit 2.

具体的には、手書き文字認識部3は、既に記憶した座標情報に対して、新たに取得した座標情報を合わせることによって文字の認識処理を行う。ここで、既に記憶した座標情報とは、ステップS109にて記憶された座標情報のことをいう。また、新たに取得した座標情報とは、ステップS101にて取得した最新の座標情報のことをいう。   Specifically, the handwritten character recognition unit 3 performs character recognition processing by combining newly acquired coordinate information with already stored coordinate information. Here, the already stored coordinate information refers to the coordinate information stored in step S109. The newly acquired coordinate information refers to the latest coordinate information acquired in step S101.

ステップS105において、手書き文字認識部3は、ユーザが入力した手書き文字を認識したか否かを判断する。手書き文字を認識していないと判断した場合はステップS106に移行する。一方、手書き文字を認識したと判断した場合はステップS111に移行する。   In step S105, the handwritten character recognition unit 3 determines whether or not the handwritten character input by the user has been recognized. If it is determined that the handwritten character is not recognized, the process proceeds to step S106. On the other hand, if it is determined that the handwritten character is recognized, the process proceeds to step S111.

ステップS106において、手書き文字認識部3は、手書き文字の認識処理を行う時間に制限時間を設定しているか否かを判断する。ここで、制限時間とは、ステップS105において手書き文字認識部3が手書き文字の認識処理を行う時間の閾値のことをいう。   In step S106, the handwritten character recognizing unit 3 determines whether or not a time limit is set for the time for performing the handwritten character recognition process. Here, the time limit refers to a threshold of time for the handwritten character recognition unit 3 to perform handwritten character recognition processing in step S105.

制限時間を設定してないと判断した場合はステップS107に移行する。一方、制限時間を設定していると判断した場合はステップS108に移行する。   If it is determined that the time limit is not set, the process proceeds to step S107. On the other hand, if it is determined that the time limit is set, the process proceeds to step S108.

ステップS107において、手書き文字認識部3は、制限時間を設定するとともに、ステップS101にて取得した座標情報を記憶する。   In step S107, the handwritten character recognition unit 3 sets the time limit and stores the coordinate information acquired in step S101.

ステップS108において、手書き文字認識部3は、手書き文字の認識処理に要した時間が制限時間以内か否かを判断する。制限時間以内であると判断した場合はステップS109に移行する。一方、制限時間以内でないと判断した場合はステップS110に移行する。   In step S108, the handwritten character recognition unit 3 determines whether or not the time required for the handwritten character recognition process is within the time limit. If it is determined that the time is within the time limit, the process proceeds to step S109. On the other hand, if it is determined that it is not within the time limit, the process proceeds to step S110.

ステップS109において、手書き文字認識部3は、ステップS101にて取得した座標情報を記憶する。   In step S109, the handwritten character recognition unit 3 stores the coordinate information acquired in step S101.

ステップS110において、手書き文字認識部3は、記憶しておいた座標情報を消去するとともに、制限時間の設定を解除する。   In step S110, the handwritten character recognition unit 3 deletes the stored coordinate information and cancels the time limit setting.

ステップS105において、手書き文字を認識したと判断した場合は、ステップS111において、表示情報記憶処理部43は、手書き文字認識部3にて認識された文字を表示情報記憶部6に記憶するための処理を行う。すなわち、手書き文字認識部3にて認識された文字は、表示情報記憶部6に記憶される。   If it is determined in step S105 that the handwritten character has been recognized, in step S111, the display information storage processing unit 43 stores the character recognized by the handwritten character recognition unit 3 in the display information storage unit 6. I do. That is, the character recognized by the handwritten character recognition unit 3 is stored in the display information storage unit 6.

ステップS112において、制御部4は、基点判定タイマを設定する。   In step S112, the control unit 4 sets a base point determination timer.

ステップS102において、基点判定タイマ以内であると判断した場合は、ステップS113において、制御部4は、基点判定タイマの設定を解除する。   If it is determined in step S102 that the time is within the base point determination timer, in step S113, the control unit 4 cancels the setting of the base point determination timer.

ステップS114において、スライドバー・リスト作成処理部41は、ステップS111あるいはステップS118にて記憶した文字を表示情報記憶部6から取得する。なお、情報処理装置1の動作を開始してから最初のステップS114では、ステップS111にて記憶した文字を表示情報記憶部6から取得する。   In step S114, the slide bar / list creation processing unit 41 acquires the characters stored in step S111 or step S118 from the display information storage unit 6. In the first step S114 after starting the operation of the information processing apparatus 1, the character stored in step S111 is acquired from the display information storage unit 6.

ステップS115において、スライドバー・リスト作成処理部41は、表示情報記憶部6から取得した文字に基づいて、スライドバー20およびリスト21を作成する。   In step S <b> 115, the slide bar / list creation processing unit 41 creates the slide bar 20 and the list 21 based on the characters acquired from the display information storage unit 6.

具体的に、スライドバー・リスト作成処理部41は、表示情報記憶部6から取得した文字を含むスライドバー20を作成し、表示情報記憶部6から取得した文字を頭文字としたアーティストのリスト21を見出しデータベース7から取得して作成する。   Specifically, the slide bar list creation processing unit 41 creates the slide bar 20 including the characters acquired from the display information storage unit 6, and the artist list 21 using the characters acquired from the display information storage unit 6 as initials 21. Is obtained from the heading database 7 and created.

ステップS116において、スライドバー・リスト表示処理部42は、ユーザが画面をタッチした指示点を基点としたスライドバー20を表示部8に表示するよう処理を行う。すなわち、スライドバー・リスト表示処理部42(索引列・リスト表示制御部)は、手書き文字認識部3(入力情報認識部)にて認識された情報に基づいて、かつ表示部8においてユーザによって指示された指示点を基点として一方向に、索引列を表示するよう制御する。また、スライドバー20のうちのユーザによって指定されている箇所に対応する(ユーザが選択した文字を頭文字とした)少なくとも1以上のアーティストのリスト21を表示部8に表示するよう処理を行う。   In step S <b> 116, the slide bar / list display processing unit 42 performs processing to display the slide bar 20 on the display unit 8 based on the indication point where the user touches the screen. That is, the slide bar / list display processing unit 42 (index string / list display control unit) instructs the display unit 8 based on information recognized by the handwritten character recognition unit 3 (input information recognition unit). Control is performed so that the index string is displayed in one direction with the designated point as a base point. In addition, processing is performed so that a list 21 of at least one artist corresponding to a portion specified by the user in the slide bar 20 (using the character selected by the user as an initial) is displayed on the display unit 8.

次いで、画面表示処理部5は、スライドバー・リスト表示処理部42にて処理されたスライドバー20およびリスト21を表示部8に表示するための処理を行う。すなわち、表示部8にはスライドバー20およびリスト21が表示される。   Next, the screen display processing unit 5 performs processing for displaying the slide bar 20 and the list 21 processed by the slide bar / list display processing unit 42 on the display unit 8. That is, the slide bar 20 and the list 21 are displayed on the display unit 8.

ステップS117において、拡大処理部44は、表示部8に表示されているスライドバー20上でユーザが選択している文字を拡大表示する。具体的には、ユーザが選択している文字を選択ボタン22として拡大表示する。   In step S117, the enlargement processing unit 44 enlarges and displays the character selected by the user on the slide bar 20 displayed on the display unit 8. Specifically, the character selected by the user is enlarged and displayed as the selection button 22.

ステップS118において、表示情報記憶処理部43は、スライドバー20上でユーザが選択している文字を表示情報記憶部6に記憶するための処理を行う。すなわち、スライドバー20上でユーザが選択している文字は、表示情報記憶部6に記憶される。   In step S <b> 118, the display information storage processing unit 43 performs a process for storing the character selected by the user on the slide bar 20 in the display information storage unit 6. That is, the character selected by the user on the slide bar 20 is stored in the display information storage unit 6.

ステップS119において、制御部4は、ユーザが画面へのタッチを中断したか否かを判断する。   In step S119, the control unit 4 determines whether or not the user has stopped touching the screen.

ユーザが画面へのタッチを中断した場合はステップS120に移行する。この場合、例えば、ユーザが画面から指等を離したか、あるいはユーザがタッチしている位置が画面端から外側に外れたと判断する。   When the user interrupts the touch on the screen, the process proceeds to step S120. In this case, for example, it is determined that the user has lifted his / her finger or the like from the screen, or the position touched by the user has moved outward from the screen edge.

一方、ユーザが画面へのタッチを中断していない場合はステップS121に移行する。この場合は、ユーザがスライドバー20をスライドさせて他のリスト21を表示させる操作(スクロール操作)をしていると判断する。ここで、スライドとは、ユーザが画面上をタッチした状態のまま(タッチを中断させることなく)移動する動作のことをいう。   On the other hand, when the user has not interrupted the touch on the screen, the process proceeds to step S121. In this case, it is determined that the user is performing an operation (scroll operation) for sliding the slide bar 20 to display another list 21. Here, the term “slide” refers to an operation of moving while the user touches the screen (without interrupting the touch).

ステップS120において、制御部4は、基点判定タイマを設定する。   In step S120, the control unit 4 sets a base point determination timer.

ステップS121において、入力座標取得部2は、ユーザが表示部8の画面にタッチしたときの、画面上における座標情報を取得する。   In step S <b> 121, the input coordinate acquisition unit 2 acquires coordinate information on the screen when the user touches the screen of the display unit 8.

上記の動作を行うことによって、ユーザは、音楽再生用のプレイリストから特定のアーティストを選択することができる。   By performing the above operation, the user can select a specific artist from the playlist for music reproduction.

特に、ステップS119においてユーザが表示部8に表示されたスライドバー20(索引列)の指定を中断した場合、表示情報記憶部6(記憶部)は、中断直前に指定していた箇所の情報を記憶する。次いで、スライドバー・リスト表示処理部42は、ユーザが指定を中断してから予め定められた時間内に指定を再開した場合において、ユーザによって再度指示された指示点を基点とした一方向に、表示情報記憶部6に記憶された箇所を含むスライドバー20を表示部8に表示するよう制御する。   In particular, when the user interrupts the designation of the slide bar 20 (index column) displayed on the display unit 8 in step S119, the display information storage unit 6 (storage unit) displays the information of the location designated immediately before the interruption. Remember. Next, the slide bar / list display processing unit 42, when the designation is resumed within a predetermined time after the user interrupts the designation, in one direction based on the indication point designated again by the user, Control is performed so that the slide bar 20 including the location stored in the display information storage unit 6 is displayed on the display unit 8.

次に、図3に示す動作に対応するユーザの操作について、図4〜図11を用いて説明する。   Next, user operations corresponding to the operations shown in FIG. 3 will be described with reference to FIGS.

まず、基本的なユーザの操作について、図4〜7を用いて説明する。   First, basic user operations will be described with reference to FIGS.

まず、図4に示すように、ユーザは、表示部8の画面上における任意の領域に、特定のアーティスト名の頭文字を手書きで入力する。   First, as shown in FIG. 4, the user manually inputs an initial letter of a specific artist name in an arbitrary area on the screen of the display unit 8.

次いで、図5に示すように、ユーザは、予め定められた時間内(基点判定タイマ以内)に表示部8の画面上における任意の箇所をタッチする。   Next, as shown in FIG. 5, the user touches an arbitrary location on the screen of the display unit 8 within a predetermined time (within the base point determination timer).

これにより、図6に示すように、手書きで入力した文字を含むスライドバー20が、ユーザがタッチした指示点を基点とした一方向に表示部8に表示される。本実施の形態1では、基点はユーザがタッチした指示点であり、一方向とは基点を含んだ上下方向である。このとき、ユーザがタッチした指示点には、手書きで入力した文字が選択ボタン22として拡大表示される。   As a result, as shown in FIG. 6, the slide bar 20 including the characters input by handwriting is displayed on the display unit 8 in one direction based on the indication point touched by the user. In the first embodiment, the base point is an instruction point touched by the user, and the one direction is a vertical direction including the base point. At this time, characters input by handwriting are enlarged and displayed as selection buttons 22 at the instruction points touched by the user.

また、手書きで入力した文字を頭文字としたアーティストのリスト21が表示される。すなわち、スライドバー20のうちのユーザによって指定されている箇所(文字)に対応する少なくとも1以上のアーティストのリスト21が表示される。   In addition, a list 21 of artists whose initial characters are handwritten characters is displayed. That is, a list 21 of at least one artist corresponding to a portion (character) designated by the user in the slide bar 20 is displayed.

次いで、図7に示すように、ユーザがスライドバー20上をスライドさせると、当該スライドに応じて、スライドバー20においてユーザが選択している文字が選択ボタン22として拡大表示される。同時に、スライドに応じて、ユーザが選択している文字を頭文字としたアーティストのリスト21が表示される。   Next, as shown in FIG. 7, when the user slides on the slide bar 20, the character selected by the user on the slide bar 20 is enlarged and displayed as the selection button 22 in accordance with the slide. At the same time, according to the slide, an artist list 21 with the character selected by the user as an initial is displayed.

次に、ユーザが一旦画面へのタッチを中断してから、再度画面へのタッチを行う操作について、図8〜11を用いて説明する。このような状況は、上述の通り、ユーザが画面から指等を離した場合や、ユーザがタッチしている位置が画面端から外側に外れそうな場合が考えられる。   Next, an operation in which the user temporarily stops touching the screen and then touches the screen again will be described with reference to FIGS. As described above, as described above, a case where the user releases a finger or the like from the screen, or a case where the position touched by the user is likely to come out from the edge of the screen can be considered.

図8は、ユーザがスライドバー20上をスライドさせて表示部8の画面端まで来た場合を示している。   FIG. 8 shows a case where the user slides on the slide bar 20 and reaches the screen end of the display unit 8.

次いで、図9に示すように、ユーザは画面から指を離す(画面へのタッチを中断する)。このとき、ユーザが画面から指を離す直前に選択していた文字(ここでは、図8に示す「g」)は、表示情報記憶部6に記憶される。   Next, as shown in FIG. 9, the user lifts his / her finger from the screen (interrupts touching the screen). At this time, the character (here, “g” shown in FIG. 8) selected immediately before the user lifts his / her finger from the screen is stored in the display information storage unit 6.

次いで、図10に示すように、ユーザは、予め定められた時間内(基点判定タイマ以内)に画面上の任意の箇所をタッチする。   Next, as shown in FIG. 10, the user touches an arbitrary location on the screen within a predetermined time (within the base point determination timer).

これにより、図11に示すように、表示情報記憶部6に記憶されている、ユーザが画面から指を離す直前に選択していた文字を含むスライドバー20が、ユーザがタッチした指示点を基点として表示部8に表示される。このとき、ユーザがタッチした指示点には、ユーザが画面から指を離す直前に選択していた文字が選択ボタン22として拡大表示される。   As a result, as shown in FIG. 11, the slide bar 20 including the character selected immediately before the user lifts his / her finger from the screen stored in the display information storage unit 6 is based on the indication point touched by the user. Is displayed on the display unit 8. At this time, at the indication point touched by the user, the character selected immediately before the user releases the finger from the screen is enlarged and displayed as the selection button 22.

以上のことから、本実施の形態1によれば、ユーザは、音楽再生用のプレイリストから特定のアーティストを選択することができる。すなわち、任意のリストを検索して一の情報を特定する場合における操作性を向上させることが可能となる。具体的には、カーナビゲーション装置やスマートフォンなどの小さい画面であっても、ユーザがストレスを感じることなく確実・容易に操作することができる。特に、スライドバーを固定位置に表示させず、ユーザによる任意の位置に表示させることができるため、ユーザの視覚によってスライドバーの位置を特定する作業が不要となり、操作時間が短縮される。このことは、カーナビゲーション装置など、ユーザによる素早い操作が求められる場合において特に有効である。   From the above, according to the first embodiment, the user can select a specific artist from a playlist for music reproduction. That is, it is possible to improve the operability when searching for an arbitrary list and specifying one piece of information. Specifically, even a small screen such as a car navigation device or a smartphone can be reliably and easily operated without the user feeling stressed. In particular, since the slide bar can be displayed at an arbitrary position by the user without being displayed at the fixed position, an operation for specifying the position of the slide bar by the user's vision becomes unnecessary, and the operation time is shortened. This is particularly effective when a quick operation by the user is required, such as a car navigation device.

また、ユーザが選択している文字を拡大表示することによって、文字の認識を容易にしている。   In addition, the characters selected by the user are enlarged and displayed, thereby facilitating character recognition.

上記では、レターピッカーとしてのスライドバーと、それに対応するリストについて説明したが、レターピッカーに限るものではない。   In the above description, the slide bar as the letter picker and the list corresponding to the slide bar have been described. However, the present invention is not limited to the letter picker.

例えば、図12に示すように、パジネーション(Pagination)をスライドバー23として用いることができる。   For example, as shown in FIG. 12, a pagination can be used as the slide bar 23.

具体的には、ユーザが数字(ここでは「13」)を手書きで入力した後、画面上の任意の箇所をタッチすると当該タッチ位置を基点とした一方向にスライドバー23が表示される。本実施の形態1では、基点はユーザがタッチした指示点であり、一方向とは基点を含んだ左右方向である。このとき、ユーザがタッチした指示点には、手書きで入力した数字が選択ボタン25として拡大表示される。   Specifically, after the user inputs a number (here, “13”) by hand, and touches an arbitrary place on the screen, the slide bar 23 is displayed in one direction with the touch position as a base point. In the first embodiment, the base point is an instruction point touched by the user, and the one direction is the left-right direction including the base point. At this time, the number input by handwriting is enlarged and displayed as the selection button 25 at the indication point touched by the user.

また、手書きで入力した数字に対応するページがリスト24として表示される。すなわち、スライドバー23のうちのユーザによって指定されている箇所(数字)に対応するページ(リスト24)が表示される。   In addition, pages corresponding to numbers input by handwriting are displayed as a list 24. That is, the page (list 24) corresponding to the location (number) designated by the user in the slide bar 23 is displayed.

また、ユーザがスライドバー23上をスライドさせると、当該スライドに応じて、スライドバー23においてユーザが選択している数字が選択ボタン22として拡大表示される。同時に、スライドに応じて、ユーザが選択している数字に対応するページが表示される。本実施の形態1では、1つの選択要素であるページがリスト24として表示されている。   When the user slides on the slide bar 23, the number selected by the user on the slide bar 23 is enlarged and displayed as the selection button 22 in accordance with the slide. At the same time, a page corresponding to the number selected by the user is displayed according to the slide. In the first embodiment, a page that is one selection element is displayed as a list 24.

上記より、実施の形態1におけるレターピッカーをパジネーションに代えた場合であっても、実施の形態1と同様の効果が得られる。すなわち、ユーザが入力する数字は、複数のページ(選択要素)の集合体から一のページを選択する際における、選択の手がかりとなる情報となる。   From the above, even if the letter picker in the first embodiment is replaced with pagination, the same effect as in the first embodiment can be obtained. That is, the number input by the user is information that serves as a clue for selection when selecting one page from an aggregate of a plurality of pages (selection elements).

<実施の形態2>
まず、本発明の実施の形態2による情報処理装置の構成について説明する。
<Embodiment 2>
First, the configuration of the information processing apparatus according to the second embodiment of the present invention will be described.

本実施の形態2では、実施の形態1における手書き入力に代わって、音声入力することを特徴としている。   The second embodiment is characterized by voice input instead of the handwriting input in the first embodiment.

本実施の形態2では、音楽再生用のプレイリストから特定のアーティスト(artist)を選択する場合を一例として説明する。   In the second embodiment, a case where a specific artist is selected from a playlist for music playback will be described as an example.

図13は、本実施の形態2による情報処理装置1の構成の一例を示す図である。   FIG. 13 is a diagram illustrating an example of the configuration of the information processing apparatus 1 according to the second embodiment.

図13に示すように、情報処理装置1は、入力音声取得部9および音声認識部10を備え、入力音声取得部9はマイク11に接続されていることを特徴とする。その他の構成は、実施の形態1と同様であるため、ここでは説明を省略する。   As illustrated in FIG. 13, the information processing apparatus 1 includes an input voice acquisition unit 9 and a voice recognition unit 10, and the input voice acquisition unit 9 is connected to a microphone 11. Other configurations are the same as those in the first embodiment, and thus description thereof is omitted here.

入力音声取得部9は、ユーザがマイク11を介して入力した音声情報を取得する。   The input voice acquisition unit 9 acquires voice information input by the user via the microphone 11.

音声認識部10は、入力音声取得部9にて取得された音声情報に基づいて、ユーザがマイク11を介して入力した音声の認識処理を行う。   The voice recognition unit 10 performs a process for recognizing voice input by the user via the microphone 11 based on the voice information acquired by the input voice acquisition unit 9.

このように、本実施の形態2による入力音声取得部9は、複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する入力情報取得部としての機能を有している。また、音声認識部10は、入力音声取得部9にて入力された情報を認識する入力情報認識部としての機能を有している。   As described above, the input voice acquisition unit 9 according to the second embodiment acquires information that serves as a clue for selection input by the user in order to select one selection element from a collection of a plurality of selection elements. It has a function as an information acquisition unit. The voice recognition unit 10 has a function as an input information recognition unit that recognizes information input by the input voice acquisition unit 9.

次に、情報処理装置1の動作について説明する。   Next, the operation of the information processing apparatus 1 will be described.

図14は、情報処理装置1の動作の一例を示すフローチャートである。なお、図14のステップS210〜ステップS217における処理は、図3のステップS114〜ステップS121における処理に対応している。   FIG. 14 is a flowchart illustrating an example of the operation of the information processing apparatus 1. Note that the processing in steps S210 to S217 in FIG. 14 corresponds to the processing in steps S114 to S121 in FIG.

ステップS201において、入力音声取得部9は、ユーザがマイク11を介して入力した音声情報を取得したか否かを判断する。音声情報を取得したと判断した場合はステップS202に移行する。一方、音声情報を取得していないと判断した場合は、音声情報を取得するまでステップS201の処理を繰り返す。   In step S <b> 201, the input voice acquisition unit 9 determines whether voice information input by the user via the microphone 11 has been acquired. If it is determined that the voice information has been acquired, the process proceeds to step S202. On the other hand, if it is determined that the voice information has not been acquired, the process of step S201 is repeated until the voice information is acquired.

ステップS202において、音声認識部10は、入力音声取得部9にて取得された音声情報に基づいて、ユーザがマイク11を介して入力した音声の認識処理を行う。   In step S <b> 202, the voice recognition unit 10 performs a process for recognizing the voice input by the user via the microphone 11 based on the voice information acquired by the input voice acquisition unit 9.

ステップS203において、音声認識部10は、ユーザが入力した音声を認識したか否かを判断する。音声を認識していないと判断した場合はステップS201に移行する。一方、音声を認識したと判断した場合はステップS204に移行する。   In step S203, the voice recognition unit 10 determines whether or not the voice input by the user has been recognized. If it is determined that the voice is not recognized, the process proceeds to step S201. On the other hand, if it is determined that the voice has been recognized, the process proceeds to step S204.

ステップS204において、表示情報記憶処理部43は、認識した音声を文字として表示情報記憶部6に記憶するための処理を行う。すなわち、音声認識部10にて認識された音声は、文字として表示情報記憶部6に記憶される。   In step S204, the display information storage processing unit 43 performs a process for storing the recognized voice as characters in the display information storage unit 6. That is, the voice recognized by the voice recognition unit 10 is stored in the display information storage unit 6 as characters.

ステップS205において、制御部4は、基点判定タイマを設定する。   In step S205, the control unit 4 sets a base point determination timer.

ステップS206において、入力座標取得部2は、ユーザが表示部8の画面にタッチしたときの、画面上における座標情報を取得したか否かを判断する。座標情報を取得したと判断した場合はステップS207に移行する。一方、座標情報を取得していないと判断した場合は、座標情報を取得するまでステップS206の処理を繰り返す。   In step S206, the input coordinate acquisition unit 2 determines whether or not coordinate information on the screen when the user touches the screen of the display unit 8 has been acquired. If it is determined that the coordinate information has been acquired, the process proceeds to step S207. On the other hand, if it is determined that the coordinate information has not been acquired, the process of step S206 is repeated until the coordinate information is acquired.

ステップS207において、制御部4は、基点判定タイマ以内か否かを判断する。   In step S207, the control unit 4 determines whether it is within the base point determination timer.

ここで、基点判定タイマとは、ステップS204において音声認識部10が音声を認識した後にステップS206において入力座標取得部2が座標情報を取得するまでの時間、あるいはステップS206において入力座標取得部2が座標情報を取得した後に再度座標情報を取得するまでの時間(ユーザが画面から指を離した後に再度タッチするまでの時間)の閾値を示しており、ユーザが画面をタッチした指示点を基点としたスライドバー20を表示部8に表示するか否かの判定に用いられる。基点判定タイマは、ステップS205およびステップS216(後述)にて設定される。   Here, the base point determination timer is the time until the input coordinate acquisition unit 2 acquires the coordinate information in step S206 after the voice recognition unit 10 recognizes the voice in step S204, or the input coordinate acquisition unit 2 in step S206. Indicates the threshold value of the time until the coordinate information is acquired again after acquiring the coordinate information (the time until the user touches again after releasing the finger from the screen). This is used to determine whether or not to display the slide bar 20 on the display unit 8. The base point determination timer is set in step S205 and step S216 (described later).

基点判定タイマ以内でないと判断した場合はステップS209に移行する。一方、基点判定タイマ以内であると判断した場合はステップS208に移行する。   When it is determined that it is not within the base point determination timer, the process proceeds to step S209. On the other hand, if it is determined that it is within the base point determination timer, the process proceeds to step S208.

ステップS208において、制御部4は、基点判定タイマの設定を解除する。   In step S208, the control unit 4 cancels the setting of the base point determination timer.

ステップS209において、制御部4は、基点判定タイマの設定を解除する。   In step S209, the control unit 4 cancels the setting of the base point determination timer.

ステップS210において、スライドバー・リスト作成処理部41は、ステップS204あるいはステップS214にて記憶した文字を表示情報記憶部6から取得する。なお、情報処理装置1の動作を開始してから最初のステップS210では、ステップS204にて記憶した文字を表示情報記憶部6から取得する。   In step S210, the slide bar / list creation processing unit 41 acquires the characters stored in step S204 or step S214 from the display information storage unit 6. In the first step S210 after the operation of the information processing apparatus 1 is started, the character stored in step S204 is acquired from the display information storage unit 6.

ステップS211において、スライドバー・リスト作成処理部41は、表示情報記憶部6から取得した文字に基づいて、スライドバー20およびリスト21を作成する。   In step S211, the slide bar / list creation processing unit 41 creates the slide bar 20 and the list 21 based on the characters acquired from the display information storage unit 6.

具体的に、スライドバー・リスト作成処理部41は、表示情報記憶部6から取得した文字を含むスライドバー20を作成し、表示情報記憶部6から取得した文字を頭文字としたアーティストのリスト21を見出しデータベース7から取得して作成する(図2参照)。   Specifically, the slide bar list creation processing unit 41 creates the slide bar 20 including the characters acquired from the display information storage unit 6, and the artist list 21 using the characters acquired from the display information storage unit 6 as initials 21. Is obtained from the header database 7 (see FIG. 2).

ステップS212において、スライドバー・リスト表示処理部42は、ユーザが画面をタッチした指示点を基点としたスライドバー20を表示部8に表示するよう処理を行う。また、スライドバー20のうちのユーザによって指定されている箇所に対応する(ユーザが選択した文字を頭文字とした)少なくとも1以上のアーティストのリスト21を表示部8に表示するよう処理を行う。   In step S <b> 212, the slide bar / list display processing unit 42 performs processing to display the slide bar 20 on the display unit 8 based on the indication point where the user touches the screen. In addition, processing is performed so that a list 21 of at least one artist corresponding to a portion specified by the user in the slide bar 20 (using the character selected by the user as an initial) is displayed on the display unit 8.

次いで、画面表示処理部5は、スライドバー・リスト表示処理部42にて処理されたスライドバー20およびリスト21を表示部8に表示するための処理を行う。すなわち、表示部8にはスライドバー20およびリスト21が表示される。   Next, the screen display processing unit 5 performs processing for displaying the slide bar 20 and the list 21 processed by the slide bar / list display processing unit 42 on the display unit 8. That is, the slide bar 20 and the list 21 are displayed on the display unit 8.

ステップS213において、拡大処理部44は、表示部8に表示されているスライドバー20上でユーザが選択している文字を拡大表示する。具体的には、ユーザが選択している文字を選択ボタン22として拡大表示する。   In step S <b> 213, the enlargement processing unit 44 enlarges and displays the character selected by the user on the slide bar 20 displayed on the display unit 8. Specifically, the character selected by the user is enlarged and displayed as the selection button 22.

ステップS214において、表示情報記憶処理部43は、スライドバー20上でユーザが選択している文字を表示情報記憶部6に記憶するための処理を行う。すなわち、スライドバー20上でユーザが選択している文字は、表示情報記憶部6に記憶される。   In step S <b> 214, the display information storage processing unit 43 performs processing for storing the character selected by the user on the slide bar 20 in the display information storage unit 6. That is, the character selected by the user on the slide bar 20 is stored in the display information storage unit 6.

ステップS215において、制御部4は、ユーザが画面へのタッチを中断したか否かを判断する。   In step S215, the control unit 4 determines whether the user has interrupted touching the screen.

ユーザが画面へのタッチを中断した場合はステップS216に移行する。この場合、例えば、ユーザが画面から指等を離したか、あるいはユーザがタッチしている位置が画面端から外側に外れたと判断する。   When the user interrupts the touch on the screen, the process proceeds to step S216. In this case, for example, it is determined that the user has lifted his / her finger or the like from the screen, or the position touched by the user has moved outward from the screen edge.

一方、ユーザが画面へのタッチを中断していない場合はステップS217に移行する。この場合は、ユーザがスライドバー20をスライドさせて他のリスト21を表示させる操作(スクロール操作)をしていると判断する。   On the other hand, if the user has not interrupted touching the screen, the process proceeds to step S217. In this case, it is determined that the user is performing an operation (scroll operation) for sliding the slide bar 20 to display another list 21.

ステップS216において、制御部4は、基点判定タイマを設定する。   In step S216, the control unit 4 sets a base point determination timer.

ステップS217において、入力座標取得部2は、ユーザが表示部8の画面にタッチしたときの、画面上における座標情報を取得する。   In step S217, the input coordinate acquisition unit 2 acquires coordinate information on the screen when the user touches the screen of the display unit 8.

以上のことから、本実施の形態2によれば、実施の形態1における手書き入力に代わって音声入力する場合であっても、実施の形態1と同様の効果が得られる。また、上記ではレターピッカーについて説明したが、パジネーションの場合であっても上記と同様の効果が得られる。   From the above, according to the second embodiment, the same effects as in the first embodiment can be obtained even when voice input is performed instead of the handwriting input in the first embodiment. In addition, the letter picker has been described above, but the same effect as described above can be obtained even in the case of pagination.

以上で説明した情報処理装置1は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能な、PND(Portable Navigation Device)および携帯通信端末(例えば、携帯電話、スマートフォン、およびタブレット端末など)、並びにサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置にも適用することができる。この場合、情報処理装置1の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。   The information processing apparatus 1 described above is not only a vehicle-mounted navigation device, that is, a car navigation device, but also a PND (Portable Navigation Device) and a mobile communication terminal (for example, a mobile phone, a smartphone, and a tablet terminal) that can be mounted on a vehicle. Etc.), and a navigation apparatus constructed as a system by appropriately combining servers and the like. In this case, each function or each component of the information processing apparatus 1 is distributed and arranged in each function for constructing the system.

具体的には、情報処理装置1の一部の機能を携帯通信端末、PNDあるいはサーバに配置することができる。また、車載装置としてDA(Display Audio)を用いた場合、DAは表示および音声出力のみが可能なのでそれ以外の機能を携帯通信端末、PND、あるいはサーバに配置することができる。   Specifically, some functions of the information processing apparatus 1 can be arranged in a mobile communication terminal, a PND, or a server. Further, when DA (Display Audio) is used as an in-vehicle device, since DA can only display and output audio, other functions can be arranged in the mobile communication terminal, PND, or server.

例えば、情報処理装置1の機能がサーバに配置される場合において、情報処理装置1は、複数の選択要素の集合体から一の選択要素を選択するために、ユーザによって入力された選択の手がかりとなる情報を取得する入力情報取得部と、入力情報取得部にて入力された情報を認識する入力情報認識部と、選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の選択要素のリストとを表示するための制御を行う索引列・リスト表示制御部とを備え、索引列・リスト表示制御部は、入力情報認識部にて認識された情報に基づいて、かつ表示部においてユーザによって指示された指示点を基点とした一方向に、索引列を表示するよう制御する。   For example, in the case where the function of the information processing apparatus 1 is arranged on a server, the information processing apparatus 1 has a selection clue input by the user in order to select one selection element from a collection of a plurality of selection elements. An input information acquisition unit for acquiring information, an input information recognition unit for recognizing information input by the input information acquisition unit, an index column of a selected element, and a location specified by a user in the index column And an index column / list display control unit that performs control for displaying a list of at least one selected element corresponding to the information, and the index column / list display control unit includes information recognized by the input information recognition unit And the index string is controlled to be displayed in one direction based on the designated point designated by the user on the display unit.

上記の構成とした場合であっても、実施の形態1,2と同様の効果が得られる。   Even if it is a case where it is said structure, the effect similar to Embodiment 1, 2 is acquired.

また、実施の形態1,2における動作を実行するソフトウェア(情報処理方法)を、例えば、携帯通信端末、PNDあるいはサーバに組み込んでもよい。実施の形態1,2における動作を実行するソフトウェアを携帯通信端末、PNDあるいはサーバに組み込んで動作させることによって、実施の形態と同様の効果が得られる。   Further, software (information processing method) for executing the operations in the first and second embodiments may be incorporated in, for example, a mobile communication terminal, a PND, or a server. The same effects as those of the embodiment can be obtained by incorporating the software for executing the operations in the first and second embodiments into the mobile communication terminal, the PND, or the server.

なお、図1,13において、入力座標取得部2、手書き文字認識部3、制御部4(スライドバー・リスト作成処理部41、スライドバー・リスト表示処理部42、表示情報記憶処理部43、拡大処理部44を含む)、画面表示処理部5、入力音声取得部9、および音声認識部10の各々は、ソフトウェアに基づくCPUを用いたプログラム処理を実行することによって実現されるものとして説明したが、可能であれば、入力座標取得部2、手書き文字認識部3、制御部4(スライドバー・リスト作成処理部41、スライドバー・リスト表示処理部42、表示情報記憶処理部43、拡大処理部44を含む)、画面表示処理部5、入力音声取得部9、および音声認識部10の各々を、ハードウェア(例えば、電気信号に対して特定の演算あるいは処理を行うように構成された演算/処理回路等)として構成するようにしてもよい。また、上記の両者を混在させてもよい。   1 and 13, the input coordinate acquisition unit 2, the handwritten character recognition unit 3, the control unit 4 (slide bar / list creation processing unit 41, slide bar / list display processing unit 42, display information storage processing unit 43, enlargement) Each of the screen display processing unit 5, the input voice acquisition unit 9, and the voice recognition unit 10 has been described as being realized by executing a program process using a CPU based on software. If possible, the input coordinate acquisition unit 2, the handwritten character recognition unit 3, the control unit 4 (slide bar / list creation processing unit 41, slide bar / list display processing unit 42, display information storage processing unit 43, enlargement processing unit 44), the screen display processing unit 5, the input voice acquisition unit 9, and the voice recognition unit 10 are each configured to perform a specific calculation or May be configured for as by arithmetic / processing circuit) configured to perform. Further, both of the above may be mixed.

図1,13において、表示情報記憶部6、見出しデータベース7、およびその他の図示しない記憶部の各々は、データを記憶しておく機能を、例えばHDD(Hard Disk Drive)、DVD(Digital Versatile Disk)、半導体メモリなどによって構成してもよい。   1 and 13, each of the display information storage unit 6, heading database 7, and other storage units (not shown) has a function of storing data, for example, HDD (Hard Disk Drive), DVD (Digital Versatile Disk). Alternatively, a semiconductor memory may be used.

図3において、情報処理装置1の動作は、情報処理装置1を起動する(電源をオン状態にする)とともに開始し、情報処理装置1を終了する(電源をオフ状態にする)とともに終了するようにしてもよい。   In FIG. 3, the operation of the information processing apparatus 1 starts when the information processing apparatus 1 is started (turns on the power), and ends when the information processing apparatus 1 ends (turns off the power). It may be.

図3のステップS105において、文字の認識処理は、文字認識に関する周知技術を用いて行うようにしてもよい。   In step S105 of FIG. 3, the character recognition process may be performed using a known technique related to character recognition.

図3のステップS107およびステップS109において、座標情報は図示しない記憶部に記憶させるようにしてもよい。このとき、当該記憶部は、手書き文字認識部3の内外いずれに設けてもよい。また、座標情報を表示情報記憶部6に記憶させるようにしてもよい。   In step S107 and step S109 in FIG. 3, the coordinate information may be stored in a storage unit (not shown). At this time, the storage unit may be provided inside or outside the handwritten character recognition unit 3. Further, the coordinate information may be stored in the display information storage unit 6.

図10において、表示部8にはリスト21が表示されているが、表示しないようにしてもよい。   In FIG. 10, the list 21 is displayed on the display unit 8, but may not be displayed.

実施の形態1では、音楽再生用のプレイリストから特定のアーティスト(artist)を選択する場合を一例として説明したが、これに限られるものではない。例えば、音楽再生用のプレイリストから特定のアルバム(album)あるいはトラック(track)を選択する場合においても適用可能である。また、電話発信時やメール送信時において、アドレス帳から宛先を選択する場合においても適用可能である。すなわち、リストから特定の情報を選択するような場合において適用可能である。   In the first embodiment, the case where a specific artist is selected from a playlist for music playback has been described as an example. However, the present invention is not limited to this. For example, the present invention can be applied to a case where a specific album (album) or track (track) is selected from a playlist for music playback. Further, the present invention can also be applied to a case where a destination is selected from the address book when making a call or sending a mail. In other words, the present invention can be applied when specific information is selected from the list.

スライドバー20,23上に表示される文字の大きさ、文字の配置間隔は予め決定しておいてもよく、ユーザが任意に設定可能としてもよい。   The size of characters displayed on the slide bars 20 and 23 and the character arrangement interval may be determined in advance, or may be arbitrarily set by the user.

スライドバー20,23の表示は、上下方向あるいは左右方向に限らない。すなわち、スライドバー20,23は、基点を含んだ360度方向のうちの一の方向に表示されればよい。このとき、基点がスライドバー20,23の端点である必要はない。また、スライドバー20,23上に複数の文字または数字を表示させなくてもよい。例えば、ユーザによる任意の方向へのスライドに従って、文字あるいは数字を表示するようにしてもよい。   The display of the slide bars 20 and 23 is not limited to the vertical direction or the horizontal direction. That is, the slide bars 20 and 23 may be displayed in one direction of 360 degrees including the base point. At this time, the base point need not be the end points of the slide bars 20 and 23. Moreover, it is not necessary to display a plurality of characters or numbers on the slide bars 20 and 23. For example, characters or numbers may be displayed in accordance with a slide in an arbitrary direction by the user.

実施の形態1では、スライドバー20が上下方向に表示され、ユーザがスライドバー20上を下方向にスライド(操作)する場合を一例として説明したが(図7,8を参照)、ユーザはスライドバー20上を上方向にスライドすることも可能である。また、図12に示すように、スライドバー23が左右方向に表示された場合において、ユーザは右方向および左方向のいずれの方向にもスライドすることが可能である。すなわち、ユーザによって指示された指示点を基点とした一方向にスライドバー20,23が表示された場合において、ユーザは一の方向だけでなく他の方向にもスライドすることが可能である。   In the first embodiment, the case where the slide bar 20 is displayed vertically and the user slides (operates) the slide bar 20 downward has been described as an example (see FIGS. 7 and 8). It is also possible to slide upward on the bar 20. Also, as shown in FIG. 12, when the slide bar 23 is displayed in the left-right direction, the user can slide in either the right direction or the left direction. That is, when the slide bars 20 and 23 are displayed in one direction based on the designated point designated by the user, the user can slide not only in one direction but also in other directions.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。   It should be noted that the present invention can be freely combined with each other within the scope of the invention, and each embodiment can be appropriately modified or omitted.

1 情報処理装置、2 入力座標取得部、3 手書き文字認識部、4 制御部、5 画面表示処理部、6 表示情報記憶部、7 見出しデータベース、8 表示部、9 入力音声取得部、10 音声認識部、11 マイク、20 スライドバー、21 リスト、22 選択ボタン、23 スライドバー、24 リスト、25 選択ボタン、41 スライドバー・リスト作成処理部、42 スライドバー・リスト表示処理部、43 表示情報記憶処理部、44 拡大処理部。   DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 2 Input coordinate acquisition part, 3 Handwritten character recognition part, 4 Control part, 5 Screen display process part, 6 Display information memory | storage part, 7 Headline database, 8 Display part, 9 Input audio | voice acquisition part, 10 Voice recognition , 11 Microphone, 20 Slide bar, 21 List, 22 Select button, 23 Slide bar, 24 List, 25 Select button, 41 Slide bar / list creation processing unit, 42 Slide bar / list display processing unit, 43 Display information storage processing Part, 44 Enlargement processing part.

Claims (8)

複数の選択要素の集合体から一の前記選択要素を選択するために、ユーザによって入力された前記選択の手がかりとなる情報を取得する入力情報取得部と、
前記入力情報取得部にて取得された前記情報を認識する入力情報認識部と、
前記選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の前記選択要素のリストとを表示するための制御を行う索引列・リスト表示制御部と、
前記索引列・リスト表示制御部の制御の下で前記索引列および前記リストを表示する表示部と、
を備え、
前記索引列・リスト表示制御部は、前記入力情報認識部にて認識された前記情報に基づいて、かつ前記表示部において前記ユーザによって指示された指示点を基点とした一方向に、前記索引列を表示するよう制御することを特徴とする、情報処理装置。
An input information acquisition unit for acquiring information serving as a clue to the selection input by a user in order to select one of the selection elements from a collection of a plurality of selection elements;
An input information recognition unit for recognizing the information acquired by the input information acquisition unit;
An index column / list display control unit that performs control for displaying an index column of the selected element and a list of at least one or more of the selected elements corresponding to a portion specified by the user in the index column; ,
A display unit for displaying the index column and the list under the control of the index column / list display control unit;
With
The index string / list display control unit is configured to perform the index string in one direction based on the information recognized by the input information recognition unit and based on an instruction point designated by the user on the display unit. An information processing apparatus that controls to display the information.
前記ユーザが前記表示部に表示された前記索引列の指定を中断した場合における、当該中断直前に指定していた箇所の情報を記憶する記憶部をさらに備え、
前記索引列・リスト表示制御部は、前記ユーザが前記指定を中断してから予め定められた時間内に前記指定を再開した場合において、前記ユーザによって再度指示された指示点を基点とした一方向に、前記記憶部に記憶された前記箇所を含む前記索引列を前記表示部に表示するよう制御することを特徴とする、請求項1に記載の情報処理装置。
In the case where the user interrupts the designation of the index string displayed on the display unit, the storage unit further stores information on the location designated immediately before the interruption,
The index string / list display control unit is configured to perform a one-way operation based on an instruction point that is designated again by the user when the designation is resumed within a predetermined time after the user interrupts the designation. The information processing apparatus according to claim 1, further comprising: controlling the index string including the location stored in the storage unit to be displayed on the display unit.
前記索引列において前記ユーザが指定中の箇所の情報を拡大する処理を行う拡大処理部をさらに備え、
前記表示部は、前記拡大処理部にて拡大された前記索引列の箇所の情報を表示することを特徴とする、請求項1または2に記載の情報処理装置。
The image processing apparatus further includes an enlargement processing unit that performs a process of enlarging information on a location that is designated by the user in the index string,
The information processing apparatus according to claim 1, wherein the display unit displays information on a location of the index string enlarged by the enlargement processing unit.
前記選択の手がかりとなる情報、および前記索引列の情報は、頭文字または数字であることを特徴とする、請求項1ないし3のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the information serving as a clue for selection and the information of the index string are initials or numbers. 前記ユーザによる前記入力、前記指定、および前記指示は、タッチで行われることを特徴とする、請求項1ないし4のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the input, the designation, and the instruction by the user are performed by touch. 前記ユーザによる前記入力は音声で行われ、前記指定および前記指示はタッチで行われることを特徴とする、請求項1ないし4のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the input by the user is performed by voice, and the designation and the instruction are performed by touch. 複数の選択要素の集合体から一の前記選択要素を選択するために、ユーザによって入力された前記選択の手がかりとなる情報を取得する入力情報取得部と、
前記入力情報取得部にて取得された前記情報を認識する入力情報認識部と、
前記選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の前記選択要素のリストとを表示するための制御を表示部に対して行う索引列・リスト表示制御部と、
を備え、
前記索引列・リスト表示制御部は、前記入力情報認識部にて認識された前記情報に基づいて、かつ前記表示部において前記ユーザによって指示された指示点を基点とした一方向に、前記索引列を表示するよう制御することを特徴とする、情報処理装置。
An input information acquisition unit for acquiring information serving as a clue to the selection input by a user in order to select one of the selection elements from a collection of a plurality of selection elements;
An input information recognition unit for recognizing the information acquired by the input information acquisition unit;
An index column that controls the display unit to display an index column of the selected element and a list of at least one or more of the selected elements corresponding to a location specified by the user in the index column. A list display control unit;
With
The index string / list display control unit is configured to perform the index string in one direction based on the information recognized by the input information recognition unit and based on an instruction point designated by the user on the display unit. An information processing apparatus that controls to display the information.
(a)複数の選択要素の集合体から一の前記選択要素を選択するために、ユーザによって入力された前記選択の手がかりとなる情報を取得する工程と、
(b)前記工程(a)にて取得された前記情報を認識する工程と、
(c)前記選択要素の索引列と、当該索引列のうちのユーザによって指定されている箇所に対応する少なくとも1以上の前記選択要素のリストとを表示するための制御を行う工程と、
(d)前記工程(c)の制御の下で前記索引列および前記リストを表示する工程と、
を備え、
前記工程(c)は、前記工程(b)にて認識された前記情報に基づいて、かつ前記工程(d)において前記ユーザによって指示された指示点を基点とした一方向に、前記索引列を表示するよう制御することを特徴とする、情報処理方法。
(A) obtaining information serving as a clue to the selection input by a user in order to select one of the selection elements from a collection of a plurality of selection elements;
(B) recognizing the information acquired in the step (a);
(C) performing a control for displaying an index column of the selection element and a list of at least one or more selection elements corresponding to a location specified by a user in the index column;
(D) displaying the index column and the list under the control of step (c);
With
In the step (c), the index string is set in one direction based on the information recognized in the step (b) and based on the indication point designated by the user in the step (d). An information processing method characterized by controlling display.
JP2013138540A 2013-07-02 2013-07-02 Information processing apparatus and information processing method Active JP5980173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013138540A JP5980173B2 (en) 2013-07-02 2013-07-02 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013138540A JP5980173B2 (en) 2013-07-02 2013-07-02 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2015011639A true JP2015011639A (en) 2015-01-19
JP5980173B2 JP5980173B2 (en) 2016-08-31

Family

ID=52304712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013138540A Active JP5980173B2 (en) 2013-07-02 2013-07-02 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP5980173B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033576A (en) * 2016-09-07 2017-02-09 株式会社ワコム Handwritten data drawing method, handwritten data drawing device, and program
JP2017535890A (en) * 2014-11-27 2017-11-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method, apparatus, and electronic device for manipulating page information
JP2018124943A (en) * 2017-01-31 2018-08-09 キヤノン株式会社 Image processing apparatus, control method, and program
CN108513024A (en) * 2017-02-24 2018-09-07 株式会社东芝 Display control unit and display control method
CN112947818A (en) * 2021-02-07 2021-06-11 深圳市大梦龙途文化传播有限公司 List-based information display method, system, device and storage medium
JP2021103533A (en) * 2019-11-14 2021-07-15 株式会社ワコム Method, computer, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798643A (en) * 1993-06-14 1995-04-11 Info Enterp Inc Method for display of page selected by user
JPH07225663A (en) * 1994-02-09 1995-08-22 Fujitsu Ltd Handwritten information input device
JP2001296991A (en) * 2000-04-13 2001-10-26 Canon Inc Data processing apparatus, data processing method and recording medium
US20040150668A1 (en) * 2003-01-31 2004-08-05 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
JP2005196250A (en) * 2003-12-26 2005-07-21 Kyocera Corp Information input support device and information input support method
JP2010033537A (en) * 2008-07-03 2010-02-12 Denso It Laboratory Inc Display controller and display control method
JP2013003619A (en) * 2011-06-13 2013-01-07 Sharp Corp Operation device and image forming device
JP2013019958A (en) * 2011-07-07 2013-01-31 Denso Corp Sound recognition device
JP2013097655A (en) * 2011-11-02 2013-05-20 Sharp Corp Information retrieval device, information retrieval method and information retrieval program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798643A (en) * 1993-06-14 1995-04-11 Info Enterp Inc Method for display of page selected by user
JPH07225663A (en) * 1994-02-09 1995-08-22 Fujitsu Ltd Handwritten information input device
JP2001296991A (en) * 2000-04-13 2001-10-26 Canon Inc Data processing apparatus, data processing method and recording medium
US20040150668A1 (en) * 2003-01-31 2004-08-05 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
JP2005196250A (en) * 2003-12-26 2005-07-21 Kyocera Corp Information input support device and information input support method
JP2010033537A (en) * 2008-07-03 2010-02-12 Denso It Laboratory Inc Display controller and display control method
JP2013003619A (en) * 2011-06-13 2013-01-07 Sharp Corp Operation device and image forming device
JP2013019958A (en) * 2011-07-07 2013-01-31 Denso Corp Sound recognition device
JP2013097655A (en) * 2011-11-02 2013-05-20 Sharp Corp Information retrieval device, information retrieval method and information retrieval program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017535890A (en) * 2014-11-27 2017-11-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method, apparatus, and electronic device for manipulating page information
JP2017033576A (en) * 2016-09-07 2017-02-09 株式会社ワコム Handwritten data drawing method, handwritten data drawing device, and program
JP2018124943A (en) * 2017-01-31 2018-08-09 キヤノン株式会社 Image processing apparatus, control method, and program
CN108513024A (en) * 2017-02-24 2018-09-07 株式会社东芝 Display control unit and display control method
CN108513024B (en) * 2017-02-24 2022-03-15 株式会社东芝 Display control device and display control method
JP2021103533A (en) * 2019-11-14 2021-07-15 株式会社ワコム Method, computer, and program
JP7036966B2 (en) 2019-11-14 2022-03-15 株式会社ワコム Methods, computers, and programs
CN112947818A (en) * 2021-02-07 2021-06-11 深圳市大梦龙途文化传播有限公司 List-based information display method, system, device and storage medium

Also Published As

Publication number Publication date
JP5980173B2 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
US11169691B2 (en) Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US10013162B2 (en) Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
JP6435305B2 (en) Device, method and graphical user interface for navigating a list of identifiers
JP6336550B2 (en) Method and graphical user interface for editing on a multifunction device having a touch screen display
KR102398394B1 (en) Input device and user interface interactions
JP5980173B2 (en) Information processing apparatus and information processing method
KR102107491B1 (en) List scroll bar control method and mobile apparatus
US9535503B2 (en) Methods and devices for simultaneous multi-touch input
EP2447857A1 (en) Communication device and electronic device
WO2018113065A1 (en) Information display method, device and terminal device
US20140240262A1 (en) Apparatus and method for supporting voice service in a portable terminal for visually disabled people
JP5345407B2 (en) Name input device and name input method
JP5661000B2 (en) Multi-function information terminal and operation method thereof
EP2708986A1 (en) Input device
JP2010102375A (en) System, method and program for inputting command
KR20200049737A (en) List scroll bar control method and mobile apparatus
WO2018154695A1 (en) Search device and search method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R150 Certificate of patent or registration of utility model

Ref document number: 5980173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250