JP2016206841A - Task management device - Google Patents

Task management device Download PDF

Info

Publication number
JP2016206841A
JP2016206841A JP2015085974A JP2015085974A JP2016206841A JP 2016206841 A JP2016206841 A JP 2016206841A JP 2015085974 A JP2015085974 A JP 2015085974A JP 2015085974 A JP2015085974 A JP 2015085974A JP 2016206841 A JP2016206841 A JP 2016206841A
Authority
JP
Japan
Prior art keywords
task
image
specifying
pop
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015085974A
Other languages
Japanese (ja)
Inventor
剛士 中谷
Tsuyoshi Nakatani
剛士 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015085974A priority Critical patent/JP2016206841A/en
Publication of JP2016206841A publication Critical patent/JP2016206841A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a task management device capable of instantaneously grasping a task related to an object person when facing the object person without performing any operation such as complicate data processing.SOLUTION: A task management device includes: task storage means (45) capable of storing an object person and a task related to the object person in association; task acquisition means (10-14) for extracting the task and the object person from an input voice on the basis of a keyword for extracting the task and a keyboard for extracting the object person related to the task, and for causing the task storage means to store the task and object person; specifying data storage means (23) for storing data related to a specifying image for specifying the object person; determination means (22) for determining whether or not the specifying image is included in a photographic image corresponding to image data output from a camera; and task reading means (24) for, when the specifying image is included, reading the task stored in association with the object person corresponding to the specifying image in the task storage means.SELECTED DRAWING: Figure 1

Description

本発明は、対象者に対して、当該対象者に対応付けて記憶されたタスクを読み出し可能なタスク管理装置に関する。   The present invention relates to a task management apparatus capable of reading a task stored in association with a target person.

従来、会議の参加者毎に設けられた各音声入力装置に入力された各参加者の発言を、それぞれ文書データ化し、各文書データを時系列に沿って発言者毎(すなわち音声入力装置のチャンネル毎)に配置する装置が提案されている(例えば、特許文献1参照)。   Conventionally, each participant's utterance input to each voice input device provided for each participant in the conference is converted into document data, and each document data is converted to each speaker along the time series (that is, the channel of the voice input device). (For example, see Patent Document 1).

特開2013−73323号公報JP2013-73323A

特許文献1に記載の装置によって作成されたデータを、パーソナルコンピュータ(以下、パソコンという)でキーワード検索すれば、各参加者に係るタスクを把握することができる。ところが、会社の同僚等に係るタスクがどのようなタスクであるかは、いちいちパソコンによる検索等を行わなくても、対面した時点で即座に把握できるのが望ましい。また、特許文献1に記載の装置によって作成されたデータを、予め手作業によって大幅に加工しておけば、対象者に係るタスクを即座に読み出すことが可能となるかも知れないが、そのような加工には煩雑な作業が必要となる。   If a keyword search is performed on data created by the apparatus described in Patent Document 1 using a personal computer (hereinafter referred to as a personal computer), a task related to each participant can be grasped. However, it is desirable that the tasks related to the colleagues of the company can be immediately grasped at the time of meeting without performing a search or the like using a personal computer. In addition, if the data created by the apparatus described in Patent Document 1 is processed largely in advance by hand, it may be possible to immediately read out the task related to the subject. Complicated work is required for processing.

そこで、本発明は、対象者に対面した時点で当該対象者に係るタスクを即座に把握することが、煩雑なデータ加工等の作業を行わなくても実現することのできるタスク管理装置の提供を目的としてなされた。   Therefore, the present invention provides a task management device that can immediately grasp a task related to a target person when facing the target person without performing complicated operations such as data processing. It was made as a purpose.

本発明は、タスク記憶手段と、タスク取得手段と、特定用データ記憶と、判断手段と、タスク読み出し手段とを備える。タスク記憶手段は、対象者と当該対象者に係るタスクとを対応付けて記憶可能である。タスク取得手段は、タスクを抽出するためのキーワードとそのタスクに係る対象者を抽出するためのキーワードとに基づき、入力された音声からタスクとそのタスクに係る対象者とを抽出し、両者を対応付けて前記タスク記憶手段に記憶させる。このため、対象者とその対象者に係るタスクとは、自動的に対応付けられてタスク記憶手段に記憶される。   The present invention includes a task storage unit, a task acquisition unit, a specifying data storage, a determination unit, and a task reading unit. The task storage means can store the subject and the task related to the subject in association with each other. The task acquisition means extracts the task and the target person related to the task from the input speech based on the keyword for extracting the task and the keyword for extracting the target person related to the task, and supports both In addition, it is stored in the task storage means. Therefore, the target person and the task related to the target person are automatically associated and stored in the task storage unit.

特定用データ記憶手段は、前記対象者を特定するための特定用画像に係るデータを記憶している。判断手段は、カメラから出力される画像データに対応する撮影画像に前記特定用画像が含まれるか否かを、前記特定用データ記憶手段に記憶されたデータに基づいて判断する。そして判断手段が、前記特定用画像が含まれると判断した場合、タスク読み出し手段は、その特定用画像に対応する対象者に対応付けて前記タスク記憶手段に記憶されたタスクを読み出す。このため、対象者に対面した時点で、その対象者にカメラを向ければ、当該対象者に係るタスクを即座に把握することができる。しかも、タスク記憶手段に対してタスクを記憶させる処理は自動的になされるので、そのような把握を可能とするために煩雑なデータ作業を行う必要もない。   The specifying data storage means stores data relating to the specifying image for specifying the subject. The determining means determines whether or not the specified image is included in the captured image corresponding to the image data output from the camera based on the data stored in the specifying data storage means. When the determination unit determines that the specifying image is included, the task reading unit reads the task stored in the task storage unit in association with the target person corresponding to the specifying image. For this reason, if the camera is pointed at the target person when facing the target person, the task related to the target person can be immediately grasped. In addition, since the task is stored in the task storage means automatically, it is not necessary to perform complicated data work in order to make such a grasp possible.

本発明が適用されたタスク管理装置の構成を表すブロック図である。It is a block diagram showing the structure of the task management apparatus with which this invention was applied. そのタスク管理装置の第1制御部による処理を表すフローチャートである。It is a flowchart showing the process by the 1st control part of the task management apparatus. 前記タスク管理装置の第2制御部による処理を表すフローチャートである。It is a flowchart showing the process by the 2nd control part of the said task management apparatus. 前記タスク管理装置の情報表示部による登録処理を表すフローチャートである。It is a flowchart showing the registration process by the information display part of the said task management apparatus. その情報表示部によるタスク表示処理を表すフローチャートである。It is a flowchart showing the task display process by the information display part. そのタスク表示処理における機能開発タスク表示処理を詳細に表すフローチャートである。It is a flowchart showing in detail the function development task display process in the task display process. 前記タスク表示処理におけるバグ対応タスク表示処理を詳細に表すフローチャートである。It is a flowchart showing in detail the bug corresponding task display process in the task display process. 前記タスク表示処理におけるサポートタスク表示処理を詳細に表すフローチャートである。It is a flowchart showing in detail the support task display process in the task display process. 前記タスク表示処理による表示例を表す説明図である。It is explanatory drawing showing the example of a display by the said task display process. その表示例の一部を詳細に表す説明図である。It is explanatory drawing showing a part of the example of a display in detail. 前記タスク表示処理におけるアクション実行処理を詳細に表すフローチャートである。It is a flowchart showing the action execution process in the said task display process in detail.

以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1−1.構成]
図1に示すタスク管理装置は、互いに通信可能に構成された情報端末機器1とタスク情報管理サーバ40とを備えたタスク管理システムとして構成されている。なお、1つのタスク情報管理サーバ40に対して、複数の情報端末機器1が備えられてもよい。また、情報端末機器1は、以下に説明するように、スマートフォンに適宜のソフトウェア(いわゆるアプリ)をダウンロードすることによっても構成可能である。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The task management apparatus shown in FIG. 1 is configured as a task management system including an information terminal device 1 and a task information management server 40 configured to be able to communicate with each other. A plurality of information terminal devices 1 may be provided for one task information management server 40. Moreover, the information terminal device 1 can also be configured by downloading appropriate software (so-called application) to the smartphone as described below.

情報端末機器1は、音声に係る処理系統として、音声録音部10と、音声データ記憶部11と、第1制御部12と、文書データ保存部13と、第2制御部14とを備える。音声録音部10は、当該情報端末機器1の外部から入力される音声を録音し、音声データとして、音声メモリとしての音声データ記憶部11に記憶させる。なお、音声録音部10には、図1に音声入力A,音声入力B,音声入力Cとして例示するように、複数の発言者の音声が入力されて録音される。第1制御部12は、音声データ記憶部11に記憶された音声データを読み出し、その音声データを文書化して文書データ18を作成し、文書メモリとしての文書データ保存部13に保存する。第2制御部14は、文書データ保存部13に保存された文書データ18を読み出し、その文書データ18に対してキーワード抽出を行うことによってタスク情報19を抽出する。   The information terminal device 1 includes a voice recording unit 10, a voice data storage unit 11, a first control unit 12, a document data storage unit 13, and a second control unit 14 as a processing system related to voice. The voice recording unit 10 records voice input from the outside of the information terminal device 1 and stores it as voice data in a voice data storage unit 11 as a voice memory. The voice recording unit 10 receives and records the voices of a plurality of speakers as illustrated as voice input A, voice input B, and voice input C in FIG. The first control unit 12 reads the audio data stored in the audio data storage unit 11, documents the audio data, creates document data 18, and stores it in the document data storage unit 13 as a document memory. The second control unit 14 reads out the document data 18 stored in the document data storage unit 13 and extracts task information 19 by performing keyword extraction on the document data 18.

情報端末機器1は、前記音声に係る処理系統の他に、情報表示部20と通信部30とを備える。情報表示部20は、カメラ21と、顔認識機能部22と、データ保存部23と、タスク表示部24と、タッチパネル25と、形状認識機能部27と、タスク情報干渉機能部28とを備える。なお、顔認識機能部22及びタスク表示部24及び形状認識機能部27及びタスク情報干渉機能部28は、1つのマイクロコンピュータにおいてソフトウェア上で区分けされてもよく、異なるマイクロコンピュータによってそれぞれ構成されてもよい。カメラ21は、撮影した映像に対応した画像データを出力する。データ保存部23は、通信部30を介して送受信されるデータ等、各種データを記憶可能なメモリである。タッチパネル25は、カラー液晶等を用いたディスプレイを備えた周知のものである。   The information terminal device 1 includes an information display unit 20 and a communication unit 30 in addition to the processing system related to the voice. The information display unit 20 includes a camera 21, a face recognition function unit 22, a data storage unit 23, a task display unit 24, a touch panel 25, a shape recognition function unit 27, and a task information interference function unit 28. The face recognition function unit 22, the task display unit 24, the shape recognition function unit 27, and the task information interference function unit 28 may be divided on software in one microcomputer, or may be configured by different microcomputers. Good. The camera 21 outputs image data corresponding to the captured video. The data storage unit 23 is a memory capable of storing various data such as data transmitted / received via the communication unit 30. The touch panel 25 is a known one provided with a display using a color liquid crystal or the like.

顔認識機能部22は、カメラ21から出力される画像データから顔画像を抽出し、その顔画像に対応する人物を判別してデータ保存部23へ送る。タスク表示部24はタッチパ
ネル25に、カメラ21が撮影した映像を表示する。また、タスク表示部24は、顔認識機能部22によって判別された人物に対応するタスク情報19が存在する場合に、そのタスク情報19をタスク情報管理サーバ40から取得し、カメラ21が撮影した当該人物の画像90に重ねて表示(表示方法の詳細は後述)する。
The face recognition function unit 22 extracts a face image from the image data output from the camera 21, determines a person corresponding to the face image, and sends it to the data storage unit 23. The task display unit 24 displays an image captured by the camera 21 on the touch panel 25. Further, the task display unit 24 acquires the task information 19 from the task information management server 40 when the task information 19 corresponding to the person determined by the face recognition function unit 22 exists, and the camera 21 captures the task information 19. The image is superimposed on the person image 90 (details of the display method will be described later).

形状認識機能部27は、カメラ21から出力される画像データからカメラ21に撮影された物体の形状を判別し、その判別結果をタスク情報干渉機能部28へ送る。タスク情報干渉機能部28は、形状認識機能部27が判別した物体形状が予め登録(すなわち記憶)された所定の指の形状(指示画像の一例)である場合に、タッチパネル25に表示されているタスク情報19に対して消去等の干渉を行う。   The shape recognition function unit 27 determines the shape of the object photographed by the camera 21 from the image data output from the camera 21, and sends the determination result to the task information interference function unit 28. The task information interference function unit 28 is displayed on the touch panel 25 when the object shape determined by the shape recognition function unit 27 is a predetermined finger shape (an example of an instruction image) registered (ie, stored) in advance. Interference such as erasure is performed on the task information 19.

通信部30は、タスク情報管理サーバ40と通信を行うものである。通信部30は、例えば、第2制御部14によって抽出されたタスク情報19をタスク情報管理サーバ40へ送信する。また、通信部30は、例えば、タスク情報管理サーバ40から読み出されたタスク情報19をデータ保存部23へ送信する。また、通信部30は、顔認識機能部22による人物の判別結果を、タスク情報管理サーバ40へ送信する。   The communication unit 30 communicates with the task information management server 40. For example, the communication unit 30 transmits the task information 19 extracted by the second control unit 14 to the task information management server 40. For example, the communication unit 30 transmits the task information 19 read from the task information management server 40 to the data storage unit 23. In addition, the communication unit 30 transmits the person discrimination result by the face recognition function unit 22 to the task information management server 40.

タスク情報管理サーバ40は、通信部41と、タスク管理処理装置43と、タスク保存部45とを備えている。通信部41は、通信部30との間で前述のタスク情報19等の送受信を行う。タスク保存部45は、そのタスク情報19を保存(すなわち記憶)するメモリである。タスク管理処理装置43は、マイクロコンピュータ等によって構成され、通信部41による通信と、タスク保存部45に対するタスクの登録(以下、保存ともいう。:すなわち、記憶させること)及び読み出しを制御する。   The task information management server 40 includes a communication unit 41, a task management processing device 43, and a task storage unit 45. The communication unit 41 transmits and receives the above-described task information 19 and the like with the communication unit 30. The task storage unit 45 is a memory that stores (that is, stores) the task information 19. The task management processing device 43 is configured by a microcomputer or the like, and controls communication by the communication unit 41 and task registration (hereinafter also referred to as storage: storing) and reading with respect to the task storage unit 45.

[1−2.処理]
[1−2−1.音声に係る処理]
次に、情報端末機器1において実行される処理について説明する。情報端末機器1において所定のパネル操作がなされると、第1制御部12は、図2のフローチャートに示す処理(以下、文書化処理ともいう)を実行する。
[1-2. processing]
[1-2-1. Processing related to voice]
Next, processing executed in the information terminal device 1 will be described. When a predetermined panel operation is performed on the information terminal device 1, the first control unit 12 executes a process (hereinafter, also referred to as a document process) shown in the flowchart of FIG.

この処理では、先ず、S1(Sはステップを表す:以下同様)にて、会議参加者(対象者の一例)の音声が録音され、続くS2にて、録音された音声から当該参加者の声紋が登録される。なお、S1の処理の形態には種々の形態が考えられるが、例えば、S1では、情報端末機器1におけるパネル操作によって録音開始が指示されてから録音停止が指示されるまでの間の音声が、1人の参加者の音声として録音されてもよい。また、S2では、当該参加者の声紋が、パネル操作によってテキスト入力された当該参加者の氏名,所属等と対応付けて登録されてもよい。また、S1では、一定時間(例えば2秒)以上の無音期間を開けて録音された音声は異なる参加者の音声として処理されてもよい。その場合、S2では、各参加者毎にテキスト入力された氏名等が各声紋に対応付けられて登録されてもよい。   In this process, first, the voice of the conference participant (an example of the target person) is recorded in S1 (S represents a step; the same applies hereinafter), and in the subsequent S2, the voiceprint of the participant is recorded from the recorded voice. Is registered. Various forms of processing of S1 can be considered. For example, in S1, the sound from when the start of recording is instructed by the panel operation in the information terminal device 1 until the stop of recording is instructed, It may be recorded as the voice of one participant. Further, in S2, the participant's voiceprint may be registered in association with the name, affiliation, etc. of the participant who has entered the text by panel operation. Moreover, in S1, the audio | voice recorded by opening the silence period more than fixed time (for example, 2 second) may be processed as an audio | voice of a different participant. In that case, in S2, a name or the like inputted by text for each participant may be registered in association with each voiceprint.

S2に続くS3では、会議等での音声(すなわち発言)が録音される。この録音も、情報端末機器1におけるパネル操作によって録音開始が指示されてから録音停止が指示されるまでなされてもよい。また、このS3の処理は、後述のように、この文書化処理の実行中に繰り返し実行されるので、録音停止が指示されなくても一定時間(例えば2秒)以上の無音期間があれば次のS4へ処理が移行してもよい。   In S3 following S2, voice (that is, speech) at a meeting or the like is recorded. This recording may also be performed until a recording stop is instructed after a recording start is instructed by a panel operation in the information terminal device 1. Further, as will be described later, since the process of S3 is repeatedly executed during the execution of the documenting process, if there is a silent period of a certain time (for example, 2 seconds) or more even if a recording stop instruction is not given, The process may move to S4.

S3に続くS4では、S3にて録音された音声が、S2にて登録された声紋と照合される。続くS5では、S4による照合に基づき、S3にて録音された発言の声紋と一致する声紋を登録された人物が存在するか否かが判断される。そのような人物が存在する場合は
(S5:Y)、S6にて当該音声の発言者がその人物に特定された後、処理はS7へ移行する。一方、そのような人物が存在しない場合は(S5:N)、S8にて当該音声の発言者が不特定に設定された後、処理はS7へ移行する。
In S4 following S3, the voice recorded in S3 is collated with the voiceprint registered in S2. In subsequent S5, based on the collation in S4, it is determined whether or not there is a person who has registered a voiceprint that matches the voiceprint recorded in S3. If such a person exists (S5: Y), after the speaker of the voice is specified as the person in S6, the process proceeds to S7. On the other hand, when such a person does not exist (S5: N), after the voice speaker is set unspecified in S8, the process proceeds to S7.

S7では、S3にて録音された音声が文書化(すなわち文書データ18に変換)される。続くS9では、文書化されたデータが発言者の情報と対応付けて文書データ保存部13に保存されて、処理は前述のS3へ移行する。なお、S9において、前記文書化されたデータは、録音日時を表す日時情報とも対応付けて文書データ保存部13に保存されてもよい。また、情報端末機器1がGPS等の位置検出手段を備えている場合、S9において、前記文書化されたデータは、録音場所を表す場所情報とも対応付けて文書データ保存部13に保存されてもよい。第1制御部12による以上の処理により、会議等における音声が文書データ18として文書データ保存部13に保存される。   In S7, the voice recorded in S3 is documented (that is, converted into document data 18). In subsequent S9, the documented data is stored in the document data storage unit 13 in association with the speaker information, and the process proceeds to S3 described above. In S9, the documented data may be stored in the document data storage unit 13 in association with date / time information representing the recording date / time. If the information terminal device 1 is provided with position detecting means such as GPS, the documented data may be stored in the document data storage unit 13 in association with the location information indicating the recording location in S9. Good. Through the above processing by the first control unit 12, audio in a meeting or the like is stored in the document data storage unit 13 as document data 18.

第1制御部12による前記処理に連動して、第2制御部14は、図3のフローチャートに示す処理を実行する。この処理では、先ず、S11にて、文書化して文書データ保存部13に保存されている文書データ18から、キーワードが抽出される。このキーワードとしては、例えば、特開2014−135543号公報等に記載の周知のキーワードを用いることができる。また、本実施形態では、タスクの種類が機能開発であることを示唆するキーワードとして、例えば「開発」,「プロジェクト」等のキーワードが抽出される。本実施形態では、タスクの種類がバグ対応であることを示唆するキーワードとして、例えば「バグ」,「苦情」等のキーワードが抽出される。本実施形態では、タスクの種類がサポートであることを示唆するキーワードとして、例えば「サポート」,「支援」等のキーワードが抽出される。   In conjunction with the processing by the first control unit 12, the second control unit 14 executes the processing shown in the flowchart of FIG. In this process, first, keywords are extracted from the document data 18 that has been documented and stored in the document data storage unit 13 in S11. As this keyword, for example, a well-known keyword described in JP 2014-135543 A can be used. In the present embodiment, keywords such as “development” and “project” are extracted as keywords indicating that the type of task is function development. In the present embodiment, keywords such as “bug” and “complaint” are extracted as keywords indicating that the type of task is bug handling. In the present embodiment, keywords such as “support” and “support” are extracted as keywords indicating that the task type is support.

S11に続くS13では、S11によるキーワード抽出結果に応じて、文書データ保存部13に保存されている各発言の文書データ18に対し、その発言の発言者,タスクの内容,タスクの期限,当該タスクを処置するタスク処置者等の内容が抽出される。この情報は、例えば通信部30の一時メモリに、タスク情報19として保存される。   In S13 subsequent to S11, in response to the keyword extraction result in S11, with respect to the document data 18 of each utterance stored in the document data storage unit 13, the utterer of the utterance, the contents of the task, the time limit of the task, the task The contents of the task person or the like who treats are extracted. This information is stored as task information 19 in the temporary memory of the communication unit 30, for example.

例えば、ある発言の文書データ18が「○○さん××までに△△して下さい。」という内容であった場合、次のようなタスク内容の情報と期限の情報とタスク処置者の情報とが抽出され、互いに対応付けてタスク情報19として保存される。すなわち、「さん」というキーワードに基づき「○○」がタスク処置者として、「までに」というキーワードに基づき「××」が期限として、「して下さい」というキーワードに基づき「△△」がタスクの内容として、それぞれ抽出され、タスク情報19として保存される。そして、タスクの内容として抽出された文書データ18の中に、更に、前述のキーワード「開発」が含まれる場合、そのタスクの種類が機能開発とされる。他のキーワード及びタスクの種類に対しても同様の処理がなされる。   For example, if the document data 18 of a certain statement has the content “Please △△ by Mr. XX”, the following task content information, deadline information, task handler information, Are extracted and stored as task information 19 in association with each other. That is, “XX” is a task handler based on the keyword “san”, “XX” is a due date based on the keyword “by”, and “△△” is a task based on the keyword “Please” Are extracted and stored as task information 19. If the above-described keyword “development” is further included in the document data 18 extracted as the contents of the task, the type of the task is set as function development. Similar processing is performed on other keywords and task types.

続くS15では、タスク情報管理サーバ40の通信部41と通信部30を介して通信がなされる。続くS17では、S13にて保存されたタスク情報19が、タスク情報管理サーバ40のタスク管理処理装置43に登録され、処理は前述のS11へ移行する。なお、S13の処理により、タスク情報19がタスク管理処理装置43に登録されると、タスク情報19は、タスク処置者毎に分けられ、更にタスクの種類毎に分けられて、タスク保存部45に保存(すなわち記憶)される。   In subsequent S <b> 15, communication is performed via the communication unit 41 and the communication unit 30 of the task information management server 40. In subsequent S17, the task information 19 stored in S13 is registered in the task management processing device 43 of the task information management server 40, and the process proceeds to S11 described above. Note that when the task information 19 is registered in the task management processing device 43 by the processing of S13, the task information 19 is divided for each task person and further for each type of task, and is stored in the task storage unit 45. Saved (ie, stored).

なお、本実施形態では、タスクの種類を、機能開発とバグ対応とサポートの3種類に分類する。機能開発としては、新規機能の開発,既存の機能の改良等のタスクが含まれる。バグ対応としては、ソフトウェアのバグ修正等のタスクが含まれる。サポートとしては、プロジェクト運営のための資料作成や手続等、成果物に直接結びつかない作業等のタスク
が含まれる。
In the present embodiment, the task types are classified into three types: function development, bug handling, and support. Function development includes tasks such as development of new functions and improvement of existing functions. The bug handling includes tasks such as software bug correction. Support includes tasks such as work that is not directly linked to deliverables, such as the creation of documents and procedures for project management.

[1−2−2.映像に係る処理]
また、映像に係る情報表示部20では、事前準備として、図4のフローチャートに示す登録処理が実行される。この処理は、パネル操作により情報端末機器1が登録モードとされることによって開始される。
[1-2-2. Processing related to video]
Further, in the information display unit 20 related to the video, a registration process shown in the flowchart of FIG. 4 is executed as advance preparation. This process is started when the information terminal device 1 is set to the registration mode by a panel operation.

図4に示すように、この処理では、先ず、S21にて、カメラ21で顔を撮影する処理が実行される。この処理では、具体的には、例えば、情報端末機器1においてシャッタ操作がなされたときにカメラ21から出力される画像データから顔画像が周知の画像解析により抽出され、その顔画像がデータ保存部23に保存される。   As shown in FIG. 4, in this process, first, a process of photographing a face with the camera 21 is executed in S21. Specifically, in this process, for example, a face image is extracted from image data output from the camera 21 when a shutter operation is performed in the information terminal device 1 by a well-known image analysis, and the face image is stored in the data storage unit. 23 is stored.

続くS23では、S21にて撮影された顔画像を登録する処理が実行される。この処理では、前述のS2の処理と同様に、情報端末機器1におけるパネル操作によって入力された当該人物の氏名,所属等の文書データと前記顔画像(特定用画像の一例)の画像データとが対応付けてデータ保存部23に登録される。   In subsequent S23, processing for registering the face image photographed in S21 is executed. In this process, similar to the process of S2 described above, the document data such as the name and affiliation of the person and the image data of the face image (an example of the identification image) input by the panel operation in the information terminal device 1 are included. The data is stored in the data storage unit 23 in association with each other.

続くS25では、アクションと紐付けられる指の形をカメラ21で撮影する処理が実行される。この処理では、具体的には、例えば、情報端末機器1においてシャッタ操作がなされたときにカメラ21から出力される画像データから指の形が周知の画像解析により抽出され、その指の形の画像がデータ保存部23に保存される。なお、この処理で保存される指の形は、一連の指の動きを示す動画であってもよい。   In subsequent S <b> 25, processing is performed in which the camera 21 captures the shape of the finger associated with the action. In this process, specifically, for example, a finger shape is extracted from image data output from the camera 21 when a shutter operation is performed in the information terminal device 1 by a known image analysis, and an image of the finger shape is obtained. Is stored in the data storage unit 23. Note that the finger shape stored in this process may be a moving image showing a series of finger movements.

続くS27では、S25にて撮影された画像をアクションと紐付けして登録する処理が実行され、処理が一旦終了する。この処理では、情報端末機器1におけるパネル操作によってメニューから選択されたアクションと前記指の形の画像とが対応付けてデータ保存部23に登録される。   In subsequent S27, a process of registering the image photographed in S25 in association with the action is executed, and the process is temporarily ended. In this process, the action selected from the menu by the panel operation in the information terminal device 1 and the finger-shaped image are registered in the data storage unit 23 in association with each other.

なお、この登録処理では、顔画像又は指の形状のいずれか一方が既に登録されており、他方の登録のみを行いたい場合は、パネル操作によりキャンセルを指示することで一部の処理を通過することができる。例えば、S21の処理が開始された時点でキャンセルが指示されると、S21,S23の処理を実質的に何もせずに通過することにより、顔画像を登録することなく指の形の画像のみを登録することができる(S25,S27)。また、S25の処理が開始された時点でキャンセルが指示されると、S25,S27の処理を実質的に何もせずに通過することにより、顔画像のみを登録し(S21,S23)、指の形状の画像を登録することなく処理を終了することができる。   In this registration process, if either the face image or the finger shape has already been registered and only registration of the other one is desired, a part of the process is passed by instructing cancellation by panel operation. be able to. For example, if cancellation is instructed at the time when the process of S21 is started, the process passes through S21 and S23 without doing anything so that only a finger-shaped image is registered without registering a face image. Registration is possible (S25, S27). If cancellation is instructed at the time when the processing of S25 is started, only the face image is registered by passing through the processing of S25 and S27 substantially without doing anything (S21, S23). The process can be completed without registering the shape image.

このような登録処理がなされた状態で、パネル操作により情報端末機器1がタスク表示モードとされると、情報表示部20では、図5のフローチャートに示すタスク表示処理が実行される。   When the information terminal device 1 is set to the task display mode by a panel operation in such a registration process, the information display unit 20 executes the task display process shown in the flowchart of FIG.

図5に示すように、この処理では、先ず、S31にて、カメラ21による撮影が開始され、かつ、カメラ21が随時撮影する映像に対応する画像データに対する画像解析が開始される。続くS32では、カメラ21が顔を撮影したか否か、すなわち、カメラ21が撮影した映像に対応する画像データから顔画像が抽出されたか否かが判断される。カメラ21が顔を撮影していない場合は(S32:N)、処理はそのままS32を繰り返して待機し、カメラ21が顔を撮影すると(S32:Y)、処理はS33へ移行する。S33では、カメラ21が撮影した顔が前記登録処理によって画像データとしてデータ保存部23に登録された顔画像と照合される。続くS34では、S33による照合結果に基づき、カメラ21が撮影した顔が前記登録されたいずれかの顔画像と一致したか否かが判断される。
そして、カメラ21が撮影した顔が前記登録されたいずれの顔画像とも一致しない場合は(S34:N)、処理は前述のS32へ移行し、いずれかの顔画像と一致した場合は(S34:Y)、処理はS35へ移行する。
As shown in FIG. 5, in this process, first, in S31, shooting by the camera 21 is started, and image analysis for image data corresponding to video shot by the camera 21 is started. In subsequent S32, it is determined whether or not the camera 21 has photographed a face, that is, whether or not a face image has been extracted from image data corresponding to a video photographed by the camera 21. If the camera 21 has not photographed a face (S32: N), the process repeats S32 as it is and waits. If the camera 21 photographs a face (S32: Y), the process proceeds to S33. In S33, the face photographed by the camera 21 is collated with the face image registered in the data storage unit 23 as image data by the registration process. In subsequent S34, based on the collation result in S33, it is determined whether or not the face photographed by the camera 21 matches any of the registered face images.
If the face photographed by the camera 21 does not match any of the registered face images (S34: N), the process proceeds to S32 described above, and if it matches any of the face images (S34: Y), the process proceeds to S35.

S35では、前記登録処理による登録内容に基づき、カメラ21が撮影した人物の氏名等が特定される。なお、このS32〜S35の処理は、顔認識機能部22による処理である。   In S35, the name of the person photographed by the camera 21 is specified based on the registration contents by the registration process. Note that the processing of S32 to S35 is processing by the face recognition function unit 22.

続くS37では、タスク情報管理サーバ40の通信部41と通信部30を介して通信がなされ、当該人物がタスク処置者とされたタスク情報19が、タスク情報管理サーバ40のタスク管理処理装置43を介してタスク保存部45から全て取得される。なお、取得されたタスク情報19は、データ保存部23に保存される。続くS38では、撮影された人物がタスク処置者として登録されたタスクの種類が、データ保存部23に保存されたタスク情報19から取得される。続くS39では、撮影された人物がタスク処置者として登録されたタスクの期限が、データ保存部23に保存されたタスク情報19から取得される。   In subsequent S37, communication is performed via the communication unit 41 and the communication unit 30 of the task information management server 40, and the task information 19 in which the person is a task person is transferred to the task management processing device 43 of the task information management server 40. Via the task storage unit 45. The acquired task information 19 is stored in the data storage unit 23. In subsequent S38, the type of task in which the photographed person is registered as a task handler is acquired from the task information 19 stored in the data storage unit 23. In the subsequent S39, the time limit of the task in which the photographed person is registered as the task handler is acquired from the task information 19 stored in the data storage unit 23.

続くS40では、図6のフローチャートに詳細を示すような機能開発タスク表示処理が実行される。図6に示すように、この処理では、先ず、当該人物がタスク処置者とされたタスクの中にS38にて取得されたタスクの種類が機能開発であるものが存在するか否かが、S41にて判断される。タスクの種類が機能開発であるものが存在する場合は(S41:Y)、S42にて、そのタスクの中に期限(以下、締め切り期限ともいう)が過ぎたものが存在するか否かかが判断される。締め切り期限が過ぎたものが存在する場合は(S42:Y)、処理はS43へ移行する。S43では、当該タスクが赤色の四角形のポップアップ画面91A上に表示されて、処理はS44へ移行する。   In subsequent S40, a function development task display process as shown in detail in the flowchart of FIG. 6 is executed. As shown in FIG. 6, in this process, first, it is determined in S41 whether or not there is a task whose function type is the function development acquired in S38 among the tasks for which the person is a task handler. Is judged. If there is a task whose type is function development (S41: Y), it is determined in S42 whether there is a task whose deadline (hereinafter also referred to as deadline) has passed. To be judged. If there is one whose deadline has passed (S42: Y), the process proceeds to S43. In S43, the task is displayed on the red rectangular pop-up screen 91A, and the process proceeds to S44.

図9に例示するように、カメラ21が顔を撮影している場合は(S32:Y)、タッチパネル25に、撮影された人物の画像90が表示される。そこで、S44では、全面が薄い赤色の四角形によって構成されたポップアップ画面91Aを人物の画像90の上に重ねて表示し、そのポップアップ画面91Aに黒字でタスクの内容等を表示するのである。なお、図9ではポップアップ画面91Aの詳細を省略したが、詳細には、図10に示すように、ポップアップ画面91Aには種々の情報が文字列で表示されている。すなわち、タスクの種類(この場合、機能開発)と、タスク登録者(例えば、前記発言者)の氏名と、タスク処置者の氏名と、タスクの期限と、タスクの具体的内容とが文字列で表示されている。なお、図9に示された後述の他のポップアップ画面91B〜93も同様である。   As illustrated in FIG. 9, when the camera 21 is photographing a face (Y in S <b> 32), a photographed person image 90 is displayed on the touch panel 25. Therefore, in S44, a pop-up screen 91A composed of a thin red rectangle is displayed over the person image 90, and the task contents and the like are displayed in black on the pop-up screen 91A. Although details of the pop-up screen 91A are omitted in FIG. 9, in detail, as shown in FIG. 10, various information is displayed as character strings on the pop-up screen 91A. That is, the type of task (in this case, function development), the name of the task registrant (for example, the speaker), the name of the task handler, the deadline of the task, and the specific content of the task are character strings. It is displayed. The same applies to other pop-up screens 91B to 93 described later shown in FIG.

図6に戻って、一方、締め切り期限が過ぎたものが存在しない場合は(S42:N)、処理はS42からS44へ直接移行する。S44では、タスクの種類が機能開発である前記タスクの中に締め切り期限が近いもの(例えば、期限まで残り3日未満のもの)が存在するか否かかが判断される。なお、締め切り期限が近いと判断される閾値としての時間(すなわち、期限までの残り時間)は、情報端末機器1毎に個々に適宜の値に設定され、タスクの種類毎に異なる値も設定可能である。S44にて締め切り期限が近いものが存在すると判断された場合は(S44:Y)、処理はS45へ移行する。S45では、当該タスクが黄色の四角形のポップアップ画面91B(図9参照)上に表示されて、処理はS47へ移行する。一方、締め切り期限が近いものが存在しない場合は(S44:N)、処理はS44からS47へ直接移行する。   Returning to FIG. 6, on the other hand, when there is no file whose deadline has passed (S42: N), the process directly proceeds from S42 to S44. In S44, it is determined whether or not there is a task whose deadline is close (for example, less than three days until the deadline) among the tasks whose type of task is function development. In addition, the time as a threshold for determining that the deadline is close (that is, the remaining time until the deadline) is set to an appropriate value for each information terminal device 1, and a different value can be set for each type of task. It is. If it is determined in S44 that there is a close deadline (S44: Y), the process proceeds to S45. In S45, the task is displayed on a yellow rectangular pop-up screen 91B (see FIG. 9), and the process proceeds to S47. On the other hand, when there is no close deadline (S44: N), the process directly proceeds from S44 to S47.

S47では、タスクの種類が機能開発であるものが更に存在するか否かかが判断される。すなわち、タスクの種類が機能開発であるのもの中で、締め切り期限が過ぎたものでもなく、締め切り期限が近いものでもないものが存在するか否かかが判断される。タスクの種類が機能開発のものが更に存在すると判断された場合は(S47:Y)、処理はS48
へ移行する。S48では、当該タスクが青色の四角形のポップアップ画面91C(図9参照)上に表示されて、処理は図5のS50へ移行する。一方、タスクの種類が機能開発であるものが他には存在しない場合は(S47:N)、処理はS47から図5のS50へ直接移行する。また、前述のS41にて、当該人物がタスク処置者とされたタスクの中にS38にて取得されたタスクの種類が機能開発であるものが存在しないと判断された場合は(S41:N)、処理はS41から図5のS50へ直接移行する。
In S47, it is determined whether or not there is a task whose type is function development. That is, it is determined whether or not there is a task whose function type is function development that has not passed the deadline and whose deadline is not near. If it is determined that there are more task types of function development (S47: Y), the process is S48.
Migrate to In S48, the task is displayed on the blue rectangular pop-up screen 91C (see FIG. 9), and the process proceeds to S50 in FIG. On the other hand, if there is no other task type of function development (S47: N), the process directly moves from S47 to S50 in FIG. If it is determined in S41 described above that there is no task whose function is developed in S38 among the tasks in which the person is a task handler (S41: N) The process directly moves from S41 to S50 in FIG.

S50では、図7のフローチャートに詳細を示すようなバグ対応タスク表示処理が実行される。図7に示すように、この処理は、対象となるタスクの種類が異なる点と、ポップアップ画面の形状が異なる点とを除いて、前述の機能開発タスク表示処理と同様である。   In S50, a bug handling task display process as shown in detail in the flowchart of FIG. 7 is executed. As shown in FIG. 7, this process is the same as the function development task display process described above except that the type of task to be processed is different and the shape of the pop-up screen is different.

すなわち、この処理では、先ず、当該人物がタスク処置者とされたタスクの中にS38にて取得されたタスクの種類がバグ対応であるものが存在するか否かが、S51にて判断される。タスクの種類がバグ対応であるものが存在する場合は(S51:Y)、そのタスクの中に締め切り期限が過ぎたものが存在するか否かかが判断され(S52)、締め切り期限が過ぎたものが存在する場合は(S52:Y)、処理はS53へ移行する。S53では、当該タスクが赤色の三角形のポップアップ画面92A(図9参照)上に表示されて、処理はS54へ移行する。   That is, in this process, first, it is determined in S51 whether there is a task whose bug type is the task type acquired in S38 among the tasks for which the person is the task handler. . If there is a task type corresponding to a bug (S51: Y), it is determined whether there is a task whose deadline has passed (S52), and the deadline has passed. If something exists (S52: Y), the process proceeds to S53. In S53, the task is displayed on the red triangle pop-up screen 92A (see FIG. 9), and the process proceeds to S54.

S54では、タスクの種類がバグ対応である前記タスクの中に締め切り期限が近いものが存在するか否かかが判断され、締め切り期限が近いものが存在する場合は(S54:Y)、処理はS55へ移行する。S55では、当該タスクが黄色の三角形のポップアップ画面92B(図9参照)上に表示されて、処理はS57へ移行する。S57では、タスクの種類がバグ対応であるものが更に存在するか否かかが判断され、存在する場合は(S57:Y)、S58にて、当該タスクが青色の三角形のポップアップ画面(図示省略)上に表示されて、処理は図5のS60へ移行する。   In S54, it is determined whether or not there is a task whose deadline is close among the tasks whose task type is bug handling. If there is a task whose deadline is close (S54: Y), the process is as follows. The process proceeds to S55. In S55, the task is displayed on the yellow triangular pop-up screen 92B (see FIG. 9), and the process proceeds to S57. In S57, it is determined whether or not there is another task type corresponding to a bug. If there is a task type (S57: Y), the task is displayed in a blue triangular pop-up screen (not shown) in S58. ) And the process proceeds to S60 of FIG.

一方、前述のS52,S54,S57のいずれかで否定判断された場合は(S52:N、S54:N、又は、S57:N)、それに続くS53、S54、又は、S58の処理が飛ばされる。また、S51にて、当該人物がタスク処置者とされたタスクの中にS38にて取得されたタスクの種類がバグ対応であるものが存在しないと判断された場合は(S51:N)、処理はS51から図5のS60へ直接移行する。   On the other hand, when a negative determination is made in any of S52, S54, and S57 described above (S52: N, S54: N, or S57: N), the subsequent processing of S53, S54, or S58 is skipped. If it is determined in S51 that none of the tasks for which the person is a task handler is a bug-compatible task type acquired in S38 (S51: N), Shifts directly from S51 to S60 in FIG.

S60では、図8のフローチャートに詳細を示すようなサポートタスク表示処理が実行される。図8に示すように、この処理は、対象となるタスクの種類が異なる点と、ポップアップ画面の形状が異なる点とを除いて、前述の機能開発タスク表示処理と同様である。   In S60, a support task display process as shown in detail in the flowchart of FIG. 8 is executed. As shown in FIG. 8, this process is the same as the function development task display process described above except that the type of task to be processed is different and the shape of the pop-up screen is different.

すなわち、この処理では、先ず、当該人物がタスク処置者とされたタスクの中にS38にて取得されたタスクの種類がサポートであるものが存在するか否かが、S61にて判断される。タスクの種類がサポートであるものが存在する場合は(S61:Y)、そのタスクの中に締め切り期限が過ぎたものが存在するか否かかが判断され(S62)、締め切り期限が過ぎたものが存在する場合は(S62:Y)、処理はS63へ移行する。S63では、当該タスクが赤色の丸形のポップアップ画面93(図9参照)上に表示されて、処理はS64へ移行する。   That is, in this process, first, it is determined in S61 whether or not there is a task whose support type is the task type acquired in S38 among the tasks for which the person is a task handler. If there is a task whose type is support (S61: Y), it is determined whether there is a task whose deadline has passed (S62) and the deadline has passed. Is present (S62: Y), the process proceeds to S63. In S63, the task is displayed on a red round pop-up screen 93 (see FIG. 9), and the process proceeds to S64.

S64では、タスクの種類がサポートである前記タスクの中に締め切り期限が近いものが存在するか否かかが判断され、締め切り期限が近いものが存在する場合は(S64:Y)、処理はS65へ移行する。S65では、当該タスクが黄色の丸形のポップアップ画面(図示省略)上に表示されて、処理はS67へ移行する。S67では、タスクの種類がサポートであるものが更に存在するか否かかが判断され、存在する場合は(S67:Y)、
S68にて、当該タスクが青色の丸形のポップアップ画面(図示省略)上に表示されて、処理は図5のS71へ移行する。
In S64, it is determined whether there is a task with a close deadline among the tasks whose task type is support. If there is a task with a close deadline (S64: Y), the process is S65. Migrate to In S65, the task is displayed on a yellow round pop-up screen (not shown), and the process proceeds to S67. In S67, it is determined whether or not there is a task whose type is support, and if it exists (S67: Y),
In S68, the task is displayed on a blue round pop-up screen (not shown), and the process proceeds to S71 in FIG.

一方、前述のS62,S64,S67のいずれかで否定判断された場合は(S62:N、S64:N、又は、S67:N)、それに続くS63、S64、又は、S68の処理が飛ばされる。また、S61にて、当該人物がタスク処置者とされたタスクの中にS38にて取得されたタスクの種類がサポートであるものが存在しないと判断された場合は(S61:N)、処理はS61から図5のS71へ直接移行する。なお、このS37〜S60の処理は、タスク表示部24による処理である。   On the other hand, when a negative determination is made in any of S62, S64, and S67 described above (S62: N, S64: N, or S67: N), the subsequent processing of S63, S64, or S68 is skipped. If it is determined in S61 that there is no support for the task type acquired in S38 among the tasks for which the person is a task handler (S61: N), the process is as follows. The process directly moves from S61 to S71 in FIG. Note that the processing of S37 to S60 is processing by the task display unit 24.

図5に示すように、S71では、S40〜S60の表示処理が終了してから所定時間(例えば数秒)以内にカメラ21が指の形を撮影したか否か、すなわち、カメラ21が撮影した映像に対応する画像データから指の形の画像が抽出されたか否かが判断される。カメラ21が指の形の画像を撮影していない場合は(S71:N)、処理はそのまま前述のS32へ移行する。一方、カメラ21が前記所定時間以内に指の形の画像を撮影すると(S71:Y)、処理はS72へ移行する。   As shown in FIG. 5, in S71, whether or not the camera 21 has taken a finger shape within a predetermined time (for example, several seconds) after the display processing in S40 to S60 is completed, that is, an image taken by the camera 21. It is determined whether or not a finger-shaped image has been extracted from the image data corresponding to. If the camera 21 has not taken a finger-shaped image (S71: N), the process proceeds directly to S32 described above. On the other hand, if the camera 21 captures a finger-shaped image within the predetermined time (S71: Y), the process proceeds to S72.

S72では、カメラ21が撮影した指の形の画像が前記登録処理によってデータ保存部23に登録された指の形の画像と照合される。続くS73では、S72による照合結果に基づき、カメラ21が撮影した指の形の画像が前記登録された指の形の画像と一致したか否かが判断される。そして、カメラ21が撮影した指の形の画像が前記登録された画像と一致しない場合は(S73:N)、処理はそのまま前述のS32へ移行し、前記指の形の画像と一致した場合は(S73:Y)、処理はS75へ移行する。   In S72, the finger-shaped image captured by the camera 21 is collated with the finger-shaped image registered in the data storage unit 23 by the registration process. In subsequent S73, based on the collation result in S72, it is determined whether or not the finger-shaped image captured by the camera 21 matches the registered finger-shaped image. If the finger-shaped image captured by the camera 21 does not match the registered image (S73: N), the process proceeds to S32 as it is, and if the finger-shaped image matches the registered image. (S73: Y), the process proceeds to S75.

S75では、前記登録処理による登録内容に基づき、指の形に紐付けられたアクションが特定され、続くS76では、当該アクションが実行されて、処理は前述のS32へ移行する。なお、このS71〜S73の処理は形状認識機能部27による処理であり、S75,S76の処理はタスク情報干渉機能部28による処理である。   In S75, the action linked to the shape of the finger is specified based on the registration contents by the registration process. In S76, the action is executed, and the process proceeds to S32 described above. The processing of S71 to S73 is processing by the shape recognition function unit 27, and the processing of S75 and S76 is processing by the task information interference function unit 28.

ここで、アクションとしては種々の形態が考えられるが、以下、一例として、タッチパネル25に画像90として表示された人物のタスクを消去する干渉の処理について説明する。この干渉を指示する指の形としては、例えば、親指と人差し指とで消去すべきとタスクに応じたポップアップ画面(91A〜93のいずれか)を、タッチパネル25に表示された画面内(すなわち、ヴァーチャル・リアリティー空間内)で摘む指の形が考えられる。但し、消去を指示する指の形としては、その他の指の形も前記登録処理によって自由に登録可能である。   Here, although various forms can be considered as an action, an interference process for deleting a human task displayed as an image 90 on the touch panel 25 will be described as an example. As the shape of the finger for instructing the interference, for example, a pop-up screen (any one of 91A to 93) corresponding to the task to be erased with the thumb and forefinger is displayed on the screen displayed on the touch panel 25 (i.e., virtual). -The shape of the finger to be picked in the reality space). However, other finger shapes can be freely registered by the registration process as finger shapes for instructing erasure.

指の形に紐付けられたアクションが消去である場合、S76の処理の詳細は図11のフローチャートに示すようになる。図11に示すように、この処理では、先ず、S761にて、カメラ21に対する指の位置が特定される。すなわち、カメラ21が撮影してタッチパネル25に表示された人物の画像90に対する、同じくカメラ21が撮影してタッチパネル25に表示された指の表示位置が特定される。続くS763では、その指によって指示されるタスク(すなわち、ポップアップ画面)が特定される。続くS765では、タスク情報管理サーバ40との通信により、S763で特定されたポップアップ画面に対応するタスク情報19のデータがタスク保存部45から消去され、処理は図5のS32へ移行する。すると、そのタスク情報19は、次に前述のS40〜S60の各種表示処理が実行されると、当該タスク情報19に対応するポップアップ画面が表示されなくなる。   When the action associated with the finger shape is erasure, the details of the processing in S76 are as shown in the flowchart of FIG. As shown in FIG. 11, in this process, first, the position of the finger with respect to the camera 21 is specified in S761. In other words, the display position of the finger captured by the camera 21 and displayed on the touch panel 25 with respect to the person image 90 captured by the camera 21 and displayed on the touch panel 25 is specified. In subsequent S763, a task (that is, a pop-up screen) designated by the finger is specified. In subsequent S765, data of the task information 19 corresponding to the pop-up screen specified in S763 is deleted from the task storage unit 45 by communication with the task information management server 40, and the process proceeds to S32 in FIG. Then, when the task information 19 is subsequently subjected to the various display processes of S40 to S60 described above, the pop-up screen corresponding to the task information 19 is not displayed.

もちろん、当該タスク情報19に対応するポップアップ画面が消失する画像をより積極的にもよいことはいうまでもない。例えば、当該ポップアップ画面が脇へ移動したり爆発
したりする画像を表示してもよい。
Of course, it goes without saying that an image in which the pop-up screen corresponding to the task information 19 disappears may be more aggressive. For example, an image in which the pop-up screen moves to the side or explodes may be displayed.

なお、アクションが、消去ではなく、期限の変更等といった他のアクションである場合、S765では、対応するタスク情報19のデータの消去ではなく、データの改変がなされる場合がある。また、タスク情報19に優先順位,重要度,アラートの要否等の情報が含まれていてもよく、その場合、アクションは、優先順位,重要度,アラートの要否等を変更する操作であってもよい。その場合も、S765では、対応するタスク情報19のデータの消去ではなく、データの改変がなされる場合がある。   If the action is not erasure, but other action such as changing the time limit, in S765, the data of the corresponding task information 19 may be altered instead of erasing the data. The task information 19 may include information such as priority, importance, and necessity of alert. In this case, the action is an operation for changing the priority, importance, necessity of alert, and the like. May be. Even in that case, in S765, the data of the corresponding task information 19 may be altered instead of being erased.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
[1A]本実施形態では、カメラ21が出力した画像データに対応する画像に、予め登録された人物の顔画像が含まれる場合(S34:Y)、その人物に対応付けてタスク保存部45に保存されたタスクが自動的に読み出されて表示される(S35〜S60)。このため、対象者(人物)に対面した時点で、その対象者にカメラを向ければ、当該対象者に係るタスクを即座に把握することができる。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
[1A] In the present embodiment, when a face image of a person registered in advance is included in the image corresponding to the image data output from the camera 21 (S34: Y), the task storage unit 45 associates with the person. The stored task is automatically read and displayed (S35 to S60). For this reason, when facing a target person (person), if the camera is pointed at the target person, the task related to the target person can be immediately grasped.

[1B]しかも、各対象者(すなわちタスク処置者)に係るタスクは、第1制御部12及び第2制御部14の処理によって、タスク保存部45にタスク情報19として自動的に保存される。このため、各対象者に対するタスク情報19の登録は自動的になされるので、[1A]に示したような把握を可能とするために煩雑なデータ加工等の作業を行う必要もない。また、情報端末機器1の使用者は、当該情報端末機器1とタスク情報管理サーバ40とからなるタスク管理処理装置を意識することなく、タスクの管理・共有が可能になる。   [1B] In addition, the tasks related to each target person (that is, the task person) are automatically stored as task information 19 in the task storage unit 45 by the processing of the first control unit 12 and the second control unit 14. For this reason, since the task information 19 is automatically registered for each target person, it is not necessary to perform complicated operations such as data processing in order to enable the grasp as shown in [1A]. Further, the user of the information terminal device 1 can manage and share tasks without being aware of the task management processing device including the information terminal device 1 and the task information management server 40.

[1C]また、タスク情報19の生成も、入力された音声を文書化した後(S7)、その文書に対してキーワード抽出を行うことによってなされる(S11)。このため、音声から直接キーワード抽出を行う場合に比べて、処理が簡略化し処理精度も向上させることができる。   [1C] The task information 19 is also generated by documenting the input voice (S7) and then extracting keywords from the document (S11). For this reason, the processing can be simplified and the processing accuracy can be improved as compared with the case where the keyword is extracted directly from the voice.

[1D]更に、第1制御部12及び第2制御部14の処理では、入力された音声が予め登録された声紋と照合され(S4)、その音声の発言者の情報もタスク情報19を構成する情報として保存される(S13)。このため、各対象者に係るタスクを表すタスク情報19を一層正確に抽出することができる。例えば、「私が△△します。」等の発言から、「私」としてのタスク処置者が誰であるかを正確に推定することができる。   [1D] Furthermore, in the processing of the first control unit 12 and the second control unit 14, the input voice is collated with a pre-registered voiceprint (S4), and the information of the speaker of the voice also constitutes the task information 19 Is stored as information to be performed (S13). For this reason, the task information 19 representing the task relating to each subject can be extracted more accurately. For example, it is possible to accurately estimate who is the task handler as “I” from a statement such as “I will Δ △”.

[1E]本実施形態では、カメラ21が出力する画像データに応じて表示された人物の画像90(具体的には体の画像)の上に、タスクを表すポップアップ画面91A〜93が重ねて表示される(S40〜S60)。そして、そのポップアップ画面91A〜93には、タスクの内容等が文書で表示される。このため、対象者に係るタスクを視覚的に良好に把握することができる。   [1E] In the present embodiment, pop-up screens 91 </ b> A to 93 representing tasks are displayed on the person image 90 (specifically, the body image) displayed according to the image data output from the camera 21. (S40 to S60). The pop-up screens 91A to 93 display task contents and the like as documents. For this reason, the task related to the subject can be grasped visually.

[1F]しかも、本実施形態では、ポップアップ画面91A〜93の形状及び色が、タスクの種類及び期限に応じて異なっている。このため、対象者に係る各タスクの種類及び期限を視覚的に一層良好に把握することができる。   [1F] Moreover, in the present embodiment, the shapes and colors of the pop-up screens 91A to 93 are different depending on the type of task and the time limit. For this reason, the kind and time limit of each task concerning a subject can be grasped visually better.

[1G]本実施形態では、ポップアップ画面91A〜93が表示されたときにカメラ21が予め登録された指の形の画像を撮影すると(S71:Y、S73:Y)、その指の形に紐付けられたアクションを実行することができる(S76)。すなわち、情報端末機器1の所有者がカメラ21の前に手を伸ばして前記指の形を作ることで、所望のポップアッ
プ画面に対応するタスクに対して操作を行うことができる。例えば、アクションが消去である場合、カメラ21に撮影された人物に係るタスクを、撮影している人物が消去することができる。このため、例えば、上長が部下に依頼したタスクを、途中で他の部下に依頼した場合などに、最初に依頼した部下に係るタスクを消去する操作なども容易になる。
[1G] In the present embodiment, when the pop-up screens 91A to 93 are displayed and the camera 21 captures a finger-shaped image registered in advance (S71: Y, S73: Y), the finger shape is tied. The attached action can be executed (S76). That is, the owner of the information terminal device 1 can reach a task corresponding to a desired pop-up screen by reaching out in front of the camera 21 and making the finger shape. For example, when the action is erasure, the person who is photographing the task relating to the person photographed by the camera 21 can be erased. For this reason, for example, when a task requested by a subordinate to a subordinate is requested in the middle, an operation for deleting a task related to the subordinate first requested can be easily performed.

[1H]図1では情報端末機器1とタスク情報管理サーバ40とを1つずつ図示しているが、複数の情報端末機器1に対して1つのタスク情報管理サーバ40が共有される場合もある。その場合、本実施形態では、各情報端末機器1の音声録音部10を介して抽出されたタスク情報19を、1つのタスク情報管理サーバ40を介して各情報端末機器1で共有して、前記タスク表示処理等に利用することができる。従って、カメラ21を向けられた対象者に係るタスクを一層正確に把握することができる。   [1H] Although FIG. 1 shows one information terminal device 1 and one task information management server 40, one task information management server 40 may be shared by a plurality of information terminal devices 1. . In this case, in this embodiment, the task information 19 extracted via the voice recording unit 10 of each information terminal device 1 is shared by each information terminal device 1 via one task information management server 40, and It can be used for task display processing. Therefore, the task related to the subject to whom the camera 21 is directed can be grasped more accurately.

なお、前記実施形態において、タスク保存部45がタスク記憶手段に、データ保存部23が特定用データ記憶手段に、タッチパネル25がタスク表示手段に、タスク情報干渉機能部28がタスク操作手段に、情報端末機器1が携帯端末に、タスク情報管理サーバ40がサーバに、顔認識機能部22が判断手段に、それぞれ相当する。また、音声録音部10から第2制御部14に至る構成がタスク取得手段に相当する。そのうち、第1制御部12におけるS6の処理に係る構成が発言者特定手段に、第1制御部12におけるS7の処理に係る構成が文書化手段に、第2制御部14におけるS11の処理に係る構成がキーワード抽出手段に、第2制御部14におけるS13の処理に係る構成がタスク抽出手段に、それぞれ相当する。また、タスク表示部24におけるS37〜S39の処理に係る構成がタスク読み出し手段に相当する。   In the embodiment, the task storage unit 45 is the task storage unit, the data storage unit 23 is the identification data storage unit, the touch panel 25 is the task display unit, the task information interference function unit 28 is the task operation unit, the information The terminal device 1 corresponds to a mobile terminal, the task information management server 40 corresponds to a server, and the face recognition function unit 22 corresponds to a determination unit. A configuration from the voice recording unit 10 to the second control unit 14 corresponds to a task acquisition unit. Among them, the configuration related to the process of S6 in the first control unit 12 is related to the speaker specifying means, the configuration related to the process of S7 in the first control unit 12 is related to the documenting means, and the process related to S11 in the second control unit 14 is related. The configuration corresponds to the keyword extraction unit, and the configuration related to the process of S13 in the second control unit 14 corresponds to the task extraction unit. In addition, the configuration relating to the processing of S37 to S39 in the task display unit 24 corresponds to task reading means.

[2.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は前記実施形態に限定されることなく、種々の形態を採り得る。
[2. Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention can take a various form, without being limited to the said embodiment.

[2A]前記実施形態では、情報端末機器1としてスマートフォンを利用したが、これに限定されるものではない。例えば、特開2006−338163号公報に記載のような眼鏡型の表示装置を介して、その眼鏡を通して実際に見えている対象者の像に重ねてタスク情報19に応じたポップアップ画面91A〜93が表示されてもよい。   [2A] In the above embodiment, a smartphone is used as the information terminal device 1, but the present invention is not limited to this. For example, pop-up screens 91A to 93 corresponding to the task information 19 are superimposed on an image of a subject actually seen through the glasses via a glasses-type display device as described in JP-A-2006-338163. May be displayed.

[2B]前記実施形態では、タスクの種類(すなわちタスクの属性)に応じてポップアップ画面91A〜93の表示態様としての形状を異ならせ、期限に応じてポップアップ画面91A〜93の表示態様としての色を異ならせているが、これに限定されるものではない。例えば、ポップアップ画面91A〜93として使用される色や形状は任意に設定することができる。また、ポップアップ画面91A〜93の輪郭のみが期限に応じた色であってもよい。ポップアップ画面の表示態様としては、形状及び色の他に、ポップアップ画面の表示位置、ポップアップ画面同士の上下関係(すなわち重畳,被重畳の関係)、ポップアップ画面の大きさ、文字の色、文字の大きさ、文字のフォント等、種々の表示態様がある。これらの表示態様は、タスクの属性又は期限とどのように対応付けられてもよい。例えば、タスクの種類(すなわちタスクの属性)に応じてポップアップ画面の色を異ならせてもよく、タスクの期限に応じてポップアップ画面の形状を異ならせてもよい。更に、タスクの属性や期限に拘わらず、ポップアップ画面の表示態様は全て同一であってもよい。   [2B] In the embodiment described above, the pop-up screens 91A to 93 have different display forms depending on the type of task (that is, task attributes), and the pop-up screens 91A to 93 have different colors as the display form. However, the present invention is not limited to this. For example, the colors and shapes used as the pop-up screens 91A to 93 can be arbitrarily set. Further, only the outlines of the pop-up screens 91 </ b> A to 93 may be colors according to the deadline. As the display mode of the pop-up screen, in addition to the shape and color, the display position of the pop-up screen, the vertical relationship between the pop-up screens (that is, the relationship between overlapping and overlapping), the size of the pop-up screen, the character color, and the character size There are various display modes such as a font of characters. These display modes may be associated with task attributes or deadlines in any way. For example, the color of the pop-up screen may be varied depending on the type of task (that is, the task attribute), and the shape of the pop-up screen may be varied depending on the task deadline. Furthermore, all pop-up screen display modes may be the same regardless of task attributes and time limits.

[2C]前記実施形態では、タスクの属性として機能開発,バグ対応,サポートといったタスクの種類が設定されているが、これに限定されるものではない。例えば、タスクの属性としては、例えば特開2014−135543号公報に記載のように、日時情報の有無や場所情報の有無によって「行動予定」「処置予定」「雑メモ」等の属性が設定されてもよい。   [2C] In the above embodiment, task types such as function development, bug handling, and support are set as task attributes. However, the present invention is not limited to this. For example, as task attributes, attributes such as “schedule for action”, “schedule for treatment”, and “miscellaneous memo” are set depending on the presence / absence of date / time information and the presence / absence of location information, as described in Japanese Patent Application Laid-Open No. 2014-135543, for example. May be.

[2D]前記実施形態では、タスク情報19をポップアップ画面91A〜93として人物の画像90に重ねて表示したが、これに限定されるものではない。例えば、タスク情報19に対応する文字列は、人物の画像90の上に字幕状に直接表示されてもよい。また、対象者にカメラ21を向けてシャッタ操作がなされたときに、タッチパネル25にはタスク情報19に応じた文字列のみが表示され、人物の画像90は表示されなくてもよい。また、タスク情報19は、情報端末機器1に接続されたイヤホン等を介して音声により出力されてもよい。   [2D] In the above-described embodiment, the task information 19 is displayed as the pop-up screens 91 </ b> A to 93 on the person image 90. However, the present invention is not limited to this. For example, the character string corresponding to the task information 19 may be directly displayed as a caption on the person image 90. Further, when a shutter operation is performed with the camera 21 facing the target person, only the character string corresponding to the task information 19 is displayed on the touch panel 25, and the person image 90 may not be displayed. Further, the task information 19 may be output by voice via an earphone or the like connected to the information terminal device 1.

[2E]前記実施形態では、情報端末機器1に設けられた音声録音部10にタスク情報19を抽出するための音声が入力されるが、これに限定されるものではない。例えば、会議室等に発言者毎にそれぞれマイクが設けられ、各マイクを介して入力された音声に基づいてタスク情報19が抽出されてもよい。すなわち、タスク取得手段とカメラ及びタスク読み出し手段とは別体の装置に設けられてもよい。例えば、スマートフォンからなる情報端末機器1の音声録音部10に音声が入力され、前記[2A]に示したような眼鏡型の表示装置にポップアップ画面91A〜93が表示されてもよい。   [2E] In the above embodiment, the voice for extracting the task information 19 is input to the voice recording unit 10 provided in the information terminal device 1, but the present invention is not limited to this. For example, a microphone may be provided for each speaker in a conference room or the like, and the task information 19 may be extracted based on sound input via each microphone. That is, the task acquisition unit, the camera, and the task reading unit may be provided in separate devices. For example, voice may be input to the voice recording unit 10 of the information terminal device 1 including a smartphone, and the pop-up screens 91A to 93 may be displayed on the glasses-type display device as shown in [2A].

また、逆に、タスク保存部45が各情報端末機器1毎に設けられ、全ての処理が情報端末機器1の内部で完結してもよい。また、情報端末機器1はカメラ21が撮影した映像に対応する画像データ及び音声録音部10が録音した音声データをそのままタスク情報管理サーバ40へ送信してもよい。その場合、前述のほぼ全ての処理がタスク情報管理サーバ40にて実行され、タスク情報管理サーバ40から情報端末機器1へはタッチパネル25にそのまま表示すべき画像データが送信されてもよい。   Conversely, a task storage unit 45 may be provided for each information terminal device 1, and all processing may be completed inside the information terminal device 1. The information terminal device 1 may transmit the image data corresponding to the video captured by the camera 21 and the audio data recorded by the audio recording unit 10 to the task information management server 40 as they are. In that case, almost all the above-described processes may be executed by the task information management server 40, and image data to be displayed on the touch panel 25 as it is may be transmitted from the task information management server 40 to the information terminal device 1.

[2F]前記実施形態では、カメラ21を介して撮影された顔画像に基づいて対象者を特定している(すなわち、顔画像を特定用画像として利用している)が、これに限定されるものではない。例えば、カメラ21を介して対象者の名札,社員証等を読み取ることができる場合、その名札等の文字列に基づいて対象者が特定されてもよい。また、その名札等に当該対象者を特定するためのバーコード(二次元バーコードであってもよい。)が記載されている場合、当該にバーコードに基づいて対象者が特定されてもよい。   [2F] In the above embodiment, the target person is specified based on the face image photographed via the camera 21 (that is, the face image is used as the specifying image), but the present invention is not limited to this. It is not a thing. For example, when the name tag, employee ID, etc. of the subject can be read via the camera 21, the subject may be specified based on a character string such as the name tag. In addition, in the case where a barcode for specifying the target person (may be a two-dimensional bar code) is described on the name tag or the like, the target person may be specified based on the barcode. .

[2G]前記実施形態では、複数のポップアップ画面91A〜93が表示されているとき、指示画像としての指の形と各ポップアップ画面91A〜93との位置関係に応じて、消去等の操作(すなわち干渉)がなされるタスクが決まるが、これに限定されるものではない。例えば、表示されている複数のポップアップ画面91A〜93に係る各タスクの全てを一括して削除するなどの操作が可能であってもよい。   [2G] In the above-described embodiment, when a plurality of pop-up screens 91A to 93 are displayed, an operation such as erasure (that is, an operation such as erasure) according to the positional relationship between the shape of the finger as the instruction image and each of the pop-up screens 91A to 93 The task in which the interference occurs is determined, but is not limited to this. For example, an operation such as deleting all the tasks related to the plurality of displayed pop-up screens 91 </ b> A to 93 may be possible.

[2H]前記実施形態では、入力された音声が文書化された後(S7)、その文書に対してキーワード抽出がなされることによってタスク情報19が生成されるが、これに限定されるものではない。例えば、音声データから直接タスク及びその処置者が取得され、それに基づいてタスク情報が生成されてもよい。   [2H] In the embodiment described above, after the input voice is documented (S7), the task information 19 is generated by keyword extraction for the document. However, the present invention is not limited to this. Absent. For example, a task and its treatment person may be obtained directly from voice data, and task information may be generated based on the task.

[2I]前記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、前記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、前記実施形態の構成の一部を省略してもよい。また、前記実施形態の構成の少なくとも一部を、他の前記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   [2I] The functions of one component in the embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment. Further, at least a part of the configuration of the embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

[2J]上述したタスク管理装置の他、当該タスク管理装置を構成要素とするシステム、当該タスク管理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、タスク管理方法等、種々の形態で本発明を実現することもできる。   [2J] In addition to the task management device described above, various forms such as a system including the task management device as a constituent element, a program for causing a computer to function as the task management device, a medium storing the program, a task management method, and the like Thus, the present invention can be realized.

1…情報端末機器 10…音声録音部 11…音声データ記憶部
12…第1制御部 13…文書データ保存部 14…第2制御部
18…文書データ 19…タスク情報 20…情報表示部
21…カメラ 22…顔認識機能部 23…データ保存部
24…タスク表示部 25…タッチパネル 27…形状認識機能部
28…タスク情報干渉機能部 40…タスク情報管理サーバ 30,41…通信部
43…タスク管理処理装置 45…タスク保存部 90…画像
91A,91B,91C,92A,92B,93…ポップアップ画面
DESCRIPTION OF SYMBOLS 1 ... Information terminal device 10 ... Voice recording part 11 ... Voice data storage part 12 ... 1st control part 13 ... Document data storage part 14 ... 2nd control part 18 ... Document data 19 ... Task information 20 ... Information display part 21 ... Camera DESCRIPTION OF SYMBOLS 22 ... Face recognition function part 23 ... Data storage part 24 ... Task display part 25 ... Touch panel 27 ... Shape recognition function part 28 ... Task information interference function part 40 ... Task information management server 30, 41 ... Communication part 43 ... Task management processing apparatus 45 ... Task storage unit 90 ... Images 91A, 91B, 91C, 92A, 92B, 93 ... Pop-up screen

Claims (9)

対象者と当該対象者に係るタスクとを対応付けて記憶可能なタスク記憶手段と、
タスクを抽出するためのキーワードとそのタスクに係る対象者を抽出するためのキーワードとに基づき、入力された音声からタスクとそのタスクに係る対象者とを抽出し、両者を対応付けて前記タスク記憶手段に記憶させるタスク取得手段と、
前記対象者を特定するための特定用画像に係るデータを記憶する特定用データ記憶手段と、
カメラから出力される画像データに対応する撮影画像に前記特定用画像が含まれるか否かを、前記特定用データ記憶手段に記憶されたデータに基づいて判断する判断手段と、
前記判断手段が、前記特定用画像が含まれると判断した場合、その特定用画像に対応する対象者に対応付けて前記タスク記憶手段に記憶されたタスクを読み出すタスク読み出し手段と、
を備えたことを特徴とするタスク管理装置。
Task storage means capable of storing a subject and a task related to the subject in association with each other;
Based on the keyword for extracting the task and the keyword for extracting the target person related to the task, the task and the target person related to the task are extracted from the input voice, and the task storage is associated with both. Task acquisition means to be stored in the means;
Specifying data storage means for storing data relating to the specifying image for specifying the target person;
Determining means for determining whether the specified image is included in the captured image corresponding to the image data output from the camera, based on the data stored in the specifying data storage means;
Task reading means for reading out a task stored in the task storage means in association with a target person corresponding to the specifying image when the determining means determines that the specifying image is included;
A task management device comprising:
前記タスク取得手段は、
前記入力された音声を文書データに変換する文書化手段と、
前記文書化手段による変換後の文書データから前記各キーワードを抽出するキーワード抽出手段と、
前記キーワード抽出手段によるキーワード抽出結果に基づき、前記文書データからタスク及びそのタスクに係る対象者を抽出するタスク抽出手段と、
を備えたことを特徴とする請求項1に記載のタスク管理装置。
The task acquisition means includes
Documenting means for converting the input voice into document data;
Keyword extracting means for extracting each of the keywords from the document data converted by the documenting means;
Task extraction means for extracting a task and a target person related to the task from the document data based on the keyword extraction result by the keyword extraction means;
The task management apparatus according to claim 1, further comprising:
前記タスク取得手段は、
前記入力された音声と予め対象者毎に記憶された声紋とを比較して、当該音声の発言者を特定する発言者特定手段を、
更に備え、
前記タスク抽出手段は、前記発言者特定手段によって特定された発言者も参照して前記タスク及びそのタスクに係る対象者を抽出することを特徴とする請求項2に記載のタスク管理装置。
The task acquisition means includes
A speaker specifying means for comparing the input voice and a voice print stored in advance for each target person and specifying a speaker of the voice,
In addition,
The task management device according to claim 2, wherein the task extracting unit extracts the task and a target person related to the task with reference to a speaker specified by the speaker specifying unit.
前記撮影画像を表示し、かつ、前記撮影画像に前記特定用画像が含まれる場合、その特定用画像に対応する対象者に対応して前記タスク読み出し手段が読み出したタスクを、前記対象者を表す前記撮影画像に文書として重ねて表示するタスク表示手段を、
更に備えたことを特徴とする請求項1〜3のいずれか1項に記載のタスク管理装置。
When the captured image is displayed and the specified image is included in the captured image, the task read by the task reading unit corresponding to the target corresponding to the specified image represents the target Task display means for displaying the photographed image as a document in an overlapping manner,
The task management device according to claim 1, further comprising:
前記タスク表示手段は、前記対象者を表す撮影画像に、前記タスクをポップアップ画面として重ねて表示することを特徴とする請求項4に記載のタスク管理装置。   The task management device according to claim 4, wherein the task display unit displays the task as a pop-up screen so as to overlap the photographed image representing the target person. 前記タスク記憶手段には、前記タスクが当該タスクの属性と対応付けて記憶され、
前記ポップアップ画面の表示態様が当該ポップアップ画面として表示されたタスクの属性に応じて異なることを特徴とする請求項5に記載のタスク管理装置。
In the task storage means, the task is stored in association with the attribute of the task,
The task management apparatus according to claim 5, wherein a display mode of the pop-up screen differs according to an attribute of the task displayed as the pop-up screen.
前記タスク記憶手段には、前記タスクが当該タスクの期限と対応付けて記憶され、
前記ポップアップ画面の表示態様が当該ポップアップ画面として表示されたタスクの期限に応じて異なることを特徴とする請求項5又は6に記載のタスク管理装置。
In the task storage means, the task is stored in association with the deadline of the task,
The task management apparatus according to claim 5 or 6, wherein a display mode of the pop-up screen differs according to a time limit of the task displayed as the pop-up screen.
前記ポップアップ画面として表示されたタスクに対する操作を指示する身体部位の画像として予め記憶された指示画像が、前記撮影画像に含まれる場合、その指示画像に応じた前記操作を実行するタスク操作手段を、
更に備えたことを特徴とする請求項5〜7のいずれか1項に記載のタスク管理装置。
When an instruction image stored in advance as an image of a body part instructing an operation for a task displayed as the pop-up screen is included in the captured image, task operation means for executing the operation according to the instruction image,
The task management apparatus according to claim 5, further comprising:
互いに通信可能に構成された携帯端末とサーバとを備え、
前記携帯端末は、前記カメラと、前記タスク取得手段と、前記タスク読み出し手段と、を備え、
前記サーバは、前記タスク記憶手段を備えたことを特徴とする請求項1〜8のいずれか1項に記載のタスク管理装置。
A mobile terminal and a server configured to communicate with each other;
The portable terminal includes the camera, the task acquisition unit, and the task reading unit,
The task management apparatus according to claim 1, wherein the server includes the task storage unit.
JP2015085974A 2015-04-20 2015-04-20 Task management device Pending JP2016206841A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015085974A JP2016206841A (en) 2015-04-20 2015-04-20 Task management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015085974A JP2016206841A (en) 2015-04-20 2015-04-20 Task management device

Publications (1)

Publication Number Publication Date
JP2016206841A true JP2016206841A (en) 2016-12-08

Family

ID=57490155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015085974A Pending JP2016206841A (en) 2015-04-20 2015-04-20 Task management device

Country Status (1)

Country Link
JP (1) JP2016206841A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191276A (en) * 2018-04-19 2019-10-31 ヤフー株式会社 Extraction program, extraction method and extraction device
JP7462995B1 (en) 2023-10-26 2024-04-08 Starley株式会社 Information processing system, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019191276A (en) * 2018-04-19 2019-10-31 ヤフー株式会社 Extraction program, extraction method and extraction device
JP7462995B1 (en) 2023-10-26 2024-04-08 Starley株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
EP3817395A1 (en) Video recording method and apparatus, device, and readable storage medium
JP5120777B2 (en) Electronic data editing apparatus, electronic data editing method and program
CN108093167B (en) Apparatus, method, system, and computer-readable storage medium for capturing images
CN105302315A (en) Image processing method and device
CN104380717B (en) Information processing unit, information processing method and computer readable storage medium
JP2013527947A5 (en)
EP3596592B1 (en) Information processing system, information processing program and information processing method
US20210105437A1 (en) Information processing device, information processing method, and storage medium
JP2001092838A (en) Multimedia information collecting and managing device and storing medium storing program
JP7290851B2 (en) Information processing method, information processing device and computer program
CN105528080A (en) Method and device for controlling mobile terminal
JP2016102920A (en) Document record system and document record program
JP2007080057A (en) Attribute decision amusement device according to face
JP2005202651A (en) Information processing apparatus, information processing method, recording medium with program recorded thereon, and control program
CN110989902A (en) Information processing method and device, writing equipment and terminal equipment
JP5874982B2 (en) Image processing apparatus, image processing method, and program
CN111160925A (en) Question feedback method and electronic equipment
EP2981059A1 (en) Image recording device, image recoding method, and program
JP2016206841A (en) Task management device
JP2005345616A (en) Information processor and information processing method
CN112349285A (en) Method of recognizing voice and electronic device supporting the same
JP2018073237A (en) Conference information display system, conference information display method and conference information display program
JP2010028486A (en) Imaging apparatus and control method thereof
KR20130082898A (en) Method for using user-defined emoticon in community service
JP2007323126A (en) Input device and input operation method