Forum Replies Created
-
AuthorPosts
-
マイアイポイントは併用というより周りの人がご本人がどこを見ようとしているのか、目の動きで反応しているのかを理解するものです。
併用とかではないのですが、視線透明文字盤が難しい時期でも、マイアイポイントで反応として目の動きに随意性があるということがわかるというものです。お試しください。おそらく目の動きを読み取れるヘルパーさん以外の人でも、目の動きを読み取れる可能性があります。
テンプラーが使えているのはすごいことです。テンプラーで人が呼ばれてから目の動きをみてどのケアをお望みかわかるというが現在のご様子なのでしょうか。そこに至るまでのご本人と周囲の方の協力に頭が下がります。
ハーティーラダーやハーティーAiは、ナースコールそのものではなく、ナースコールで人が呼ばれた後に内容を伝えようとするものです。
ナースコールというのは確実性が求められる命に関わるものなのでHPのトップに赤字で「※当サイトのソフトウェアは高リスクおよび医療用途以外であれば自由にお使いになれます。」と入れてあるのはそのためだと思います。パソコンはフリーズすることがありそれ自体も不安を感じます。
の記事でも
「ブザーで呼び出しができます。
装置本体内蔵の「ブザー」をスイッチ操作で鳴らすことができます。
また、ワイヤレスの「呼び鈴」機器を接続すれば、離れた部屋にいる人を呼び出すことも可能です。(電波の届く範囲は建物環境により左右されます)ただし、病院入院時に使われている「ナースコール」ではありませんので、生命や健康に重大な影響が及ぶような使い方はお避けください。
意思伝達装置「OriHime eye」の、呼び出し…をご紹介します。」
とのコメントがあります。「呼び鈴」はあくまでパソコンが動いているときのブザーであって、それを聞いた人が呼び出されることが可能ではあるものの「ナースコール」ではないとしています。
質問者様は、ご本人が夜中に家族やヘルパーさんに気づいてほしいことを何とか実現したいと思っていらっしゃるのだと推察されます。
それ自体はとても思いやりに富み素晴らしいことだと思います。たまたま使ったことばが「ナースコール」だっただけで、ちょっとした合図という意味だと私は理解します。
ハーティーラダーやハーティーAiは実際にどれだけの人がどのように使っているかはわからない、なかば公のものになっている状況で、ここに呼び鈴機能を持たせると、命や健康に重大な影響が及びような使い方をなさる方も現れて、実際にリスクを高めてしまうこともあり得ると思います。
私はハーティーラダーをこころから応援する者として、命に関わったりリスクを高めたりすることにつながることが無いことを願っています。私も視線で文字入力ができない人に工夫をする必要に迫られました。
どうしたか、というと、ハーティーラダーのホームページから「マイアイポイント(myeyepoint)」をダウンロードしてインストールします。
そして、パソコンの画面にはその人が使っていた手で持つ視線透明文字盤をそのまま表示します。
そして、たとえ言いたい文字にたどり着かなくても、マイアイポイントで表示されるその人の視点がどこに行こうとしているかを、支援者のアイコンで追跡したり見守ったり、ここ?と訪ねたりしながら見つけ出します。あくまでも支援者が文字を見つけるのです。ぜひお試し下さい。ちなみにこの瞬間はハーティーアイは止めておいてください。
それとキャリブレーションは他人のでもいいです。マイアイポイントは、キャリブレーションして見ているところに視点の印が行くのではなく、目に反応している印を動かすので、ほぼほぼのキャリブレーションでだいじょうぶです。
それから、ナースコール。
これは、目の動きをナースコールとして使う、ということはちょっと個人的にはちがうと思います。
この意思表示困難なステージでは、あくまでご本人の随意性(自分の意思で出した動き)にこだわるべきだと思います。
その本人からのアウトプットの変化によって、もしかしてこれは呼んでる?とまわりが想像で思いはかってナースコールがあったと同じケアをするのがいいと思います。パソコンや装置は、本人のアウトプットを示しているに過ぎず、それをもとに回りがナースコールと理解するかどうかです。
眼球運動センサー(EOG)や瞬きセンサー(光フォトセンサー)など存在しますがナースコールとして使うのは、?です。というのは、コールを押さないのか押せないのか判断できないからです。ナースコールが鳴らないから用件がない、というのは確かではないのです。
できれば、ナースコールがなくても、快適なケアの体制を実際にみているみんなで話し合って、「こう感じるときにはこうする」など出し合ったらどうでしょうか。そういう意味では、ネコミミを活用している方がいます。こころかさねも大活躍で、推しのアイドルとミーグリートしてます(表情とか親以外の他人にはほぼまったくわからないのですが)。想像をはたらかせてのコミュニケーション、とても大切だと思います。
もし、その方を見ているヘルパーさんとかで、他の人は読み取れなくても、あるヘルパーさんなら読み取れる、という人がいたら、その特別ヘルパーさんの言っていることは、ほぼ正しいと私は思っています。「彼ならいま何て言うだろう?」とかつてからの付き合いで想像することで、ほぼ言いたいことをはいいいえに置き換えて聞いていく方法をとっている人もいます。ご参考までに。itshienさん
マイボイスの録音、実際になさったのですね。素晴らしいと思います。
できたマイボイス、いつか聞かせていただけたら嬉しいです。
今、私は実験しているのですが、自動返信機能を利用して、1日に何回か自分のマイボイスをiPhoneに新しい文の文字を入力し、そのiPhoneで再生しています。
このやり方についてもいつか案内を載せたいと思っています。私の経験では、すでにminiが動く(すなわちminiが装着してあって、それに応じたドライバが入っている)PCに、HeartyAiをインストールしてみたら使えました(「その時は使えた」記憶がある、だけです)。そこしかわかりません。
4Cと5ではドライバが違いますし、miniのドライバは、また別だと推測しています。 -
AuthorPosts