• Grey Facebook Icon
  • Grey Twitter Icon
  • Grey Instagram Icon
  • Grey Vimeo Icon
  • Grey RSS Icon

RCA - IIS Tokyo Design Lab

〒153-8505 東京都目黒区駒場4-6-1

東京大学生産技術研究所S棟 S-206

S-206, S building, Institute of Industrial Science,

The University of Tokyo,

Komaba 4-6-1, Meguro-ku

Tokyo 153-8505

 

+81 3 5452 6164

info@designlab.ac

TRANSPARENT INTENT / さっしがいい機械

March 31, 2017

 A collaboration with Y.Sato Lab

佐藤(洋)研との共同開発

 

ABOUT THE PROJECT

As technology rapidly evolves and the boundaries between the physical and digital world begin to blur, interfaces and control systems need to develop accordingly. Presently, this change is gradual: we find ourselves constantly learning new actions that we need to adapt into our behaviors and eventually turn into habits.

 

What if objects could learn from individual human behavioral patterns and understand a user’s true intentions? What if we could use this to create intuitive, invisible, and premonitory interfaces controlled by our instincts?

 

Transparent Intent explores the future of the interface, predicting a future where objects can be controlled subconsciously. Using computer vision technology developed by Y Sato lab, we’ve designed a set of interfaces that demonstrate this future evolution. The first step removes the tangible interface - the object is controlled through an action. The next step removes the need for direct contact with the object: by controlling the object with a gaze and a gesture, we can start to control objects with simply our intent. The final stage starts to explore the scenario where objects are clairvoyant: they control themselves based on human behavior. In this case, the object detects the sensations you are feeling and adjusts itself accordingly.

 

Pushed to the future, where advanced computer vision would allow objects to react to your subconscious behavior, technology could effectively become invisible and simply form an extension of the human mind.

 

 

プロジェクトについて

急速な技術の発展に伴い、実世界とデジタル世界の境界がますます曖昧になって行く中で、インターフェースも制御システムも常に進化せざるを得ない。今のところ私たちは、日常的に新しい作法を覚え、反復することでどうやらその変化に適応している。

 

しかしもし、モノの方が私たち一人ひとりの行動パターンを把握し、その意図するところを認識できれば、どうだろう? そして、人間の意図を事前に察知してくれる隠れたインターフェースが私たちを支えてくれたら?

 

「さっしがいい機械」は、モノや環境がいつの間にかコントロールされている未来のインターフェースを模索するプロジェクトである。佐藤研究室の技術を用いて、私たちは、そうした革新的な未来を体験させてくれるデモ・インタフェースを数点製作した。最初のステップは、物理的な操作系をなくすこと。そこでは、モノは人間の動作のみによってコントロールされる。次のステップでは、私たちは直接モノに触れなくても、視線や身振りなどで直観的に操作できるようになる。そして最終的には、モノが人の行動からその意図を察し、自らをコントロールするようになる。

 

さらに未来には、進化した画像処理技術によってモノが人の無意識な行動に反応することも可能となるだろう。そこではテクノロジーの存在もはや感じられなくなり、シンプルに私たちの思考そのものが実世界に拡張されることになる。

 

 

HOW WE USE Y. SATO LAB RESEARCH

One of Y. Sato Lab’s main bodies of research is a computer vision technology in which a normal camera system is able to recognize actions and behaviors of the people captured by the system. Once the computer has identified these actions and behaviors, it is able to go beyond this and understand the person’s intention by analyzing gaze, facial direction and depth. We have used this research as a basis to speculate that computer vision could eventually allow us to gain access to human subconscious behavior, and use this to design new, invisible, premonitory interfaces. Imagine an object or environment that could guess your intention by reading your subconscious behavior and adapt to you accordingly.

 

着想を得た佐藤研究室の研究

佐藤研究室の主な研究の一つに、安価なカメラの映像データから人の行動を認識するコンピューター・ビジョン技術がある。コンピューターがこれらの行動を完全に認識できるようになれば、その次には顔の向き、目線の方向・焦点などから背景にある意図をも高い精度で理解できるようになる日がくるであろう。

今回はこの研究から着想して、コンピューター・ビジョン技術を使うことによってモノが人間の無意識な行動を理解できる未来を想像し、人間の意図を察知できる直観的で形のないインターフェースを考案した。モノや環境自体が主体的に人間の意図を察し、実際の動作に反映させてくれる未来を想像してみて欲しい。

 

 

ABOUT Y SATO LAB

Y. Sato laboratory specializes in Computer Vision based technologies. The laboratory’s vision is to create a world where computers and robots could recognize your actions and behaviors as accurately as a human being.

 

In the real world, people can easily understand how others behave and identify what they are doing through behavioral observation. Computers, however, are unable to do this and lack the skill to identify and analyze the many nuances of human behavior. It is currently impossible for them to break down the complex, various, and subtle cues, such as location, gestures, facial expressions and gazes which make up human behavior.

 

Y. Sato lab is working on developing techniques which they refer to as ‘collective visual sensing’ (CVS) to help computers decipher these cues and analyze human behaviors in real-time. The objective is to understand the attention and activities of a group, by gathering and analyzing information from a variety of wearable devices such as eye trackers or wearable cameras.

 

CVS opens up the doors to a new world where computers sense and understand group activities. This could enable a broad range of new technologies such as extracting measurements from CVS or building assistive systems which could support collaborative work in various environments like an operating room.

 

佐藤研究室について

佐藤研究室はコンピューター・ビジョンを専門としており、ロボットやコンピューターが人間と同じ精度で動作や行動を認識し理解することによって人間社会に貢献する未来を描いている。

私たちは他者の行動を容易に認識し瞬時に理解することができる。しかしながら、コンピューターやロボットにとって人と同じ精度で動作や行動のニュアンスを理解することは非常に困難である。これらの機械が人をアシストして知的活動の質向上を実現するためには、実世界で行動する人々が何に目をむけ、他者とのやりとりの中でどのような行動を取っているのかを計測し、認識・理解する技術が重要となる。

佐藤研究室では、ウェラブルカメラとアイトラッカーを用いる人が「何」を「どのように」見ながら行動しているのかを知るためのインテリジェントなセンサとして捉える「集合視」というコンセプトを提唱している。

この「集合視」によって、コンピューターが集団行動を理解し、手術の現場など人と人が共同で仕事を進める際のアシストシステムとして活躍する日も近いかもしれない。

 

Share on Facebook
Share on Twitter
Please reload