atelier:mitsuba

i love UI/UX, Blend, XAML, Behavior, P5, oF, Web, Tangible Bits and Physical computing. なにかあればお気軽にご連絡ください。atelier@c-mitsuba.com

インタラクション2011 1日目ー講演ー

科学未来館でやってるインタラクション2011に来ています.

で,口頭発表について.
[Web上の類似画像に基づく画像スコアリング ]は類似した画像や構図がどうこうだった.
同じ内容を撮影したものでも,面白い撮り方(トリック写真)なんかはこの手法じゃスコアリングできないというのも内容まで考慮したスコアリングはできないみたい.
あとはグーグル画像検索との差別化が難しいのかと思った.

[人物の接近の強調が社会的テレプレゼンスに及ぼす影響]
語り手が近づくとカメラがズームされて,かつディスプレイも前に押し出されるというもの.
確かに動画では自然で違和感は感じなかったけど,実際に試してないとわからないかも.
実験の評価軸として,ズームがある時ないとき,ディスプレイの接近があるときないときをマトリクス化して評価したのは分かりやすかった.
ただ,ディスプレイ全体を人に見立てるのは難しいんじゃないかなぁと思った.
あとは,ズームとかではなく.単なる顔の大きさがスコアになってるんじゃなのという質問もあった.

[インタラクティブ遊具を用いた発表と遊び行動]
これが面白かった.
子供の体力が減ってる→遊び場が減ってるから→あと安全じゃないよね→そこで子供の遊び行動を考慮した安全性と楽しさのある遊具が必要というながれ.
ロッククライミング型のセンサ型インタラクティブ遊具だった.
この遊具が面白いというよりも,考察が面白かった.
子供の,性別,年齢,身長,体重,あと遊具での姿勢を取得して,年齢や性別に合わせた難易度を定義.
で,定数と変数(ここでは掴むオブジェクトの形)をノードにして分析→モデル化
シミュレーションアプリまで制作して,子供の成長も可視化.
これで,遊具で遊ぶ→データ取れる→成長する→また見合った難易度で遊ぶのサイクルがすごく綺麗だった.

[ 筋活動を可視化するセンサースーツ]はまず単純に洗えるのかなぁとおもった.
あとは表現方法とか色々できたんじゃないかというお話.
曲げセンサを使ってるのだけど,曲げずにちから入れた筋肉も反応するのかなと思った.

[ファッションコーディネイト促進のsuGATAROGU]はお茶大の人って感じだった.
家にある服装のパターンを作成して,コーディネイトを選ぶってはなし.
お店の服とか選べたらいいよね,って質問があったのだけど,発表者はあくまで自分の服のコーディネイトの話だったので,それはそれでいいと思う.
ただ,その服を着ていく行き先を考慮に入れると面白いと思う.
例えば,映画にデートに行くならスカートにヒールだったり,海にいくなら,ミュールとかサンダルみたいなものを合わせたコーディネイトだったり.
条件付けをするまではいかなくても,画像処理で背景を行き先に変えるとかなると面白いんじゃないかなぁと思った.

最後に[人とコンピュータがインタラクティブに楽曲を生成する]っていうセッション.
これ,ちょっと聞いただけだと,すごくよく出来てるように思えるんだけど,触ってみたらやっぱり素人じゃうまくできないパターンじゃない?とも思った.
この音符をいじれば明るくなるよとか素人は分からないので,ほんと全く音楽がわからない人が触ってみて,ユーザーが納得する音楽が作れるのか?作れるとしたら,何ステップでできそうなのかが気になったところ.

学会自体はとってもスマート.
環境もいいし,質疑のなかみもあーなるほどと思えるものばかり.
あと,こういう主観が評価軸になる研究って難しいんだなぁと思ったなぁ.