続・ブラウザ上でEmbeddingsを作る
これの続編。
あらすじ
- 前回の記事で、Tensorflow.jsのUSEを使って、ブラウザ上でEmbeddingsは作れた
- しかし精度がいまいち
というところで、より大きいモデルがあれば・・?それをブラウザから使えたら・・?と思い、いろいろ探してみた。
すると、Web AIっていう野心的なプロジェクトがあって、T5みたいなモデルも使えるらしいことがわかった。
GitHub - visheratin/web-ai: Run modern deep learning models in the browser.
ので、やってみた。
が、しかし
動かせるようになるまで本体にPRを送ったりと時間はかかったけど、まあできた。
ただ、やっぱ日本語の精度はイマイチだな〜という感想に終わった。
続・これだから日本語は pic.twitter.com/PdjDtdtWVb
— りぃ / Yuji Sugiura (@leader22) June 7, 2023
精度の問題をさておいても、
- デカいモデルを使うためにはめちゃめちゃローディング時間が必要
- 結果を得るにもローディングが必要
- Workerに逃がしても遅い
みたいなUXまわりとの兼ね合いも考えると、ブラウザで完結させようという路線自体が、一考の余地がありそう。
もっと何かに特化したタスクを、それ用のモデルで行う、みたいな制約がないと。
ビルトインじゃなく、もし日本語に特化したモデルがあるならそれを使ってみる?ってことも考えたけど、うまく見つけられなかった。
ML力が足りない。