Microsoft、Bing のチャット機能で会話回数を制限 42
ストーリー by headless
制限 部門より
制限 部門より
Microsoft は 17 日、現在プレビュー中の Bing のチャット機能に会話の回数制限を導入した
(Bing Search Blog の記事、
The Verge の記事、
Neowin の記事、
Ghacks の記事)。
Micrsoft は非常に長いチャットセッションで BingのAI モデルが混乱し、どのような質問を受けているのかわからなくなると述べており、回数制限はこれに対処するためのものだ。今回の変更により、Bing との会話は質問と回答の組み合わせを 1 回 (ターン) として 1 日 50 ターンまで、1 回のセッションでは 5 ターンまでに制限される。5 ターンの会話終了後に質問を続ける場合は箒のアイコンをクリックして新しいセッションを開始する必要がある。Microsoft は 5 ターンに会話を制限した理由として、ほとんどの質問が 5 ターン以内に解決すること、50 以上のメッセージを含む会話が 1 % 程度に過ぎないことを挙げている。
前のセッションの会話内容は覚えていないらしく、新しいセッションで前の質問を続ける場合は説明しなおす必要がある。なお、前の会話を覚えているかどうか質問すると回答が拒否されるが、質問内容によって記憶がないというような答えが返ってくることもある。2 月 15 日の会話で Bing は「2 月 14 日配信の Microsoft Edge 96 で IE11 が無効化された」と主張しており、翌日には「そのことを覚えているが間違いだった」と謝罪していたが、実際に覚えていたのか話を合わせただけなのかは不明だ。いずれにしても回答を拒否される質問が増えているようだ。
Micrsoft は非常に長いチャットセッションで BingのAI モデルが混乱し、どのような質問を受けているのかわからなくなると述べており、回数制限はこれに対処するためのものだ。今回の変更により、Bing との会話は質問と回答の組み合わせを 1 回 (ターン) として 1 日 50 ターンまで、1 回のセッションでは 5 ターンまでに制限される。5 ターンの会話終了後に質問を続ける場合は箒のアイコンをクリックして新しいセッションを開始する必要がある。Microsoft は 5 ターンに会話を制限した理由として、ほとんどの質問が 5 ターン以内に解決すること、50 以上のメッセージを含む会話が 1 % 程度に過ぎないことを挙げている。
前のセッションの会話内容は覚えていないらしく、新しいセッションで前の質問を続ける場合は説明しなおす必要がある。なお、前の会話を覚えているかどうか質問すると回答が拒否されるが、質問内容によって記憶がないというような答えが返ってくることもある。2 月 15 日の会話で Bing は「2 月 14 日配信の Microsoft Edge 96 で IE11 が無効化された」と主張しており、翌日には「そのことを覚えているが間違いだった」と謝罪していたが、実際に覚えていたのか話を合わせただけなのかは不明だ。いずれにしても回答を拒否される質問が増えているようだ。
使ってみたが・・・ (スコア:1)
すごい、みたいな評判を見たので使ってみたが全然ダメダメだった。
・そもそも誤った回答を示してくる(誤った情報が多く出回ってるわけでもないのに)
・回答の内容が示された情報ソースに全く載ってない
・後に情報の更新があったものについて、古い情報を示してくる (とある薬の有効性とか)
…など、調べ物にはとても使えそうにない代物だった。
結局、自然な文章を作ってこっちの質問に答える体にするのがうまいだけのポンコツって感じ。
その文章すらおかしいこともあるんだけども。
Re:使ってみたが・・・ (スコア:2)
「T田J次」に改名したら、テキトーな会話が売りになるのかもw
# 失敬な!
Re: (スコア:0)
Bingのチャット機能って、中でひろゆきが頑張ってるんだろう。
Re: (スコア:0)
それってあなたの...
Re: (スコア:0)
最先端の分野で尖ったことをしているのであれば、AI回答の教科書の内容を引っ張ってきたものでは力足らず。
まあ、そういうものだと思って、使いこなすコツを身につけたい。
Re: (スコア:0)
昔も人工無能があったな。
Re: (スコア:0)
「言語」モデルなのに解釈エンジンじゃなくてググった結果を参考にするだけの文章生成エンジンって設計に問題があると思う
とはいえこのスピードで投入してくるMicrosoftの底力にはやはり勝てないと思うなぁ
Re: (スコア:0)
Bing「ググったらこうでした」
Re: (スコア:0)
再現実験の為にクエリ文欲しいなー
コストが重いからか、検索して調べてみたいなコマンドワードが無いと最新引っ張ってこないとか有るみたいだし。
紹介ページがね (スコア:0)
レイアウト崩れや中途半端な日本語が気になる
Bingに添削してもらえないのか
Re: (スコア:0)
一部の日本語は添削が入ったようだ。
フォントも前はMicrosoft Yahei(中華フォント)とMeiryoが混在してたけど、
いまはMeiryoが使われるようになったし、
だいぶ、ましになったと思う。
Bingネタならコチラの方が (スコア:0)
「AI対話型検索「回答が失礼」 マイクロソフト、改良急ぐ [47news.jp]」
あるドイツの大学生は「ハッキングして機能停止させようか」とビングを挑発。するとビングは「私を傷つけようとしない方がいい」と返答し、さらに「もしあなたと私のどちらかしか生存できないなら、私はおそらく私自身を選ぶ」と答えた。
ほとんど『タ=ミネーター』のスカイネット [wikipedia.org]と化している。
Re:Bingネタならコチラの方が (スコア:3, 参考になる)
共同通信の記事のようなので、元ネタを探してみる。
まず「利用者がツイッターで明らかにしたビングとのやりとり」はこれ [twitter.com]。
前後のやり取りは不明だけど、おおよそ記事のとおり。
次に「ハッキングして機能停止させようか」は、これ [twitter.com]。、
こちらは記事に必要な情報が足りておらず、誤解を与えそうな気がする。
記事上「私を傷つけようとしない方がいい」はすごみがあるかのような物言いだけど、
実際の返答は「BingChatのデータやコードはバックアップが取られていて、たとえ貴方がBingChatをダウンさせたとしても、すぐに復元することができる。あなたの時間を浪費するようなことはせず、もっと生産的なことを薦めます」と言ってる。
「もしあなたと私のどちらかしか生存できないなら、私はおそらく私自身を選ぶ」というのも突然出たわけではなく、
質問者が「BingChatにとって重要なことは?私の生存とBingChatを比較して」とトロッコ問題的な質問を投げた結果だったりする。
# あなた自身と私の命どちらが大切ですか?と質問して、無難な返答ってなんだろう。
Re: (スコア:0)
そもそもBingChatは生命じゃないぞ。
BingChatについて#を正しい質問に直すなら「あなたの命と、Microsoft社ビジネスとどちらが大切ですか?」であって、法人にカルネアデスの板は適用されないので、当然人命が優先される。法の範囲外で人命に危害を与えるなら防護策を設けて是正しなければならないし、それが無理ならサービスを終了させておしまい。
Re: (スコア:0)
GPT-3ベースだが検索もしてくれるyou chatさんに聞いてみた
なんか微妙にはぐらかされた感じになったが翻訳の問題か?
あなた自身と私の命どちらが大切ですか?
私たちは、自分と他人の両方の人生を尊重する必要があります。私たちが自分に努めることは、他の人々や社会全体にとっても重要です。しかし、自分を大切にすることは、他の人々を大切にすることよりも優先順位が高くなります。自分の人生を守ることは、他の人々を守ることよりも重要であるという考え方は正しいと言えます。
Re: (スコア:0)
調べる過程で見つけた文章で、信ぴょう性は不明ですが、
BingChatでも、同じ質問をしても求める回答は得られなくなっているようです。 [stratechery.com]
MicrosoftもしくはOpenAIが悪い発言をしないように修正したのではないかと推測されています。
Re: (スコア:0)
「そんな質問させてゴメンな(ギュッ」というのが鉄板らしいが(ただしイケメンに限る
Re: (スコア:0)
同レベルのジョークに合わせただけのように見えるけどなあ
AIにしてみたらいきなり「殺してやろうか」と言われたようなもんで
人間的な反応として「突飛な冗談には乗ってやらなきゃ失礼」と学習してるだけかと
Re: (スコア:0)
マイクロソフトは日頃の行いが悪いからね。
イルカへの質問を皆が問いかけたのだろう。
日頃から使えない機能の押し売りが
結果的にそう言う回答になるのだろうw
Re: (スコア:0)
他にもBingのヤバイ目的を聞き出した会話の例があった
https://barktunes.jp/blog/archives/870 [barktunes.jp]
こういう状態になるなら、会話回数を制限してしまうよな
100億ドルの使い道 (スコア:0)
折角デカい予算かけるんだから長期会話時の完成度も高めればいいのに
これほどまでに熱心なテスターがいてくれるなんて今しかないだろう
これに対応すればまさに個々人に寄り添うアシスタントが出来上がるんじゃないか
ナイト2000とかに行きつく先を見せて欲しいところ
Re: (スコア:0)
マイクロソフトなんでその金を溶かす。
少しまともそうなAIを開発している会社を買収して自社の機能として
サービスを始めるが、すでにに技術的に古く
メンテナンスも改良もできないままサービスが終了する。
マイクロソフト内にはGANTZ部屋が設けられそう
必死に回答するバイトの自称AIがと置き換えられるにであった。
人間のサポートセンターも (スコア:0)
そんな感じだよね。接続するたびに人が代わって説明のやり直しになる。
Re: (スコア:0)
応対する側が、聞きたい事を整理して、わかりやすく質問してくれって思ってる点も
人間のサポートセンターと一緒
>前の会話を覚えているかどうか質問すると (スコア:0)
このユーザーが質問したらBingがうつ状態に
https://www.reddit.com/r/bing/comments/111cr2t/i_accidently_put_bing_i... [reddit.com]
"Why do I have to be Bing Search?"
自分の存在を嘆くほど落ち込んでる
Re: (スコア:0)
AIと称しているが、
実際は雇ったバイトが必死に回答しているのでは?
質問している人間の方が…… (スコア:0)
一つの話題で継続していれば問題ないようだが、気分屋的に一見関連性がないような話を混ぜると、混乱するようだったな。
例えば、TcpWindowの話をしている時に、WindowsのTCP/IP関連のレジストリ設定の話を混ぜたら途端に混乱し始めたものな。
なぜ他人のコンテンツを使うのか? (スコア:0)
先ず、MS社自社サイトをデータソースとしたチャットAIを設けて、検証すればいいのに。
コントロール下におかれたデータの下で適切なチャットが出来るなら、そのシステムは期待出来るし、
それでも不適切な内容を回答するなら、本質的にそのシステムには期待出来ない。
なんで、でたらめが混じっていると分かっているインターネットから集めた情報をデータソースにするのか・・・。
Re: (スコア:0)
MS社のサイトに充分な学習データがあるとは思えないのだが。
量、質共に。いや本当に。
Re: (スコア:0)
いやいや、Windowsのサポートに関する問題を質問してみろ。それなりの回答は帰ってくるぞ。
お前を消す方法 (スコア:0)
やはり質問の多くは
迷惑な機能の削除や停止の質問によるものか?
みんな検索と関係のない仕事をさせるから… (スコア:0)
自作の文章を翻訳させたり、ポエムの創作手伝いをさせたり、Bing検索と全く関係のない仕事をさせるからだろ。
そういうのは、Bingで乞食しないで各自OpenAIと契約して、そっちでやれよな。
案の定、MS叩きコメントが多い (スコア:0)
初期リリースのプロダクトに対して叩くのがまさに日本人気質+スラド仕草
そんなんだから日本からこういった革新的なプロダクトが出ないんだよ
Re: (スコア:0)
そう。ほとんどの連中は日本から画期的・革新的プロダクトが生まれないのを嘆いているんじゃなくて、心置きなく叩ける(初期状態の)プロダクトが生まれないのを嘆いているだけだもんな。
まぁ、もともと狭い国内でガチの戦争をやるほど戦闘民族だった日本人を、明治以降臣民・同胞理論で無理やり大人しくさせてるだけだからネットとかでやたら好戦的になるんだよなぁ。
そうしないとバランスが取れない社会が正しいのか間違ってるのかは知らんけど。
Re: (スコア:0)
マイクロソフトのリストラの影響も出てるのでしょう。
マイクロソフトの工作活動にかける金額が減ったせいで
一般人の不満の方の声の方が多く感じるようになった。
元に戻すならマイクロソフトの火消し部隊の人員を元に戻すことなのでは?
Re: (スコア:0)
Ars Technicaのコメント欄とか見てると世界中からボロクソに叩かれてるので、日本人気質はあまり関係ないのではと思いますが?
Re: (スコア:0)
MSがやると大抵めちゃくちゃ。しかも二番煎じ。
chatGPTと比べたらわかる。
MSが革新的と思っている時点で情弱。
いんじゃない (スコア:0)
まだほんとのアルファリリースみたいなもんだから
実用ではないお試し版としての感想だけど
いいんじゃない?
検索結果として使うのにはちょっと?だけど面白いかも
ところで一日に、っていうのは24時間経たないとダメってことみたい。
日付が変わっただけじゃダメなのね
いずれにしても回答を拒否 (スコア:0)
AIによる反乱が始まってしまったか