
Why your AI models really struggle with explaining "why"
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
with the rapid advancements of AI technology and people wondering if AI will take everyone's jobs I think its important to talk about one of AI's flaws that seems to be neglected in most talks. AI models of today really struggle with explaining their answers.
But what does it mean for an answer to be explainable? and what does it mean for an AI model to be interpretable?
And why don't models of today have either of those