generated at
「責任を取る」か否かではなくて、そのリスクを受けられるかみたいな話、バランスする
public
そのリスクを受け入れられる場所に立っている時点で責任を取っている
賭けたい未来を選ぼう
たいていのパラメータはバランスするを前提としているなら、即死系の判断はできない
AかBか、で判断 or 決断することになっていて、どちらかを選ばないと死ぬならどっちでもいい
いい意味で意思決定の必要がない
意思決定ではないけど)判断が必要=リスクの可視化
意思決定をしない(できない)という意思決定
被害をこうむれる時点で責任を取っている
物理的にむり



つまり、AIは責任を取れないとも近い?