当前位置:首页 > 英语词典 > 正文

    Markov chain

    详细解释:【计】 马尔可夫链

    英语解释:

    名词 markov chain:

    a Markov process for which the parameter is discrete time values同义词:Markoff chain

上一位
返回列表

下一位
POTS