成都 網(wǎng)站建設(shè) 公司哪家好流量寶
n_estimators:數(shù)值型取值
? ? 含義:森林中決策樹的個(gè)數(shù),默認(rèn)是10
? ??
criterion:字符型取值
? ? 含義:采用何種方法度量分裂質(zhì)量,信息熵或者基尼指數(shù),默認(rèn)是基尼指數(shù)
max_features:取值為int型, float型, string類型, or None(),默認(rèn)"auto"
? ? 含義:尋求最佳分割時(shí)的考慮的特征數(shù)量,即特征數(shù)達(dá)到多大時(shí)進(jìn)行分割。
? ? int:max_features等于這個(gè)int值
? ? float:max_features是一個(gè)百分比,每(max_features * n_features)特征在每個(gè)分割出被考慮。
? ? "auto":max_features等于sqrt(n_features)
? ? "sqrt":同等于"auto"時(shí)
? ? "log2":max_features=log2(n_features)
? ? None:max_features = n_features
max_depth:int型取值或者None,默認(rèn)為None
? ? 含義:樹的最大深度
min_samples_split:int型取值,float型取值,默認(rèn)為2
? ? 含義:分割內(nèi)部節(jié)點(diǎn)所需的最少樣本數(shù)量
? ? int:如果是int值,則就是這個(gè)int值
? ? float:如果是float值,則為min_samples_split * n_samples
min_samples_leaf:int取值,float取值,默認(rèn)為1
? ? 含義:葉子節(jié)點(diǎn)上包含的樣本最小值
? ? int:就是這個(gè)int值
? ? float:min_samples_leaf * n_samples
min_weight_fraction_leaf : float,default=0.
? ? 含義:能成為葉子節(jié)點(diǎn)的條件是:該節(jié)點(diǎn)對應(yīng)的實(shí)例數(shù)和總樣本數(shù)的比值,至少大于這個(gè)min_weight_fraction_leaf值
max_leaf_nodes:int類型,或者None(默認(rèn)None)
? ? 含義:最大葉子節(jié)點(diǎn)數(shù),以最好的優(yōu)先方式生成樹,最好的節(jié)點(diǎn)被定義為雜質(zhì)相對較少,即純度較高的葉子節(jié)點(diǎn)
min_impurity_split:float取值?
? ? 含義:樹增長停止的閥值。一個(gè)節(jié)點(diǎn)將會(huì)分裂,如果他的雜質(zhì)度比這個(gè)閥值;如果比這個(gè)值低,就會(huì)成為一個(gè)葉子節(jié)點(diǎn)。
min_impurity_decrease:float取值,默認(rèn)0.
? ? 含義:一個(gè)節(jié)點(diǎn)將會(huì)被分裂,如果分裂之后,雜質(zhì)度的減少效果高于這個(gè)值。
bootstrap:boolean類型取值,默認(rèn)True
? ? 含義:是否采用有放回式的抽樣方式
oob_score:boolean類型取值,默認(rèn)False
? ? 含義:是否使用袋外樣本來估計(jì)該模型大概的準(zhǔn)確率
n_jobs:int類型取值,默認(rèn)1
? ? 含義:擬合和預(yù)測過程中并行運(yùn)用的作業(yè)數(shù)量。如果為-1,則作業(yè)數(shù)設(shè)置為處理器的core數(shù)。
class_weight:dict, list or dicts, "balanced"
? ? 含義:如果沒有給定這個(gè)值,那么所有類別都應(yīng)該是權(quán)重1
? ? 對于多分類問題,可以按照分類結(jié)果y的可能取值的順序給出一個(gè)list或者dict值,用來指明各類的權(quán)重.
? ? "balanced"模式,使用y值自動(dòng)調(diào)整權(quán)重,該模式類別權(quán)重與輸入數(shù)據(jù)中的類別頻率成反比,即n_samples / (n_classes * np.bincount(y)),分布為第n個(gè)類別對應(yīng)的實(shí)例數(shù)。
? ? "balanced_subsample"模式和"balanced"模式類似,只是它計(jì)算使用的是有放回式的取樣中取得樣本數(shù),而不是總樣本數(shù)
?