主页 > 知识库 > Python集成学习之Blending算法详解

Python集成学习之Blending算法详解

热门标签:哈尔滨ai外呼系统定制 激战2地图标注 唐山智能外呼系统一般多少钱 陕西金融外呼系统 广告地图标注app 公司电话机器人 腾讯外呼线路 海南400电话如何申请 白银外呼系统

一、前言

普通机器学习:从训练数据中学习一个假设。

集成方法:试图构建一组假设并将它们组合起来,集成学习是一种机器学习范式,多个学习器被训练来解决同一个问题。

集成方法分类为:

Bagging(并行训练):随机森林

Boosting(串行训练):Adaboost; GBDT; XgBoost

Stacking:

Blending:

或者分类为串行集成方法和并行集成方法

1.串行模型:通过基础模型之间的依赖,给错误分类样本一个较大的权重来提升模型的性能。

2.并行模型的原理:利用基础模型的独立性,然后通过平均能够较大地降低误差

二、Blending介绍

训练数据划分为训练和验证集+新的训练数据集和新的测试集

将训练数据进行划分,划分之后的训练数据一部分训练基模型,一部分经模型预测后作为新的特征训练元模型。
测试数据同样经过基模型预测,形成新的测试数据。最后,元模型对新的测试数据进行预测。Blending框架图如下所示:
注意:其是在stacking的基础上加了划分数据

三、Blending流程图

  • 第一步:将原始训练数据划分为训练集和验证集。
  • 第二步:使用训练集对训练T个不同的模型。
  • 第三步:使用T个基模型,对验证集进行预测,结果作为新的训练数据。
  • 第四步:使用新的训练数据,训练一个元模型。
  • 第五步:使用T个基模型,对测试数据进行预测,结果作为新的测试数据。
  • 第六步:使用元模型对新的测试数据进行预测,得到最终结果。

四、案例

相关工具包加载

import numpy as np
import pandas as pd 
import matplotlib.pyplot as plt
plt.style.use("ggplot")
%matplotlib inline
import seaborn as sns



创建数据

from sklearn import datasets 
from sklearn.datasets import make_blobs
from sklearn.model_selection import train_test_split
data, target = make_blobs(n_samples=10000, centers=2, random_state=1, cluster_std=1.0 )
## 创建训练集和测试集
X_train1,X_test,y_train1,y_test = train_test_split(data, target, test_size=0.2, random_state=1)
## 创建训练集和验证集
X_train,X_val,y_train,y_val = train_test_split(X_train1, y_train1, test_size=0.3, random_state=1)
print("The shape of training X:",X_train.shape)
print("The shape of training y:",y_train.shape)
print("The shape of test X:",X_test.shape)
print("The shape of test y:",y_test.shape)
print("The shape of validation X:",X_val.shape)
print("The shape of validation y:",y_val.shape)
 

设置第一层分类器

from sklearn.svm import SVC
from sklearn.ensemble import RandomForestClassifier
from sklearn.neighbors import KNeighborsClassifier

clfs = [SVC(probability=True),RandomForestClassifier(n_estimators=5,n_jobs=-1,criterion='gini'),KNeighborsClassifier()]



设置第二层分类器

from sklearn.linear_model import LinearRegression
lr = LinearRegression()



第一层

val_features = np.zeros((X_val.shape[0],len(clfs)))
test_features = np.zeros((X_test.shape[0],len(clfs)))

for i,clf in enumerate(clfs):
    clf.fit(X_train,y_train)
    val_feature = clf.predict_proba(X_val)[:,1]
    test_feature = clf.predict_proba(X_test)[:,1]
    val_features[:,i] = val_feature
    test_features[:,i] = test_feature



第二层

lr.fit(val_features,y_val)



输出预测的结果

lr.fit(val_features,y_val)
from sklearn.model_selection import cross_val_score
cross_val_score(lr,test_features,y_test,cv=5)
 

到此这篇关于Python集成学习之Blending算法详解的文章就介绍到这了,更多相关Python Blending算法内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
  • python 算法题——快乐数的多种解法
  • python使用ProjectQ生成量子算法指令集
  • Python机器学习算法之决策树算法的实现与优缺点
  • python3实现Dijkstra算法最短路径的实现
  • Python实现K-means聚类算法并可视化生成动图步骤详解
  • Python自然语言处理之切分算法详解
  • python入门之算法学习
  • Python实现机器学习算法的分类

标签:惠州 益阳 上海 黔西 黑龙江 常德 鹰潭 四川

巨人网络通讯声明:本文标题《Python集成学习之Blending算法详解》,本文关键词  Python,集成,学,习之,Blending,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《Python集成学习之Blending算法详解》相关的同类信息!
  • 本页收集关于Python集成学习之Blending算法详解的相关信息资讯供网民参考!
  • 推荐文章