【sklearn】dataset模块(1)—— 小型数据集、远程数据集_sklearn.datasets-程序员宅基地

技术标签: 数据集  自带数据集  sklearn  # sklearn  datasets  

  • 本文介绍sklearn.datasets模块
  • 本文是从jupyter文档转换来的,某个代码块不一定能直接复制运行,代码输出结果统一以注释形式添加在代码最后

0. 前置

0.1 关于Sklearn

  • Sklearn (全称 Scikit-Learn) 是基于 Python 语言的机器学习工具。建立在 NumPy, SciPy, Pandas 和 Matplotlib 之上,是一个优秀且常用的传统机器学习方法框架。与之相比,PyTorch、TensorFlow等属于深度学习框架。
  • Sklearn自带的官方文档非常优秀,API 设计良好,适合新手上路
  • Sklearn 包含有六大任务模块:分别是分类、回归、聚类、降维、模型选择和预处理。

0.2 Bunch类型

  • Bunchsklearn.datasets.base中的数据类型

  • Bunch类似字典,也是由键值对组成,和字典区别在于其键值可以被实例对象当作属性使用

    from sklearn import datasets
    buch = datasets.base.Bunch(A=1,B=2,C=3)
    
    print(type(buch))   # bunch类型
    print(buch)         # 和字典类似
    print(buch['A'])    # 和字典类似
    print(buch.A)       # 和字典不同
    
    '''
    <class 'sklearn.utils.Bunch'>
    {'A': 1, 'B': 2, 'C': 3}
    1
    1
    '''
    
  • 加载sklearn中的数据集时,它们并不是直接转换成ndarray数组。而是转换为一个Bunch对象,通常用其中的.data成员和.target成员分别表示样本集和标签集,他们是ndarray数组

    from sklearn import datasets
    boston_data = datasets.load_boston()       
    print(type(boston_data))
    print(type(boston_data.data))
    print(type(boston_data.target))
    
    print(type(boston_data['data']))
    print(type(boston_data['target']))
    
    '''
    <class 'sklearn.utils.Bunch'>
    <class 'numpy.ndarray'>
    <class 'numpy.ndarray'>
    <class 'numpy.ndarray'>
    <class 'numpy.ndarray'>
    '''
    

1. sklearn.datasets模块

  • 进行机器学习时,我们需要一些训练数据。 sklearn.dataset 模块就是Scikit-Learn框架自带的数据集模块,可以方便快速地获取训练数据,测试算法性能

  • sklearn 的数据集可以分为以下几种,常用的是前三种

    数据集类型 加载函数
    自带的小数据集(packaged dataset) sklearn.datasets.load_<name>
    可在线下载并加载的大型数据集(Downloaded Dataset) sklearn.datasets.fetch_<name>
    生成的数据集(Generated Dataset) sklearn.datasets.make_<name>
    svmlight/libsvm格式的数据集 sklearn.datasets.load_svmlight_file(...)
    从data.org购买并在线下载获取的数据集 sklearn.datasets.fetch_mldata(...)
    • 第一类 packaged dataset 和第二类 Downloaded Dataset 的所有加载函数都返回一个Bunch对象,里面至少包含以下两项

      1. key为data的成员(20news groups数据集除外),这是尺寸为(n_samples,n_features)ndarray数组,存储样本数据
      2. key为target的成员,这是尺寸为(n_samples,)ndarray数组,存储每个样本对应的标签数据。

      通过将加载函数的传入参数设置为return_X_y = True,几乎所有这些函数都可以将输出约束为元组(data,target)

    • 第三类 Generated Dataset 的加载函数返回一个元组(X,y),形式和前两类设置参数return_X_y=True时返回的(data,target)一致

1.1 小型数据集

  • 这是sklearn自带的小型标准数据集,这些数据集有助于快速在scikit中测试各种算法。然而,它们数据规模往往太小,无法代表真实世界的机器学习任务

  • 加载方式:dataset = sklearn.datasets.load_<name>()

  • 常用的小数据集:

    名字 导入方法 介绍 任务 数据规模
    波士顿房价 load_boston(return_X_y=False) 加载和返回一个boston房屋价格的数据集 回归 506 x 13
    乳腺癌 load_breast_cancer(return_X_y=False) 加载和返回一个乳腺癌“恶性/良性”(1/0)类别型数据集 二分类 569 x 30
    糖尿病 load_diabetes(return_X_y=False) 加载和返回一个糖尿病数据集 回归 442 x 10
    手写数据 load_digits(return_X_y=False) 加载和返回一个手写图片数据集 多分类 1797 x 64
    鸢尾花 load_iris(return_X_y=False) 加载和返回一个鸢尾花数据集 多分类 150 x 4
    红酒 load_wine(return_X_y=False) 加载和返回一个红酒数据集 多分类 178 x 13
    体能训练 load_linnerud(return_X_y=False) 加载和返回健身数据集 回归 20 x 3

1.1.1 波士顿房价数据集(回归)

  • 用于回归

  • 这个数据集包含了506处波士顿不同地理位置的房产的房价数据(因变量),和与之对应的包含房屋以及房屋周围的详细信息(自变量),其中包含城镇犯罪率、一氧化氮浓度、住宅平均房间数、到中心区域的加权距离以及自住房平均房价等13个维度的数据,因此,波士顿房价数据集能够应用到回归问题上。使用.load_boston(return_X_y=False)方法来导出数据,其中参数return_X_y控制输出数据的结构,若选为True,则将因变量和自变量独立导出,否则默认为整体导出

    from sklearn import datasets
    boston_data = datasets.load_boston()           # 整体导出
    X,y = datasets.load_boston(return_X_y = True)  # 独立导出
    
    #print(boston_data.DESCR)    			# 描述文档
    print(dir(boston_data),'\n')            # 数据集对象所含的成员 
    print(boston_data.data.shape,'\n')      # 样本集形状
    print(boston_data.target.shape,'\n')    # 标签集形状
    print(boston_data.data[:1],'\n')        # 前3个样本
    print(boston_data.target[:1],'\n')      # 前3个标签
    print(boston_data.feature_names,'\n')   # 特征名
    print(boston_data.filename,'\n')        # 数据库文件路径
    
    print(X.shape)        # 独立导出的样本集
    print(y.shape)        # 独立导出的标签集
    
    '''
    ['DESCR', 'data', 'feature_names', 'filename', 'target'] 
        
    (506, 13) 
    
    (506,) 
    
    [[6.320e-03 1.800e+01 2.310e+00 0.000e+00 5.380e-01 6.575e+00 6.520e+01
      4.090e+00 1.000e+00 2.960e+02 1.530e+01 3.969e+02 4.980e+00]] 
    
    [24.] 
    
    ['CRIM' 'ZN' 'INDUS' 'CHAS' 'NOX' 'RM' 'AGE' 'DIS' 'RAD' 'TAX' 'PTRATIO'
     'B' 'LSTAT'] 
    
    D:\programmer\Anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data\boston_house_prices.csv 
    
    (506, 13)
    (506,)
    
    '''
    

1.1.2 乳癌数据集(二分类)

  • 用于二分类,良性和恶性

  • 这个数据集包含了威斯康辛州记录的569个病人的乳腺癌“恶性/良性”(1/0)类别型数据(训练目标),以及与之对应的30个维度的生理指标数据;因此这是个非常标准的二类判别数据集,在这里使用.load_breast_cancer(return_X_y)来导出数据

    from sklearn import datasets
    breast_data = datasets.load_breast_cancer()           # 整体导出
    X,y = datasets.load_breast_cancer(return_X_y = True)  # 独立导出
    
    #print(breast_data.DESCR)    			# 描述
    print(dir(breast_data),'\n')            # 数据集对象所含的成员 
    print(breast_data.data.shape,'\n')      # 样本集形状
    print(breast_data.target.shape,'\n')    # 标签集形状
    print(breast_data.data[:1],'\n')        # 第一个样本
    print(breast_data.target[:1],'\n')      # 第一个标签
    print(breast_data.feature_names,'\n')   # 特征名
    print(breast_data.target_names,'\n')    # 标签名
    print(breast_data.filename,'\n')        # 数据库文件路径  
    
    print(X.shape)        # 独立导出的样本集
    print(y.shape)        # 独立导出的标签集
    
    '''
     ['DESCR', 'data', 'feature_names', 'filename', 'frame', 'target', 'target_names'] 
    
    (569, 30) 
    
    (569,) 
    
    [[1.799e+01 1.038e+01 1.228e+02 1.001e+03 1.184e-01 2.776e-01 3.001e-01
      1.471e-01 2.419e-01 7.871e-02 1.095e+00 9.053e-01 8.589e+00 1.534e+02
      6.399e-03 4.904e-02 5.373e-02 1.587e-02 3.003e-02 6.193e-03 2.538e+01
      1.733e+01 1.846e+02 2.019e+03 1.622e-01 6.656e-01 7.119e-01 2.654e-01
      4.601e-01 1.189e-01]] 
    
    [0] 
    
    ['mean radius' 'mean texture' 'mean perimeter' 'mean area'
     'mean smoothness' 'mean compactness' 'mean concavity'
     'mean concave points' 'mean symmetry' 'mean fractal dimension'
     'radius error' 'texture error' 'perimeter error' 'area error'
     'smoothness error' 'compactness error' 'concavity error'
     'concave points error' 'symmetry error' 'fractal dimension error'
     'worst radius' 'worst texture' 'worst perimeter' 'worst area'
     'worst smoothness' 'worst compactness' 'worst concavity'
     'worst concave points' 'worst symmetry' 'worst fractal dimension'] 
    
    ['malignant' 'benign'] 
    
    D:\Programmer\python\anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data\breast_cancer.csv 
    
    (569, 30)
    (569,)
    '''
    

1.1.3 糖尿病数据集(回归)

  • 用于回归

  • 这是一个糖尿病的数据集,主要包括442行数据,10个属性值,分别是:Age(年龄)、性别(Sex)、Body mass index(体质指数)、Average Blood Pressure(平均血压)、S1~S6一年后疾病级数指标。Target为一年后患疾病的定量指标,因此适合与回归任务;这里使用.load_diabetes(return_X_y)来导出数据

    from sklearn import datasets
    dbt_data = datasets.load_diabetes()              # 整体导出
    X,y = datasets.load_diabetes(return_X_y = True)  # 独立导出
    
    #print(dbt_data.DESCR)    			 # 描述
    print(dir(dbt_data),'\n')            # 数据集对象所含的成员 
    print(dbt_data.data.shape,'\n')      # 样本集形状
    print(dbt_data.target.shape,'\n')    # 标签集形状
    print(dbt_data.data[:1],'\n')        # 第一个数据
    print(dbt_data.target[:1],'\n')      # 第一个标签
    print(dbt_data.feature_names,'\n')   # 特征名
    print(dbt_data.data_filename,'\n')   # 样本文件路径
    print(dbt_data.target_filename,'\n') # 标签文件路径  
    
    print(X.shape)        # 独立导出的样本集
    print(y.shape)        # 独立导出的标签集
    
    '''
    ['DESCR', 'data', 'data_filename', 'feature_names', 'frame', 'target', 'target_filename'] 
    
    (442, 10) 
    
    (442,) 
    
    [[ 0.03807591  0.05068012  0.06169621  0.02187235 -0.0442235  -0.03482076
      -0.04340085 -0.00259226  0.01990842 -0.01764613]] 
    
    [151.] 
    
    ['age', 'sex', 'bmi', 'bp', 's1', 's2', 's3', 's4', 's5', 's6'] 
    
    D:\Programmer\python\anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data\diabetes_data.csv.gz 
    
    D:\Programmer\python\anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data\diabetes_target.csv.gz 
    
    (442, 10)
    (442,)
    '''
    

1.1.4 手写字体数据集(多分类)

  • 用于多分类,0到9,图片大小8x8

  • 这个数据集是经典的结构化数据,共有1797个样本,每个样本有64的元素,对应到一个8x8像素点组成的矩阵,每一个值是其灰度值,我们都知道图片在计算机的底层实际是矩阵,每个位置对应一个像素点,有二值图,灰度图,1600万色图等类型,在这个样本中对应的是灰度图,控制每一个像素的黑白浓淡,所以每个样本还原到矩阵后代表一个手写体数字,这与我们之前接触的数据有很大区别;在这里我们使用load_digits(return_X_y)来导出数据:

    from sklearn import datasets
    digits_data = datasets.load_digits()
    X,y = datasets.load_digits(return_X_y = True)  # 独立导出
    
    #print(digits_data.DESCR)    			# 描述
    print(dir(digits_data),'\n')            # 数据集对象所含的成员 
    print(digits_data.data.shape,'\n')      # 样本集形状
    print(digits_data.target.shape,'\n')    # 标签集形状
    print(digits_data.data[:1],'\n')        # 第一个数据
    print(digits_data.target[:1],'\n')      # 第一个标签
    print(digits_data.feature_names,'\n')   # 特征名
    print(digits_data.target_names,'\n')    # 标签名
    print(digits_data.images[:1],'\n')      # 以8x8形式显示图片数据,其实就是带格式的data
    
    print(X.shape)        # 独立导出的样本集
    print(y.shape)        # 独立导出的标签集
    
    '''
     ['DESCR', 'data', 'feature_names', 'frame', 'images', 'target', 'target_names'] 
    
    (1797, 64) 
    
    (1797,) 
    
    [[ 0.  0.  5. 13.  9.  1.  0.  0.  0.  0. 13. 15. 10. 15.  5.  0.  0.  3.
      15.  2.  0. 11.  8.  0.  0.  4. 12.  0.  0.  8.  8.  0.  0.  5.  8.  0.
       0.  9.  8.  0.  0.  4. 11.  0.  1. 12.  7.  0.  0.  2. 14.  5. 10. 12.
       0.  0.  0.  0.  6. 13. 10.  0.  0.  0.]] 
    
    [0] 
    
    ['pixel_0_0', 'pixel_0_1', 'pixel_0_2', 'pixel_0_3', 'pixel_0_4', 'pixel_0_5', 'pixel_0_6', 'pixel_0_7', 'pixel_1_0', 'pixel_1_1', 'pixel_1_2', 'pixel_1_3', 'pixel_1_4', 'pixel_1_5', 'pixel_1_6', 'pixel_1_7', 'pixel_2_0', 'pixel_2_1', 'pixel_2_2', 'pixel_2_3', 'pixel_2_4', 'pixel_2_5', 'pixel_2_6', 'pixel_2_7', 'pixel_3_0', 'pixel_3_1', 'pixel_3_2', 'pixel_3_3', 'pixel_3_4', 'pixel_3_5', 'pixel_3_6', 'pixel_3_7', 'pixel_4_0', 'pixel_4_1', 'pixel_4_2', 'pixel_4_3', 'pixel_4_4', 'pixel_4_5', 'pixel_4_6', 'pixel_4_7', 'pixel_5_0', 'pixel_5_1', 'pixel_5_2', 'pixel_5_3', 'pixel_5_4', 'pixel_5_5', 'pixel_5_6', 'pixel_5_7', 'pixel_6_0', 'pixel_6_1', 'pixel_6_2', 'pixel_6_3', 'pixel_6_4', 'pixel_6_5', 'pixel_6_6', 'pixel_6_7', 'pixel_7_0', 'pixel_7_1', 'pixel_7_2', 'pixel_7_3', 'pixel_7_4', 'pixel_7_5', 'pixel_7_6', 'pixel_7_7'] 
    
    [0 1 2 3 4 5 6 7 8 9] 
    
    [[[ 0.  0.  5. 13.  9.  1.  0.  0.]
      [ 0.  0. 13. 15. 10. 15.  5.  0.]
      [ 0.  3. 15.  2.  0. 11.  8.  0.]
      [ 0.  4. 12.  0.  0.  8.  8.  0.]
      [ 0.  5.  8.  0.  0.  9.  8.  0.]
      [ 0.  4. 11.  0.  1. 12.  7.  0.]
      [ 0.  2. 14.  5. 10. 12.  0.  0.]
      [ 0.  0.  6. 13. 10.  0.  0.  0.]]] 
    
    (1797, 64)
    (1797,)
    
    '''
    
  • 不妨绘制一下此数据集

    from sklearn.datasets import load_digits
    import matplotlib.pyplot as plt
    import numpy as np
    
    digits = load_digits()
    plt.gray()                     # 灰度显示
    plt.matshow(digits.images[0])  # 在一个图形窗口中将数组作为矩阵展示
    plt.show()                   
    
    n_samples,n_features=digits.data.shape
    fig = plt.figure(figsize=(6,6))
    fig.subplots_adjust(left=0,right=1,bottom=0,top=1,hspace=0.05,wspace=0.05)
    
    #绘制数字:每张图像8*8像素点
    for i in range(64):
        ax = fig.add_subplot(8,8,i+1,xticks=[],yticks=[])
        ax.imshow(digits.images[i],cmap=plt.cm.binary,interpolation='nearest')
        #用目标值标记图像
        ax.text(0,7,str(digits.target[i]))
    plt.show()
    

    在这里插入图片描述

    在这里插入图片描述

1.1.5 鸢尾花数据集(多分类)

  • 简单的用于多分类任务的数据集

  • 著名的统计学家Fisher在研究判别分析问题时收集了关于鸢尾花的一些数据,这是个非常经典的数据集,datasets中自然也带有这个数据集;这个数据集包含了150个鸢尾花样本,对应3种鸢尾花,各50个样本(target),以及它们各自对应的4种关于花外形的数据(自变量);这里我们使用.load_iris(return_X_y)来导出数据

    from sklearn import datasets
    iris_data = datasets.load_iris()
    
    #print(iris_data.DESCR)    			  # 描述
    print(dir(iris_data),'\n')            # 数据集对象所含的成员 
    print(iris_data.data.shape,'\n')      # 样本集形状
    print(iris_data.target.shape,'\n')    # 标签集形状
    print(iris_data.data[:1],'\n')        # 第一个样本
    print(iris_data.target[:1],'\n')      # 第一个标签
    print(iris_data.feature_names,'\n')   # 特征名
    print(iris_data.target_names,'\n')    # 标签名
    print(iris_data.filename,'\n')        # 标签文件路径  
    
    '''
     ['DESCR', 'data', 'feature_names', 'filename', 'frame', 'target', 'target_names'] 
    
    (150, 4) 
    
    (150,) 
    
    [[5.1 3.5 1.4 0.2]] 
    
    [0] 
    
    ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)'] 
    
    ['setosa' 'versicolor' 'virginica'] 
    
    D:\Programmer\python\anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data\iris.csv 
    '''
    
  • 不妨绘制一下此数据集

    from sklearn.datasets import load_iris
    import numpy as np
    import matplotlib.pyplot as plt 
    
    plt.figure(figsize=(12,6))
    iris = load_iris()
    
    # 绘制第3维数据直方图
    plt.subplot(121)
    x_index = 3    # x轴为 feature_names[3]
    color=['blue','red','green']
    for label,color in zip(range(len(iris.target_names)),color):
        plt.hist(iris.data[iris.target==label,x_index],label=iris.target_names[label],color=color)
    
    plt.xlabel(iris.feature_names[x_index])
    plt.legend(loc="upper right")
    
    #画散点图,第一维的数据作为x轴和第二维的数据作为y轴
    plt.subplot(122)
    x_index=0     # x轴为 feature_names[0]
    y_index=1     # y轴为 feature_names[1]
    colors=['blue','red','green']
    for label,color in zip(range(len(iris.target_names)),colors):
        plt.scatter(iris.data[iris.target==label,x_index],
                    iris.data[iris.target==label,y_index],
                    label=iris.target_names[label],
                    c=color)
    plt.xlabel(iris.feature_names[x_index])
    plt.ylabel(iris.feature_names[y_index])
    plt.legend(loc='upper right')
    plt.show()
    

    在这里插入图片描述

1.1.6 红酒数据集(多分类)

  • 用于多分类问题

  • 这是一个共178个样本,代表了红酒的三个档次(分别有59,71,48个样本),以及与之对应的13维的属性数据,非常适合用来练习各种分类算法;在这里我们使用.load_wine(return_X_y)来导出数据

    from sklearn import datasets
    wine_data = datasets.load_wine()
    
    #print(wine_data.DESCR)    			  # 描述
    print(dir(wine_data),'\n')            # 数据集对象所含的成员 
    print(wine_data.data.shape,'\n')      # 样本集形状
    print(wine_data.target.shape,'\n')    # 标签集形状
    print(wine_data.data[:1],'\n')        # 第一个样本
    print(wine_data.target[:1],'\n')      # 第一个标签
    print(wine_data.feature_names,'\n')   # 特征名
    print(wine_data.target_names,'\n')    # 标签名
    
    '''
     ['DESCR', 'data', 'feature_names', 'frame', 'target', 'target_names'] 
    
    (178, 13) 
    
    (178,) 
    
    [[1.423e+01 1.710e+00 2.430e+00 1.560e+01 1.270e+02 2.800e+00 3.060e+00
      2.800e-01 2.290e+00 5.640e+00 1.040e+00 3.920e+00 1.065e+03]] 
    
    [0] 
    
    ['alcohol', 'malic_acid', 'ash', 'alcalinity_of_ash', 'magnesium', 'total_phenols', 'flavanoids', 'nonflavanoid_phenols', 'proanthocyanins', 'color_intensity', 'hue', 'od280/od315_of_diluted_wines', 'proline'] 
    
    ['class_0' 'class_1' 'class_2'] 
    '''
    

1.1.7 健身数据集(回归)

  • 用于回归

  • Linnerud数据集是一个多输出回归数据集。它包括三个运动数据(样本)和三个生理指标变量(标签),收集自20名中年男性在健身俱乐部

    from sklearn import datasets
    linnerud_data = datasets.load_linnerud()
    
    #print(linnerud_data.DESCR)    			  # 描述
    print(dir(linnerud_data),'\n')            # 数据集对象所含的成员 
    print(linnerud_data.data.shape,'\n')      # 样本集形状
    print(linnerud_data.target.shape,'\n')    # 标签集形状
    print(linnerud_data.data[:1],'\n')        # 第一个样本
    print(linnerud_data.target[:1],'\n')      # 第一个标签
    print(linnerud_data.feature_names,'\n')   # 特征名
    print(linnerud_data.target_names,'\n')    # 标签名
    print(linnerud_data.data_filename,'\n')   # 样本文件路径
    print(linnerud_data.target_filename,'\n') # 标签文件路径
    
    '''
    ['DESCR', 'data', 'data_filename', 'feature_names', 'frame', 'target', 'target_filename', 'target_names'] 
    
    (20, 3) 
    
    (20, 3) 
    
    [[  5. 162.  60.]] 
    
    [[191.  36.  50.]] 
    
    ['Chins', 'Situps', 'Jumps'] 
    
    ['Weight', 'Waist', 'Pulse'] 
    
    D:\programmer\Anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data/linnerud_exercise.csv 
    
    D:\programmer\Anaconda3\envs\sklearn36\lib\site-packages\sklearn\datasets\data/linnerud_physiological.csv 
    '''
    

1.2 远程加载数据集

  • Downloaded Dataset 都是比较大的数据集,主要用于测试解决实际问题,支持在线下载,下载数据集默认保存在当前文件夹的~/scikit_learn_data路径下,可以通过两种方式进行配置

    1. 设置环境变量SCIKIT_LEARN_DATA指定下载路径
    2. .fetch_*?方法的第一个参数是data_home,可以设置下载位置
  • 通过datasets.get_data_home()获取下载路径。

  • 全部加载方法

    datasets.fetch_20newsgroups  
    datasets.fetch_20newsgroups_vectorized  
    datasets.fetch_california_housing  
    datasets.fetch_covtype  
    datasets.fetch_kddcup99  
    datasets.fetch_lfw_pairs  
    datasets.fetch_lfw_people  
    datasets.fetch_mldata  
    datasets.fetch_olivetti_faces  
    datasets.fetch_rcv1  
    datasets.fetch_species_distributions  
    
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/wxc971231/article/details/116097469

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线

推荐文章

热门文章

相关标签