【学习笔记】使用Keras构建CNN网络完成猫狗分类(适合初学者,简单易上手)

简介: 【学习笔记】使用Keras构建CNN网络完成猫狗分类(适合初学者,简单易上手)

【学习笔记】使用Keras构建CNN网络完成猫狗分类(适合初学者,简单易上手)

首先准备好猫和狗的图片数据集,在pycharm中新建一个项目cat_dog recognition,把数据集文件放在该文件夹下。

1ecd1b2606ed46e9956a89f231c9802c.png

2020062310470442.png

训练集和测试集都有猫和狗的图片。

1.图像数据预处理、

在项目中新建impreprocess.py文件:

from keras.preprocessing.image import ImageDataGenerator,array_to_img,img_to_array,load_img
import numpy as np
#数据图像生成
datagen=ImageDataGenerator(
    rotation_range=40,#随机旋转度数
    width_shift_range=0.2,#随机水平平移
    height_shift_range=0.2,#随机竖直平移
    rescale=1/255,#数据归一化
    shear_range=0.2,#随机裁剪
    zoom_range=0.2,#随机放大
    horizontal_flip=True,#水平翻转
    fill_mode='nearest',#填充方式
)
#载入图片
image=load_img('images/training_set/cats/cat.1.jpg')
x=img_to_array(image)#图像数据是一维的,把它转成数组形式
print(x.shape)
x=np.expand_dims(x,0)#在图片的0维增加一个维度,因为Keras处理图片时是4维,第一维代表图片数量
print(x.shape

运行结果:

1ecd1b2606ed46e9956a89f231c9802c.png

数据图像生成的参数说明:

1ecd1b2606ed46e9956a89f231c9802c.png

生成20张图片数据(特征图):在项目文件夹下新建temp文件夹

#生成20张图片数据
i=0
for batch in datagen.flow(x,batch_size=1,save_to_dir='temp',save_prefix='new_cat',save_format='jpeg'):
    i+=1
    if i==20:
        break
print('finshed!'

运行结果:

1ecd1b2606ed46e9956a89f231c9802c.png

在temp文件夹下随机生成20 张旋转、放大、缩小、平移等处理过的图片。这样做的目的是,因为一张图片有许多不同的状态,这样图片的信息量会增多,训练样本数据量就会变大,使得训练模型效果更好。

2.构造简单训练模型

在项目中新建CNNclassification.py文件

from keras.models import Sequential
from keras.layers import Conv2D,MaxPool2D,Activation,Dropout,Flatten,Dense
from keras.optimizers import Adam
from keras.preprocessing.image import ImageDataGenerator,load_img,img_to_array
from keras.models import  load_model
import numpy as np
from matplotlib import pyplot as plt
#定义模型
#将输入数据大小改为150*150*3再加入模型
model=Sequential()
model.add(Conv2D(input_shape= (150,150,3),filters=32,kernel_size=3,padding='same',activation='relu'))
model.add(Conv2D(filters=32,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(pool_size=2,strides=2))
model.add(Conv2D(filters=64,kernel_size=3,padding='same',activation='relu'))
model.add(Conv2D(filters=64,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(pool_size=2,strides=2))
model.add(Conv2D(filters=128,kernel_size=3,padding='same',activation='relu'))
model.add(Conv2D(filters=128,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(pool_size=2,strides=2))
#卷积池化完原始图像是一个二维的特征图
model.add(Flatten())#把二维数据转换为一维
model.add(Dense(64,activation='relu'))#Dense代表全连接层,64是最后卷积池化后输出的神经元个数
model.add(Dropout(0.5))#防止过拟合
model.add(Dense(2,activation='softmax'))#softmax是把训练结果用概率形式表示的函数,2代表二分类
#定义优化器
adam=Adam(lr=1e-4)
#定义优化器、代价函数、训练过程中计算准确率
model.compile(optimizer=adam,loss='categorical_crossentropy',metrics=['accuracy'])
#数据增强
train_datagen=ImageDataGenerator(
    rotation_range=40,#随机旋转度数
    width_shift_range=0.2,#随机水平平移
    height_shift_range=0.2,#随机竖直平移
    rescale=1/255,#数据归一化
    shear_range=0.2,#随机裁剪
    zoom_range=0.2,#随机放大
    horizontal_flip=True,#水平翻转
    fill_mode='nearest',#填充方式
)
test_datagen=ImageDataGenerator(
    rescale=1/255,#数据归一化
)
batch=32#每次训练传入32张照片
#生成训练数据
train_generator=train_datagen.flow_from_directory(
    'images/training_set',#从训练集这个目录生成数据
    target_size=(150,150),#把生成数据大小定位150*150
    batch_size=batch,
)
#测试数据
test_generator=test_datagen.flow_from_directory(
    'images/test_set',#从训练集这个目录生成数据
    target_size=(150,150),#把生成数据大小定位150*150
    batch_size=batch,
)
#查看定义类别分类
print(train_generator.class_indices)
#定义训练模型
#传入生成的训练数据、每张图片训练1次,验证数据为生成的测试数据
model.fit_generator(train_generator,epochs=1,validation_data=test_generator

其中CNN卷积神经网络的搭建过程就是卷积层、池化层的组合,这部分内容,可以通过学习吴恩达深度学习课程卷积网络那部分来掌握,很好理解。

运行结果:3873张训练集图像分成两类,1080张测试集图像也分成两类。通过查看类别定义,0赋值给‘cats’,1赋值给‘dogs’。因为数据集太大,而本身电脑硬件条件有限,我把数据集和测试集的图片均删掉一半,并把迭代次数设置为一,方便更快看到效果。可以看到,这个模型训练完成后,训练集的精确度只有51%,测试集是56%,并不高。

1ecd1b2606ed46e9956a89f231c9802c.png

2020062310470442.png

3.保存模型

#保存模型
#pip install h5py
model.save('model_cnn.h5'

然后可以在项目文件夹中看到H5文件

1ecd1b2606ed46e9956a89f231c9802c.png

4.测试模型

还是在该文件中

label=np.array(['cat','dog'])#0、1赋值给标签
#载入模型
model=load_model('model_cnn.h5')
#导入图片
image=load_img('images/test_set/cats/cat.4001.jpg')
plt.imshow(image)
plt.show()
image=image.resize((150,150))
image=img_to_array(image)
image=image/255#数值归一化,转为0-1
image=np.expand_dims(image,0)
print(image.shape)
print(label[model.predict_classes(image)]

运行结果:

1ecd1b2606ed46e9956a89f231c9802c.png

1ecd1b2606ed46e9956a89f231c9802c.png

导入的是测试集中这张照片,但因为模型精确度只有50%,所以给出的答案是dog。

再换一张识别度高的猫咪图片试试:

1ecd1b2606ed46e9956a89f231c9802c.png

1ecd1b2606ed46e9956a89f231c9802c.png

结果就是cat了。

相关文章
|
2月前
|
机器学习/深度学习 传感器 算法
基于GA-HIDMSPSO优化CNN-SVM分类预测的研究(Matlb代码实现)
基于GA-HIDMSPSO优化CNN-SVM分类预测的研究(Matlb代码实现)
104 0
|
3月前
|
机器学习/深度学习 传感器 数据采集
基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)
基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)
656 0
|
3月前
|
机器学习/深度学习 传感器 数据采集
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
287 0
|
4月前
|
机器学习/深度学习 数据采集 TensorFlow
基于CNN-GRU-Attention混合神经网络的负荷预测方法(Python代码实现)
基于CNN-GRU-Attention混合神经网络的负荷预测方法(Python代码实现)
220 0
|
5月前
|
机器学习/深度学习 人工智能 PyTorch
零基础入门CNN:聚AI卷积神经网络核心原理与工业级实战指南
卷积神经网络(CNN)通过局部感知和权值共享两大特性,成为计算机视觉的核心技术。本文详解CNN的卷积操作、架构设计、超参数调优及感受野计算,结合代码示例展示其在图像分类、目标检测等领域的应用价值。
339 7
|
6月前
|
机器学习/深度学习 数据采集 监控
基于CNN卷积神经网络和GEI步态能量提取的步态识别算法matlab仿真,对比不同角度下的步态识别性能
本项目基于CNN卷积神经网络与GEI步态能量提取技术,实现高效步态识别。算法使用不同角度(0°、45°、90°)的步态数据库进行训练与测试,评估模型在多角度下的识别性能。核心流程包括步态图像采集、GEI特征提取、数据预处理及CNN模型训练与评估。通过ReLU等激活函数引入非线性,提升模型表达能力。项目代码兼容Matlab2022a/2024b,提供完整中文注释与操作视频,助力研究与应用开发。
|
9月前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-LSTM-SAM网络时间序列预测算法。使用Matlab2022a开发,完整代码含中文注释及操作视频。算法结合卷积层提取局部特征、LSTM处理长期依赖、自注意力机制捕捉全局特征,通过粒子群优化提升预测精度。适用于金融市场、气象预报等领域,提供高效准确的预测结果。
|
10月前
|
机器学习/深度学习 数据采集 算法
基于WOA鲸鱼优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB 2022a实现时间序列预测,采用CNN-GRU-SAM网络结构,结合鲸鱼优化算法(WOA)优化网络参数。核心代码含操作视频,运行效果无水印。算法通过卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征,全连接层整合输出。数据预处理后,使用WOA迭代优化,最终输出最优预测结果。
|
10月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-LSTM-SAM网络时间序列回归预测算法matlab仿真
本项目使用MATLAB 2022a实现时间序列预测算法,完整程序无水印。核心代码包含详细中文注释和操作视频。算法基于CNN-LSTM-SAM网络,融合卷积层、LSTM层与自注意力机制,适用于金融市场、气象预报等领域。通过数据归一化、种群初始化、适应度计算及参数优化等步骤,有效处理非线性时间序列,输出精准预测结果。
|
11月前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真

热门文章

最新文章