探索两种主流深度卷积神经网络架构的核心思想、优势与适用场景
ResNet 由何恺明等人于 2015 年提出,通过引入“残差连接”(skip connection)解决了深层网络中的梯度消失和退化问题。
其核心思想是:让网络学习输入与输出之间的残差(即 F(x) = H(x) - x),而非直接拟合目标映射 H(x)。这使得训练上百层甚至上千层的网络成为可能。
ResNet 在 ImageNet 竞赛中取得突破性成绩,成为后续众多视觉模型的基础架构。
DenseNet 由 Huang Gao 等人于 2017 年提出,其特点是每一层都直接连接到所有后续层,形成密集的特征复用。
这种结构不仅缓解了梯度消失问题,还显著减少了参数数量,并增强了特征传播与重用,提升了模型效率。
DenseNet 在参数效率和小样本学习方面表现优异,适用于计算资源受限的场景。