选24层更好。
因为,在选24层的情况下,每一层都需要做出精确的决策,而选25层则会增加决策的复杂度和时间成本。
从实际效果出发,调整选层数量对深度学习网络的性能提升并不是很明显,所以保持较简单的层数,可以提高训练效率和资源利用率。
当然,如果你遇到特殊情况或任务需要更深的结构,可以再适当增加层数。