MobileNetV1; Architecture
++ width multiplier 성능개선 table, resolution multiplier 성능 개선 테이블 수식 넣으면 좋을듯
Relu로 인한 정보손실
채널수가 적은 ReLU 함수 계층 -> 정보손실
채널수가 많은 ReLU 함수 계층 -> 정보보존
narrow - > wide -> narrow에서 relu, linear bottlenecks을 쓰는 이유
*Linear Bottleneck
2가지 가정
If the manifold of interest remains non-zero volume after ReLU transformation, it corresponds to a linear transformation.
ReLU is capable of preserving complete information about the input manifold, but only if the input manifold lies in a low-dimensional subspace of the input space.
위 가정에 따라 Linear Bottlenecks을 활용을 한다면 효과적으로 정보를 전달할 수 있을거라고 기대
모든 layer는 Batch Normalization과 activation function으로 ReLU6를 활용함.