Altura e peso são duas medidas biométricas que indicam aspectos físicos e amplamente utilizadas no monitoramento do desenvolvimento de indivíduos jovens e no diagnóstico de diversas doenças, como a obesidade. No entanto, as medições de peso e altura podem ser propensas a imprecisões devido a vieses inerentes ao avaliador que as realizam. Medidas incorretas podem levar a erros, por exemplo, na dosagem de medicamentos ou diagnósticos equivocados, representando um risco para a saúde. Ao buscar reduzir possíveis erros em tais medições, este estudo objetiva desenvolver um método que utiliza abordagens de Inteligência Artificial (aprendizado profundo) e técnicas de visão computacional para automatizar a aquisição de medidas biométricas humanas, a saber, peso e altura. O método proposto utilizou 19.172 imagens clínicas de múltiplas visões (ou seja, posterior, anterior e duas laterais) de 4.793 avaliações de pacientes para treinar arquiteturas de Redes Neurais Convolucionais (CNN). As imagens foram processadas pelo modelo de segmentação semântica DeepLabV3 para extrair as silhuetas convertidas em imagens em preto e branco, que foram usadas para treinar as seguintes arquiteturas de CNN: Wide Residual Network (WideResNet) e Scale-Equivariant Wide Residual Network (SE-WideResNet). Essas arquiteturas são formas avançadas de CNNs projetadas para lidar com dados de imagem complexos e capturar padrões intrincados. O método proposto alcançou Erro Absoluto Médio (MAE) de 3,7 kg e R-Squared (R²) de 92% para previsão de peso, bem como MAE de 3,6 cm e R² de 82% para previsão de altura. Esses resultados superam os relatados na literatura para abordagens semelhantes.