No vídeo anterior, nós falamos sobre uma abordagem geométrica para entender o que a aprendizagem supervisionada está fazendo. E, nesta abordagem, nós podemos pensar no conjunto de dados de treino como um conjunto de pontos no espaço, as classes como - na visualização - cores dos diferentes pontos, e o algoritmo de aprendizagem supervisionada como o mecanismo para encontrar a superfície que separa os pontos em classes diferentes umas das outras. Agora, uma vez que temos nossa superfície de separação, nós podemos o alimentar com novas imagens, e o nosso modelo treinado pode então fazer previsões sobre a classe da nova imagem - se é um gato ou um cachorro. Agora, esperançosamente estas previsões serão precisas, mas, claro, o modelo pode estar enganado em sua previsões e cometer enganos. Como eu posso pensar sobre a qualidade do modelo treinado? Aqui, o conceito importante é "generalização". Agora, para entender generalização, nós devemos pensar sobre dois possíveis extremos em que nosso modelo pode dar errado. Agora, um extremo chamado "underfitting" aparece devido a superfície que o modelo encontra não captura a forma, que na verdade divide as duas classes. E, frequentemente isso ocorre porque o modelo possui poucos parâmetros - ele tem poucos botões para ajustar - e então, é limitado no tipo de superfície que ele pode encontrar. No outro extremo é algo chamado de "overfitting". Overfitting frequentemente aparece devido ao modelo ter muitos parâmetros - tem muitos botões - e o que acontece é que ele apenas memoriza o conjunto de dados de treino ao invés de aprender o conceito subjacente no conjunto de dados de treino. Agora, nós podemos pensar sobre usar esse exemplo destes três modelos - E nós podemos usar o exemplo anterior de uma imagem que não foi usada no treinamento dos modelos. Então, essa é uma nova imagem que nunca foi vista e nós podemos pedir ao modelo para classificar a imagem em gato ou cachorro. E nós podemos ver o que acontece é que no modelo com "underfit" - uma vez que não capturou bem o atual formato das classes - vai - talvez neste caso - dizer uma predição errada. O modelo intermediário esperançosamente nos dará a predição correta. E o excessivamente complicado modelo que está "overfit", O primeiro tipo de error é chamado de "erro de treinamento" e esse é um erro onde um dos pontos do conjunto de dados atual é classificado incorretamente. E normalmente o que o algoritmo de aprendizagem de máquina supervisionada faz é tentar reduzir a quantidade de tais erros - com algumas ressalvas. Isso é - como eu disse - chamado um "erro de treinamento". Um tipo diferente de error ocorre quando nós agora alimentamos o modelo com alguma entrada que nunca foi vista antes -