Python - DeepFake - Sincronizando fala ao labio
DeepFake - Sincronizando fala ao labio | ||
Canal Qb |
Intel(R) Core(TM) i5-3230M CPU @ 2.60GHz 2.60 GH16,0 GB (8+8GB de 1600)Placa de vídeo onboard Intel(R) HD Graphics 4000HUSKY SSD 128GBNotebook N8510 sem TPM
librosa==0.7.0numpy==1.17.1opencv-contrib-python>=4.2.0.34opencv-python==4.1.0.25torch==1.1.0torchvision==0.3.0tqdm==4.45.0numba==0.48
pip install -r requirements.txt
Eu não vou reapresentar todo o processo de instalação, mas informe que durante a tentativa de instalação dos requerimentos, o numpy não permitiu instalar nesta versão, muito menos os opencv
Então fiz a instalação inidividual de cada um, sem me prender a versão do requerimentos.
pip install librosapip install numpypip install opencv-contrib-pythonpip install opencv-pythonpip install torchpip install torchvisionpip install tqdmpip install numba
Eu ensino isso no post https://bit.ly/3K05lnW
Com este primeiro processo resolvido, chega a hora de testar script para começar a criar seu DeepFake
Mas antes deste passo, você precisa ter o ffmpeg instalado em sua maquina, neste link aqui estou mostrando o processo para windows https://bit.ly/3rrigJ3
Olhe abaixo, neste momento o processo está funcionando normalmente, mas ainda podemos sofrer devido as configurações de hardware da maquina, por isso fiz questão de mostrar meus hardwares pra vocês.
Abra o CMD e digite
python inference.py --checkpoint_path C:\Users\Qb\Desktop\Wav2Lip\checkpoints\wav2lip_gan.pth --face C:\Users\Qb\Desktop\Wav2Lip\a\video.mp4 --audio C:\Users\Qb\Desktop\Wav2Lip\a\meu2.wav --outfile C:\Users\Qb\Desktop\Wav2Lip\output\result_voice.mp4
- Onde: C:\Users\Qb\Desktop\Wav2Lip\a\video.mp4 é a pasta que eu coloquei o vídeo que quero sincronizar com a voz do arquivo WAV
- Onde: C:\Users\Qb\Desktop\Wav2Lip\a\meu2.wav é meu arquivo de voz
- Onde C:\Users\Qb\Desktop\Wav2Lip\output\result_voice.mp4 será o arquivo criado para exibição
Traceback (most recent call last):File "inference.py", line 280, in <module>main()File "inference.py", line 225, in mainmel = audio.melspectrogram(wav)File "C:\Users\Qb\Desktop\Wav2Lip\audio.py", line 47, in melspectrogramS = _amp_to_db(_linear_to_mel(np.abs(D))) - hp.ref_level_dbFile "C:\Users\Qb\Desktop\Wav2Lip\audio.py", line 95, in _linear_to_mel_mel_basis = _build_mel_basis()File "C:\Users\Qb\Desktop\Wav2Lip\audio.py", line 100, in _build_mel_basisreturn librosa.filters.mel(hp.sample_rate, hp.n_fft, n_mels=hp.num_mels,TypeError: mel() takes 0 positional arguments but 2 positional arguments (and 3 keyword-only arguments) were given
pip install librosa==0.9.1
Traceback (most recent call last):File "inference.py", line 280, in <module>main()File "inference.py", line 252, in mainmodel = load_model(args.checkpoint_path)File "inference.py", line 171, in load_modelcheckpoint = _load(path)File "inference.py", line 164, in _loadcheckpoint = torch.load(checkpoint_path,File "C:\Users\Qb\AppData\Roaming\Python\Python38\site-packages\torch\serialization.py", line 791, in loadwith _open_file_like(f, 'rb') as opened_file:File "C:\Users\Qb\AppData\Roaming\Python\Python38\site-packages\torch\serialization.py", line 271, in _open_file_likereturn _open_file(name_or_buffer, mode)File "C:\Users\Qb\AppData\Roaming\Python\Python38\site-packages\torch\serialization.py", line 252, in __init__super().__init__(open(name, mode))FileNotFoundError: [Errno 2] No such file or directory: 'C:\\Users\\Qb\\Desktop\\Wav2Lip\\checkpoints\\wav2lip_gan.pth'
Arquivo de renderização de face ausente, resolve com procurar um arquivo wav2lip_gan.pth compativel com a etnia da pessoa e colocar na pasta checkpoints
Link para Download: https://cb.run/dU40
Eu realmente queria postar um vídeo na integra, mas devido as limitações do meu computador, consigo chegar até aqui, quem tiver uma maquina superior, por favor, finalize e em caso de erro, comente, e vamos trabalhar juntos para sanar.
Nenhum comentário
Comente só assim vamos crescer juntos!
Observação: somente um membro deste blog pode postar um comentário.