您的位置:首页 > 软件教程 > 教程 > 从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

来源:好特整理 | 时间:2024-05-10 11:58:55 | 阅读:55 |  标签: T 测试 N1 S C in Win10   | 分享到:

Anaconda是什么? Anaconda 是一个开源的 Python 发行版本,主要面向数据科学、机器学习和数据分析等领域。它不仅包含了 Python 解释器本身,更重要的是集成了大量的用于科学计算、数据分析和机器学习相关的第三方库,并且提供了一个强大的包管理和环境管理工具——Conda。 通过C

Anaconda是什么?

Anaconda 是一个开源的 Python 发行版本,主要面向数据科学、机器学习和数据分析等领域。它不仅包含了 Python 解释器本身,更重要的是集成了大量的用于科学计算、数据分析和机器学习相关的第三方库,并且提供了一个强大的包管理和环境管理工具——Conda。
通过Conda可以在一台电脑上,创建多个python的环境,非常自由的进行切换。
以下是 Anaconda 的主要特点和功能:

  • 便捷的环境管理:Anaconda 通过其内置的包管理器 Conda,使得创建、管理和切换不同的 Python 环境变得极为简单。用户可以在不同项目之间轻松配置独立的环境,每个环境中可以安装特定版本的 Python 和其他库,避免了不同项目依赖之间的冲突。

  • 丰富的数据科学工具:安装 Anaconda 时会附带一系列常用的数据科学库,如 NumPy、Pandas、Matplotlib、Scikit-learn 等,以及 Jupyter Notebook 这样的交互式开发环境。还包括其他有用的工具,例如 Spyder IDE(集成开发环境)和 IPython 终端等,这些都为数据科学家提供了开箱即用的一站式解决方案。

  • 高效的包管理:Conda 不仅可以管理 Python 包,还能管理非 Python 软件包,如R语言相关包或 C/C++ 编译器等。Conda 能够智能地解决复杂的软件依赖关系,确保所有库和组件都能正确安装和协同工作,极大地提高了开发效率。

  • 跨平台支持:Anaconda 支持 Windows、Linux 和 MacOS 等多种操作系统,便于在不同的开发平台上统一使用和部署。

下载anaconda并在window上安装

https://www.anaconda.com/download/success

这是anaconda的官网下载地址

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

这里要注意python的版本,尽量跟它保持一致,点击下载之后,如果网络好的话等待一会儿就下载完毕了。

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

下载完毕后,打开exe进行安装

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

这里安装时间可能会久一些,请多耐心等待一会儿吧。

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

确实等了蛮久的时间的,但具体忘记了,可能大致在15-20分钟左右吧,千等万等终于安装成功了

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

此时用命令行来查看还是不行的,因为没有配置环境变量

以此点击:我的电脑=> 右键属性=>高级系统设置=>环境变量=> Path =>编辑
将下面的五个路径添加到 Path中去

注意替换成你的安装路径

D:\ProgramData\anaconda3
D:\ProgramData\anaconda3\Scripts 
D:\ProgramData\anaconda3\Library\mingw-w64\bin
D:\ProgramData\anaconda3\Library\usr\bin 
D:\ProgramData\anaconda3\Library\bin

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

点击三次确定之后,再在命令行中运行

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

这样说明真正的安装成功了,下面再来看看如何使用

conda如何来使用呢

  • 基础命令
// 查看版本
conda -V

// 查看安装了那些包
conda list

//查看当前存在哪些虚拟环境
conda env list 或 conda info -e

//检查更新当前conda
conda update conda 

// 使用conda安装python依赖
conda install xxxx
  • 创建一个虚拟环境

因为我之前电脑上安装的就是3.11.2的版本,所以在这里直接继续指定python版本为3.11.2

conda create -n python3112 python=3.11.2

此时可以查看window电脑上拥有那些虚拟环境

conda env list

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

激活环境

conda activate python3112

首次执行上面的命令可能需要使用 conda init ,执行完毕后关闭当前shell脚本命令,再重新打开执行激活环境的命令

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

退出虚拟环境

conda deactivate

注意:看上面我是直接在CMD下使用的命令,比如如果你想在git bash下运行conda的话

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

echo ". /d/ProgramData/anaconda3/etc/profile.d/conda.sh" >>~/.profile

上面替换成自己的安装目录,执行完毕之后,关闭命令窗口,重新打开一个新的便可以执行 conda命令了

conda安装成功之后,安装依赖尽量使用conda 来,就不要使用pip了

初始使用了几天的conda,感觉还不错

如何在window上开启GPU

首先使用 cmd 命令行输入 nvidia-smi ,在第一行最右边可以看到CUDA的版本号,我的版本是12.3

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

https://pytorch.org/get-started/locally/
打开网址选择一个比较靠近的版本

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

最终选择完生成命令为

conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia

如果有卡住的可能就是网络有问题了,可以直接到镜像源进行下载安装 https://download.pytorch.org/whl/torch_stable.html

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况
这里也需要你的耐心等待哟,因为Pytorch 的安装包还是不小的。

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

多等一会儿,出现done则代表安装成功了,然后在命令行中输入pip list则可以看到torch相关的包都安装了

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

CUDA是什么:CUDA是NVIDIA推出的一种编程技术。它允许开发者使用C语言来编写能在NVIDIA的图形处理器上运行的代码。通过CUDA,开发者可以将GPU用于通用的并行计算,大大提高了计算效率。
CUDA的一个重要特点是,它允许软件开发者直接使用NVIDIA的GPU来执行某些计算密集型的任务。这是因为GPU内部有许多并行处理单元,可以同时执行许多计算任务,从而大大提高了计算速度。
另外,CUDA还提供了一套完整的开发工具链,包括编译器、调试器和性能分析器,使得开发者可以更方便地开发和优化CUDA程序。

接下来直接验证CUDA是否可用,直接继续命令行中输入 python

import torch
torch.cuda.is_available()

如果输出为true则代表可以使用GPU显卡了

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

准备whisper、faster-whisper、whisperX的测试代码

import whisper
from whisper.utils import get_writer
import os
import time
import torch
import os   #引用OS
from faster_whisper import WhisperModel
import whisperx
import gc 

def whisperx_test():
    device = "cpu" 
    model_size = "large-v3"
    audio_file = "test.mp4"
    batch_size = 16
    compute_type = "int8" 

    # widnow CPU
    model = whisperx.load_model("large-v3", device, compute_type=compute_type)

    # window GPU
    # model = whisperx.load_model("large-v3", "cuda", compute_type="float16")

    audio = whisperx.load_audio(audio_file)
    result = model.transcribe(audio, batch_size=batch_size)

    print(result["segments"])

def faster_whisper_test(): 
    model_size = "large-v3"

    ## window cpu
    model = WhisperModel(model_size, device="cpu", compute_type="int8", cpu_threads=16)
    
    # window gpu
    # model = WhisperModel(model_size, device="cuda", compute_type="float16")
    segments, info = model.transcribe("test.mp4", beam_size = 5)

    print("Detected language '%s' with probability %f" % (info.language, info.language_probability))

    for segment in segments:
        print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))

def whisper_test():

    os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'

    filename = "test.mp4"   

    ## window GPU  cuda
    ## window CPU  cpu
    ## mac CPU cpu
    ## mac GPU
    model = whisper.load_model("large-v3",device="cuda")
    result = model.transcribe(audio=filename, fp16 =False)
    output_directory = "."

    word_options = {
    "highlight_words": True,
    "max_line_count": 50,
    "max_line_width": 3
    }

    srt_writer = get_writer("srt", output_directory)
    srt_writer(result, filename, word_options)

if __name__ == "__main__":
    # print(torch.cuda.is_available())
    start_time = time.time()  # 开始时间
    print("start time:", start_time)
    # whisper_test()
    # faster_whisper_test()
    whisperx_test()
    end_time = time.time()  # 结束时间
    print("Execution time: ", end_time - start_time, "seconds")

三个开源项目的地址分别是:

根据代码要进行安装依赖,也是我从三个开源项目的readme中可以找到安装依赖的命令

// 安装openai-whisper
pip install -U openai-whisper --user
//或者
pip install --upgrade --no-deps --force-reinstall git+https://github.com/openai/whisper.git

// 安装faster-whisper
pip install faster-whisper
//或者
pip install git+https://github.com/openai/whisper.git 


//安装whisperx
pip install git+https://github.com/m-bain/whisperx.git

//如果运行后,看到ffmpeg not found 
要记得安装一下ffmpeg

当然上面的pip也可以换成conda

准备了三个方法

  • whisper_test 来测试openai官网发布的whisper
  • faster_whisper_test来测试改进版的faster_whisper
  • whisperx来测试基于faster_whisper再次改进的版本
    测试的时候,我是准备了一个30秒的小视频 test.mp4。
    然后分为CPU和GPU进行分别测试。

根据测试情况进行注释上述方法即可,运行如下命令即开启测试

python main.py

在这里先附上我的电脑配置,其实是比较一般的

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

window上测试openai的whisper

  • 先来看GPU测试情况
    我先打开任务管理器 => 性能 => GPU

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

没进行测试的时候GPU的占用其实很少的,如果一旦开启了GPU测试就可以看到下图所示的GPU内存占用

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

最终在GPU运行的情况下,我测试了三次

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

window-whisper-GPU:大致平均150秒

  • 再来测试CPU的情况
    运行之后我的CPU直接100%,直接拉满了

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

同样,再使用CPU的情况下,测试了三次

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

看来我这个GPU显卡还是非常一般的,竟然没有CPU的快

window-whisper-CPU:大致平均100秒

window上测试faster-whisper

  • 先来看GPU测试情况

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

同样分三次进行测试大致也就是50秒左右,在GPU的情况下,内存占用居然比whisper的少了近一半,难道速度也能提升一半吗?

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

window-faster-whisper-GPU: 大致平均50秒左右
没想到真的提升了速度,而且不止一半,真不错

  • 再来测试CPU的情况

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

同样的CPU接近100%了,但是内存好像比原来少了差不多一半

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

window-faster-whisper-CPU: 大致平均50秒左右

window上测试whisperX

GPU 测试三次

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

window-whisperX-GPU: 大致平均36秒左右
CPU 测试三次

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

window-faster-whisperX-CPU: 大致平均43秒左右

没想到的是whisperx在faster-whisper的基础上还有提升

mac上运行whisper

本来还想继续在mac上测试,发现除了openai的whisper能在CPU下运行,其他的跑起来都有问题,可能也是我自己的问题吧

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

mac-openai-whisper-CPU:大致50秒左右
这是自Mac M1 Pro上做的测试

总结一下

从零在win10上测试whisper、faster-whisper、whisperx在CPU和GPU的各自表现情况

我只是进行简单的测试做了一个对比。mac的CPU还是非常强大的,当然了价格也摆在了那里。

我这里测试的时候也没有进行过多的参数调整,有时间的话可以进行比如 int8、float16、float32等等其他的多组测试数据。

接下来看看有机会再来试试另外两个开源模型

小编推荐阅读

好特网发布此文仅为传递信息,不代表好特网认同期限观点或证实其描述。

相关视频攻略

更多

扫二维码进入好特网手机版本!

扫二维码进入好特网微信公众号!

本站所有软件,都由网友上传,如有侵犯你的版权,请发邮件[email protected]

湘ICP备2022002427号-10 湘公网安备:43070202000427号© 2013~2024 haote.com 好特网