您现在的位置是:网站首页> C/C++

Qt与FFmpeg开发指南

  • C/C++
  • 2024-12-15
  • 1833人已阅读
摘要

Qt与FFmpeg开发指南

ffmpeg Qt环境配置

ffmpeg新旧函数对比

ffmpeg常用函数

QT+FFMPEG实现视频播放

FFmpeg 简单的视频播放例子(Qt)


ffmpeg Qt环境配置

1.使用QtCreator创建完项目后,在项目根目录下创建ffmpeglib文件夹


2、把下载好的include文件夹和lib文件夹拷贝到ffmpeglib文件夹中


3、把dll文件夹中的所有.dll文件拷贝到项目根目录下的debug文件夹中(或项目根目录下也可以)


4、修改项目pro文件,在pro文件中增加如下内容:


INCLUDEPATH += $$PWD/ffmpeglib/include

#加入FFmpeg链接库

LIBS += $$PWD/ffmpeglib/lib/avcodec.lib \

        $$PWD/ffmpeglib/lib/avdevice.lib \

        $$PWD/ffmpeglib/lib/avfilter.lib  \

        $$PWD/ffmpeglib/lib/avformat.lib   \

        $$PWD/ffmpeglib/lib/avutil.lib      \

        $$PWD/ffmpeglib/lib/postproc.lib     \

        $$PWD/ffmpeglib/lib/swresample.lib    \

        $$PWD/ffmpeglib/lib/swscale.lib


5、测试FFmpeg库是否引入且能正常使用


在项目中main.cpp中添加如下FFmpeg头文件


extern "C"

{

//avcodec:编解码(最重要的库)

#include <libavcodec/avcodec.h>

//avformat:封装格式处理

#include <libavformat/avformat.h>

//swscale:视频像素数据格式转换

#include <libswscale/swscale.h>

//avdevice:各种设备的输入输出

#include <libavdevice/avdevice.h>

//avutil:工具库(大部分库都需要这个库的支持)

#include <libavutil/avutil.h>

#include "libavutil/imgutils.h"

#include "libavutil/opt.h"

//SwrContext音频重采样使用

#include <libswresample/swresample.h>

}

在main.cpp中进行测试

qDebug()<<"version:"<<avcodec_version();

1.png


ffmpeg 下载

由于大部分的关于配置 ffmpeg+qt 环境的文章都停留在 2021 年,且许多方法均已过时,现在介绍一个最新的方法,并分析槽点供大家参考


前往 FFmpeg 官网下载对应库包:官网地址

按照下图,选择 window 版本的,推荐下载源选择图中指示的第二个


1.png


进入 github,下载带 shared 后缀的那个包即可


2.png



qt 配套环境配置

把下载好的压缩包解压到任意一个文件夹内,我们发现这里有 4 个文件夹


在项目根目录下新建一个文件夹 ffmpeglib

然后我们需要把 include 和 lib 这两个文件夹全部复制到该 ffmpeglib 目录下

最终看起来是这样的:(上方路径中,qt_ffmpeg 是我的项目根目录!)


1.png



这还没完,回到 qtcreator,打开咱们的项目,直接点击运行

此时会自动构建


回到 ffmpeg 根目录下,打开 bin 目录,复制所有的 dll 文件,然后粘贴到构建文件夹的 debug 文件夹下


1.png



代码测试

在项目的 pro 文件内添加以下内容,导入项目根目录下的 ffmpeg 库


INCLUDEPATH +=$$PWD/ffmpeglib/include


LIBS += $$PWD/ffmpeglib/lib/avcodec.lib \

        $$PWD/ffmpeglib/lib/avfilter.lib \

        $$PWD/ffmpeglib/lib/avformat.lib \

        $$PWD/ffmpeglib/lib/avutil.lib \

        $$PWD/ffmpeglib/lib/postproc.lib \

        $$PWD/ffmpeglib/lib/swresample.lib \

        $$PWD/ffmpeglib/lib/swscale.lib


在 main.cpp 里面调用对应库,并使用一个简单的代码进行验证


#include "Widget.h"


#include <QApplication>

#include <QDebug>


// 需要使用C来对C++进行支持

// 注意注意注意,这里的C是大写的!不是小写的!小写会报错!

extern "C"

{

//avcodec:编解码(最重要的库)

#include <libavcodec/avcodec.h>

    //avformat:封装格式处理

#include <libavformat/avformat.h>

    //swscale:视频像素数据格式转换

#include <libswscale/swscale.h>

    //avdevice:各种设备的输入输出

#include <libavdevice/avdevice.h>

    //avutil:工具库(大部分库都需要这个库的支持)

#include <libavutil/avutil.h>

}



int main(int argc, char *argv[])

{

    QApplication a(argc, argv);

    Widget w;

    w.show();


    // 测试avcodec版本

    qDebug() << avcodec_version();


    return a.exec();

}


如果运行完全没有问题,你将会在应用程序输出里面看见一串数字



ffmpeg新旧函数对比

从FFmpeg 3.0 开始 , 使用了很多新接口,对不如下:

1. avcodec_decode_video2() 原本的解码函数被拆解为两个函数avcodec_send_packet()和avcodec_receive_frame() 具体用法如下:

old:

avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, pPacket);

new:

avcodec_send_packet(pCodecCtx, pPacket);

avcodec_receive_frame(pCodecCtx, pFrame);


2. avcodec_encode_video2() 对应的编码函数也被拆分为两个函数avcodec_send_frame()和avcodec_receive_packet() 具体用法如下:

old:

avcodec_encode_video2(pCodecCtx, pPacket, pFrame, &got_picture);

new:

avcodec_send_frame(pCodecCtx, pFrame); avcodec_receive_packet(pCodecCtx, pPacket);


3. avpicture_get_size() 现在改为使用av_image_get_size() 具体用法如下:

old:

avpicture_get_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);

new: //最后一个参数align这里是置1的,具体看情况是否需要置1

av_image_get_buffer_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1);


4. avpicture_fill() 现在改为使用av_image_fill_arrays 具体用法如下:

old:

avpicture_fill((AVPicture *)pFrame, buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);

new: //最后一个参数align这里是置1的,具体看情况是否需要置1

av_image_fill_arrays(pFrame->data, pFrame->linesize, buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height,1);


5. 关于codec问题有的可以直接改为codecpar,但有的时候这样这样是不对的,所以我也还在探索,这里记录一个对pCodecCtx和pCodec赋值方式的改变

old:

pCodecCtx = pFormatCtx->streams[video_index]->codec; pCodec = avcodec_find_decoder(pFormatCtx->streams[video_index]->codec->codec_id);

new:

pCodecCtx = avcodec_alloc_context3(NULL); avcodec_parameters_to_context(pCodecCtx,pFormatCtx->streams[video_index]->codecpar); pCodec = avcodec_find_decoder(pCodecCtx->codec_id);



6. PIX_FMT_YUV420P -> AV_PIX_FMT_YUV420P


7. 'AVStream::codec': 被声明为已否决:

old:

if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO){

new:

if(pFormatCtx->streams[i]->codecpar->codec_type==AVMEDIA_TYPE_VIDEO){


8. 'AVStream::codec': 被声明为已否决:


old:

pCodecCtx = pFormatCtx->streams[videoindex]->codec;

new:

pCodecCtx = avcodec_alloc_context3(NULL); avcodec_parameters_to_context(pCodecCtx, pFormatCtx->streams[videoindex]->codecpar);


9. 'avpicture_get_size': 被声明为已否决:

old:

avpicture_get_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height)

new:

#include "libavutil/imgutils.h"

av_image_get_buffer_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1)


10. 'avpicture_fill': 被声明为已否决:

old:

avpicture_fill((AVPicture *)pFrameYUV, out_buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);

new:

av_image_fill_arrays(pFrameYUV->data, pFrameYUV->linesize, out_buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height, 1);


11. 'avcodec_decode_video2': 被声明为已否决:

old:

ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet); //got_picture_ptr Zero if no frame could be decompressed

new:

ret = avcodec_send_packet(pCodecCtx, packet);

got_picture = avcodec_receive_frame(pCodecCtx, pFrame); //got_picture = 0 success, a frame was returned //注意:got_picture含义相反

或者:

int ret = avcodec_send_packet(aCodecCtx, &pkt);

if (ret != 0)

{

prinitf("%s/n","error");

return;

} while( avcodec_receive_frame(aCodecCtx, &frame) == 0)

{

//读取到一帧音频或者视频 //处理解码后音视频 frame

}

12. 'av_free_packet': 被声明为已否决:

old:

av_free_packet(packet);

new:

av_packet_unref(packet);


13. avcodec_decode_audio4:被声明为已否决:

old:

result = avcodec_decode_audio4(dec_ctx, out_frame, &got_output, &enc_pkt);

new:

int ret = avcodec_send_packet(dec_ctx, &enc_pkt);

if (ret != 0)

{

prinitf("%s/n","error");


} while( avcodec_receive_frame(dec_ctx, &out_frame) == 0)

{

//读取到一帧音频或者视频

//处理解码后音视频 frame

}


旧接口av_register_all()------------新版不需要注册


PKT_FLAG_KEY ---------------->AV_PKT_FLAG_KEY


AV_CODEC_CAP_DELAY----->AV_CODEC_CAP_DELAY


guess_format ------------>av_guess_format 

 


av_alloc_format_context ---------->avformat_alloc_output_context 



CODEC_TYPE_VIDEO ----------------->AVMEDIA_TYPE_VIDEO



CODEC_TYPE_AUDIO ---------------->AVMEDIA_TYPE_AUDIO


audio_resample_init ----------------->av_audio_resample_init 


PIX_FMT_YUV420P -> AV_PIX_FMT_YUV420P


AVStream::codec     被声明为已否决


'avpicture_get_size’: 被声明为已否决


新的API中将AVStream结构体中codec作了遗弃处理,当需要解码器上下文的时候,需要用AVCodecParameters去转化,解决方案是如下

av_free_packet(packet)--------------------> av_packet_unref(packet);


FFMPEG常用函数

FFMpeg 中比较重要的函数以及数据结构如下:

数据结构:

(1) AVFormatContext

(2) AVOutputFormat

(3) AVInputFormat

(4) AVCodecContext

(5) AVCodec

(6) AVFrame

(7) AVPacket

(8) AVPicture

(9) AVStream


初始化函数:

(1) av_register_all()

(2) avcodec_open()

(3) avcodec_close()

(4) av_open_input_file()

(5) av_find_input_format()

(6) av_find_stream_info()

(7) av_close_input_file()


音视频编解码函数:

(1) avcodec_find_decoder()

(2) avcodec_alloc_frame()

(3) avpicture_get_size()

(4) avpicture_fill()

(5) img_convert()

(6) avcodec_alloc_context()

(7) avcodec_decode_video()

(8) av_free_packet()

(9) av_free()


文件操作:

(1) avnew_steam()

(2) av_read_frame()

(3) av_write_frame()

(4) dump_format()


其他函数:

(1) avpicture_deinterlace()

(2) ImgReSampleContext()


QT+FFMPEG实现视频播放

开发环境:MinGW+QT5.9+FFMPEG20190212


一、开发环境搭建


FFMPEG的开发环境部署比如容易,在官网下载库文件,然后在QT里面指定路径,把相关dll文件放到exe目录下就可以了,不需要根据开发工具重新编译。


(1)下载工具


在https://ffmpeg.zeranoe.com/builds/下载对应版本。链接方式有三种,


Static:这个版本只包含了ffmpeg.exe、ffplay.exe、ffprobe.exe三个可执行程序,没有头文件和库文件。


Shared:这个版本包含了ffmpeg.exe、ffplay.exe、ffprobe.exe三个可执行程序和相关动态库文件。


Dev:开发版,这个包含了头文件和库文件。


我们需要下载Shared和Dev两个版本,Dev有我们程序开发需要的头文件和库文件,这里面包含的库是动态调用的,所依赖的动态库在Shared这个版本里面,所以两个版本都要下载。


(2)添加库


将下载的文件解压缩,然后新建一个QT工程,在pro添加lib目录和include目录的路径。


 


INCLUDEPATH +="E:\\Lib\\ffmpeg\\include"


LIBS += -LE:\Lib\ffmpeg\lib -lavutil -lavformat -lavcodec -lavdevice -lavfilter -lpostproc -lswresample -lswscale

 


然后将shared下的动态库添加到exe目录下。


 


二、代码实现播放功能


在界面上放置一个QLabel和QPushButton控件,当点击按钮时实现以下功能:


复制代码

#include <QTime>

extern "C"{

#include <libavcodec/avcodec.h>

#include <libavformat/avformat.h>

#include <libswscale/swscale.h>

#include <libavutil/imgutils.h>

}

void Delay(int msec)

{

    QTime dieTime = QTime::currentTime().addMSecs(msec);

    while( QTime::currentTime() < dieTime )

        QCoreApplication::processEvents(QEventLoop::AllEvents, 100);

}


void MainWindow::on_btnPlay_clicked()

{

    AVFormatContext    *pFormatCtx;

    int                i, videoindex;

    AVCodecContext    *pCodecCtx;

    AVCodec            *pCodec;

    AVFrame    *pFrame, *pFrameRGB;

    unsigned char *out_buffer;

    AVPacket *packet;

    int ret, got_picture;

    struct SwsContext *img_convert_ctx;


    char filepath[] = "E:\\media\\1.avi";

    //初始化编解码库

    av_register_all();//创建AVFormatContext对象,与码流相关的结构。

    pFormatCtx = avformat_alloc_context();

    //初始化pFormatCtx结构

    if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0){

        printf("Couldn't open input stream.\n");

        return ;

    }

    //获取音视频流数据信息

    if (avformat_find_stream_info(pFormatCtx, NULL) < 0){

        printf("Couldn't find stream information.\n");

        return ;

    }

    videoindex = -1;

    //nb_streams视音频流的个数,这里当查找到视频流时就中断了。

    for (i = 0; i < pFormatCtx->nb_streams; i++)

        if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){

            videoindex = i;

            break;

    }

    if (videoindex == -1){

        printf("Didn't find a video stream.\n");

        return ;

    }

    //获取视频流编码结构

    pCodecCtx = pFormatCtx->streams[videoindex]->codec;

    //查找解码器

    pCodec = avcodec_find_decoder(pCodecCtx->codec_id);

    if (pCodec == NULL){

        printf("Codec not found.\n");

        return ;

    }

    //用于初始化pCodecCtx结构

    if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0){

        printf("Could not open codec.\n");

        return ;

    }

    //创建帧结构,此函数仅分配基本结构空间,图像数据空间需通过av_malloc分配

    pFrame = av_frame_alloc();

    pFrameRGB = av_frame_alloc();

    //创建动态内存,创建存储图像数据的空间

    //av_image_get_buffer_size获取一帧图像需要的大小

    out_buffer = (unsigned char *)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_RGB32, pCodecCtx->width, pCodecCtx->height, 1));

    av_image_fill_arrays(pFrameRGB->data, pFrameRGB->linesize, out_buffer,

        AV_PIX_FMT_RGB32, pCodecCtx->width, pCodecCtx->height, 1);


    packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    //Output Info-----------------------------

    printf("--------------- File Information ----------------\n");

    //此函数打印输入或输出的详细信息

    av_dump_format(pFormatCtx, 0, filepath, 0);

    printf("-------------------------------------------------\n");

    //初始化img_convert_ctx结构

    img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,

        pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB32, SWS_BICUBIC, NULL, NULL, NULL);

    //av_read_frame读取一帧未解码的数据

    while (av_read_frame(pFormatCtx, packet) >= 0){

        //如果是视频数据

        if (packet->stream_index == videoindex){

            //解码一帧视频数据

            ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);

            if (ret < 0){

                printf("Decode Error.\n");

                return ;

            }

            if (got_picture){

                sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,

                    pFrameRGB->data, pFrameRGB->linesize);

                QImage img((uchar*)pFrameRGB->data[0],pCodecCtx->width,pCodecCtx->height,QImage::Format_RGB32);

                ui->label->setPixmap(QPixmap::fromImage(img));

                Delay(40);

            }

        }

        av_free_packet(packet);

    }

    sws_freeContext(img_convert_ctx);

    av_frame_free(&pFrameRGB);

    av_frame_free(&pFrame);

    avcodec_close(pCodecCtx);

    avformat_close_input(&pFormatCtx);

}


FFmpeg 简单的视频播放例子(Qt)

一、简述


      记--直接在FFmpeg官网下载已经编译好的库(也可以自己用源码编译),并在Qt程序中引用并使用,例子知识简单的播放,待完善。


       例子代码和FFmpeg相关库文件:https://lanzous.com/b0c8c02qb 密码:3wdn        


二、下载FFmpeg库(也可以自己用源码编译)


        官网:https://ffmpeg.zeranoe.com/builds/


1.png

2.png

           


三、 在工程中引用FFmpeg


       3.1 使用QtCreator创建一个“Qt Widgts Application”

3.png

              


      3.2 将编译相关文件放到工程目录下


              3.2.1 在工程目录下创建ffmpeg目录,以统一存放ffmpeg相关文件


                     4.png


              3.2.2 解压ffmpeg-4.2.2-win32-dev.zip和ffmpeg-4.2.2-win32-shared.zip


              5.png


           3.2.3 将相关文件拷贝到 3.2.1步骤创建的目录下


                   将ffmpeg-4.2.2-win32-dev目录下的include整个目录拷贝到ffmpeg目录下                       


                   将ffmpeg-4.2.2-win32-dev的lib目录下的所有.dll.a文件拷贝到ffmpeg/lib目录下


6.png


      3.3 在项目中添加引用


           3.3.1 在.pro文件添加头文件路径和lib路径

7.png

          


INCLUDEPATH += $$PWD/ffmpeg/include

LIBS += $$PWD/ffmpeg/lib/libavcodec.dll.a \

             $$PWD/ffmpeg/lib/libavfilter.dll.a \

             $$PWD/ffmpeg/lib/libavformat.dll.a \

             $$PWD/ffmpeg/lib/libavutil.dll.a \

             $$PWD/ffmpeg/lib/libswscale.dll.a

           3.3.2  在代码中添加头文件引用          

四、简单测试FFmpeg是否可用 (例子1)


          4.1 编写代码输出FFmpeg的配置信息和版本信息         

8.png

 4.2 编译


9.png


4.3 运行


          因为是动态编译,在运行前需要将程序所需要的动态库拷贝到程序的同级目录,或者是将动态库路径设置到环境变量。


          例子是debug版本,就将动态库拷贝到debug目录


10.png


12.png


五、播放视频(例子2 )


      主要代码:

#include "mainwindow.h"

#include "ui_mainwindow.h"

#include <QDebug>

#include <QTime>

#include <QIcon>

#include <QPixmap>

#include <QFileDialog>

#include <QMessageBox>

#include <QSlider>

#include <QComboBox>

 

//包含ffmpeg相关头文件,并告诉编译器以C语言方式处理

extern "C"

{

    #include <libavcodec/avcodec.h>

    #include <libavformat/avformat.h>

    #include <libswscale/swscale.h>

    #include <libavdevice/avdevice.h>

    #include <libavformat/version.h>

    #include <libavutil/time.h>

    #include <libavutil/mathematics.h>

    #include <libavutil/imgutils.h>

}

 

MainWindow::MainWindow(QWidget *parent) :

    QMainWindow(parent),

    ui(new Ui::MainWindow)

{

    //输出FFmpeg版本信息

    qDebug("ffmpeg versioin is: %u", avcodec_version());

 

    ui->setupUi(this);

 

    //初始化

    init();

}

 

MainWindow::~MainWindow()

{

    delete ui;

}

 

//初始化

void MainWindow::init()

{

    mVideoWidth = this->width();

    mVideoHeight = this->height();

 

    //设置视频label的宽高为窗体宽高

    ui->labelVideo->setGeometry(0, 0, mVideoWidth, mVideoHeight);

 

    //初始化播放速度

    mPlaySpdVal = PLAY_SPD_10;

 

    //初播放状态wei

    mVideoPlaySta = Video_PlayFinish;

 

    /*****在状态栏添加一个用来显示视频路径的label************/

    //用于显示已经选择的视频文件路径

    mVideoFile = new QLabel(this);

    mVideoFile->setToolTip("视频文件");

    ui->statusBar->addWidget(mVideoFile);

 

    /*****在工具栏添加选择动作************/

    //创建一个选择视频文件动作

    QAction* pActionSelectVideoFile = new QAction(QIcon(QPixmap(":/selectVideo.png")), "选择");

 

    //设置鼠标悬停提示文本

    pActionSelectVideoFile->setToolTip("选择视频文件");

 

    //将动作添加到工具栏

    ui->mainToolBar->addAction(pActionSelectVideoFile);

 

    //连接动作的点击事件

    QObject::connect(pActionSelectVideoFile, SIGNAL(triggered(bool)), this, SLOT(on_selectVideoFile()));

 

    /*****在工具栏添加播放/暂停动作************/

    //创建一个播放/暂停视频动作

    mActionPlayCtrl = new QAction(QIcon(QPixmap(":/play.png")), "播放");

 

    //设置鼠标悬停提示文本

    mActionPlayCtrl->setToolTip("播放视频");

 

    //将动作添加到工具栏

    ui->mainToolBar->addAction(mActionPlayCtrl);

 

    //连接动作的点击事件

    QObject::connect(mActionPlayCtrl, SIGNAL(triggered(bool)), this, SLOT(on_videoPlayCtrl()));

 

    /*****在工具栏添加停止动作************/

    //创建一个停止播放视频动作

    QAction* pActionStopPlay = new QAction(QIcon(QPixmap(":/stop.png")), "停止");

 

    //设置鼠标悬停提示文本

    pActionStopPlay->setToolTip("停止播放");

 

    //将动作添加到工具栏

    ui->mainToolBar->addAction(pActionStopPlay);

 

    //连接动作的点击事件

    QObject::connect(pActionStopPlay, SIGNAL(triggered(bool)), this, SLOT(on_stopPlayVideo()));

 

    /*****在工具栏添加窗体大小适配视频宽高动作************/

    //创建一个停止播放视频动作

    QAction* pActionAutoSize = new QAction(QIcon(QPixmap(":/autoSize.png")), "自适应");

 

    //设置鼠标悬停提示文本

    pActionAutoSize->setToolTip("窗体自适应视频宽高");

 

    //将动作添加到工具栏

    ui->mainToolBar->addAction(pActionAutoSize);

 

    //连接动作的点击事件

    QObject::connect(pActionAutoSize, SIGNAL(triggered(bool)), this, SLOT(on_autoSize()));

 

    //添加分隔符

    ui->mainToolBar->addSeparator();

 

    //添加播放速度下拉选择

    QStringList plsySpdItems;

    plsySpdItems << "0.5";

    plsySpdItems << "0.8";

    plsySpdItems << "1";

    plsySpdItems << "1.2";

    plsySpdItems << "1.5";

    plsySpdItems << "2";

    plsySpdItems << "3";

    plsySpdItems << "4";

    QComboBox* comboBoxPlaySpd = new QComboBox();

    comboBoxPlaySpd->setToolTip("播放速度");

    comboBoxPlaySpd->addItems(plsySpdItems);//添加倍速选项

    comboBoxPlaySpd->setCurrentIndex(2);//设置默认速度1

    comboBoxPlaySpd->setEditable(false);//设置为不可编辑

 

    //设置样式

    //comboBoxPlaySpd->setStyleSheet("QComboBox { border:1px solid black; min-width: 30px;} QComboBox QAbstractItemView::item {min-height:20px; background-color: rgb(0, 0, 0);} QFrame { border: 1px solid black; }");

    ui->mainToolBar->addWidget(comboBoxPlaySpd);

    QObject::connect(comboBoxPlaySpd, SIGNAL(currentIndexChanged(int)), this, SLOT(on_playSpdChange(int)));

 

    //添加分隔符

    ui->mainToolBar->addSeparator();

 

    //添加播放声音滑动条到工具栏

    QString sliderStyle = "QSlider::groove:horizontal{ \

            height: 6px; \

            background: qlineargradient(x1: 0, y1: 0, x2: 0, y2: , stop: 0 rgb(124, 124, 124), stop: 1.0 rgb(72, 71, 71)); \

   } \

    QSlider::handle:horizontal { \

            width: 5px; \

            background: rgb(0, 160, 230); \

            margin: -6px 0px -6px 0px; \

            border-radius: 9px; \

   }";

    QSlider* slider = new QSlider(Qt::Orientation::Horizontal, this);

    slider->setToolTip("音量");

    slider->setMaximumWidth(100);//设置最大值

    slider->setRange(0, 100);//设置滑动范围

    slider->setStyleSheet(sliderStyle);//设置样式

    ui->mainToolBar->addWidget(slider);

    //连接动作的滑动事件

    QObject::connect(slider, SIGNAL(sliderMoved(int)), this, SLOT(on_VolumeChange(int)));

 

    /*****在工具栏添加一个用来显示音量的label************/

    mCurVolume = new QLabel("音量60");

    mCurVolume->setToolTip("当前音量值");

    ui->mainToolBar->addWidget(mCurVolume);

 

 

}

 

//延时, 不能直接sleep延时,UI主线程不能直接被阻塞,不然会有问题的

void delay(int ms)

{

    QTime stopTime;

    stopTime.start();

    //qDebug()<<"start:"<<QTime::currentTime().toString("HH:mm:ss.zzz");

    while(stopTime.elapsed() < ms)//stopTime.elapsed()返回从start开始到现在的毫秒数

    {

        QCoreApplication::processEvents();

    }

    //qDebug()<<"stop :"<<QTime::currentTime().toString("HH:mm:ss.zzz");

}

 

//重新设置窗体和视频Label的宽高

void MainWindow::resizeWindow(int width, int height)

{

    if(width<1)

    {

       width = this->width();

    }

 

    if(height<1)

    {

        height = this->height();

    }

 

    this->setGeometry(100, 100, width, height);

    ui->labelVideo->setGeometry(0, 0, width, height);

}

 

//窗体变化事件

void MainWindow::resizeEvent(QResizeEvent* event)

{

    Q_UNUSED(event);

 

    //让视频Label跟随窗体变化

    ui->labelVideo->resize(this->size());

}

 

//使用FFmpeg播放视频

int MainWindow::playVideo(char* videoPath)

{

    unsigned char* buf;

    int isVideo = -1;

    int ret, gotPicture;

    unsigned int i, streamIndex = 0;

    AVCodec *pCodec;

    AVPacket *pAVpkt;

    AVCodecContext *pAVctx;

    AVFrame *pAVframe, *pAVframeRGB;

    AVFormatContext* pFormatCtx;

    struct SwsContext* pSwsCtx;

 

    //创建AVFormatContext

    pFormatCtx = avformat_alloc_context();

 

    //初始化pFormatCtx

    if (avformat_open_input(&pFormatCtx, videoPath, NULL, NULL) != 0)

    {

        qDebug("avformat_open_input err.");

        return -1;

    }

 

    //获取音视频流数据信息

    if (avformat_find_stream_info(pFormatCtx, NULL) < 0)

    {

        avformat_close_input(&pFormatCtx);

        qDebug("avformat_find_stream_info err.");

        return -2;

    }

 

    //找到视频流的索引

    for (i = 0; i < pFormatCtx->nb_streams; i++)

    {

        if (pFormatCtx->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)

        {

            streamIndex = i;

            isVideo = 0;

            break;

        }

    }

 

    //没有视频流就退出

    if (isVideo == -1)

    {

        avformat_close_input(&pFormatCtx);

        qDebug("nb_streams err.");

        return -3;

    }

 

    //获取视频流编码

    pAVctx = avcodec_alloc_context3(NULL);;

 

    //查找解码器

    avcodec_parameters_to_context(pAVctx, pFormatCtx->streams[streamIndex]->codecpar);

    pCodec = avcodec_find_decoder(pAVctx->codec_id);

    if (pCodec == NULL)

    {

        avcodec_close(pAVctx);

        avformat_close_input(&pFormatCtx);

        qDebug("avcodec_find_decoder err.");

        return -4;

    }

 

    //初始化pAVctx

    if (avcodec_open2(pAVctx, pCodec, NULL) < 0)

    {

        avcodec_close(pAVctx);

        avformat_close_input(&pFormatCtx);

        qDebug("avcodec_open2 err.");

        return -5;

    }

 

    //初始化pAVpkt

    pAVpkt = (AVPacket *)av_malloc(sizeof(AVPacket));

 

    //初始化数据帧空间

    pAVframe = av_frame_alloc();

    pAVframeRGB = av_frame_alloc();

 

    //创建图像数据存储buf

    //av_image_get_buffer_size一帧大小

    buf = (unsigned char *)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_RGB32, pAVctx->width, pAVctx->height, 1));

    av_image_fill_arrays(pAVframeRGB->data, pAVframeRGB->linesize, buf, AV_PIX_FMT_RGB32, pAVctx->width, pAVctx->height, 1);

 

    //根据视频宽高重新调整窗口大小 视频宽高 pAVctx->width, pAVctx->height

    resizeWindow(pAVctx->width, pAVctx->height);

 

    //初始化pSwsCtx

    pSwsCtx = sws_getContext(pAVctx->width, pAVctx->height, pAVctx->pix_fmt, pAVctx->width, pAVctx->height, AV_PIX_FMT_RGB32, SWS_BICUBIC, NULL, NULL, NULL);

 

    //循环读取视频数据

    for(;;)

    {

        if(mVideoPlaySta == Video_Playing)//正在播放

        {

            if(av_read_frame(pFormatCtx, pAVpkt) >= 0)//读取一帧未解码的数据

            {

                //如果是视频数据

                if (pAVpkt->stream_index == (int)streamIndex)

                {

                    //解码一帧视频数据

                    ret = avcodec_decode_video2(pAVctx, pAVframe, &gotPicture, pAVpkt);

                    if(ret < 0)

                    {

                        qDebug("Decode Error.\n");

                        continue;

                    }

 

                    if(gotPicture)

                    {

                        sws_scale(pSwsCtx, (const unsigned char* const*)pAVframe->data, pAVframe->linesize, 0, pAVctx->height, pAVframeRGB->data, pAVframeRGB->linesize);

                        QImage img((uchar*)pAVframeRGB->data[0], pAVctx->width, pAVctx->height, QImage::Format_RGB32);

                        ui->labelVideo->setPixmap(QPixmap::fromImage(img));

                        delay(mPlaySpdVal);//播放延时

                    }

                }

                av_packet_unref(pAVpkt);

            }

            else

            {

                break;

            }

        }

        else if(mVideoPlaySta == Video_PlayFinish)//播放结束

        {

            break;

        }

        else//暂停

        {

            delay(300);

        }

    }

 

    //释放资源

    sws_freeContext(pSwsCtx);

    av_frame_free(&pAVframeRGB);

    av_frame_free(&pAVframe);

    avcodec_close(pAVctx);

    avformat_close_input(&pFormatCtx);

 

    mVideoPlaySta = Video_PlayFinish;

    qDebug()<<"play finish!";

 

    return 0;

}

 

//选择视频文件

void MainWindow::on_selectVideoFile()

{

    QString path = QFileDialog::getOpenFileName(this,"选择视频文件","D:\\Test\\Video\\","WMV视频(*.wmv);;MP4视频(*.mp4);;AVI视频(*.avi)");

    if(!path.isEmpty())

    {

        mVideoFile->setText(path);

        on_videoPlayCtrl();

    }

}

 

//视频播放/暂停控制

void MainWindow::on_videoPlayCtrl()

{

    QString videoFilePath = mVideoFile->text();

    if(videoFilePath.isEmpty())

    {

        return;

    }

 

    //判断文件是都存在(以防被删除了)

//    QFileInfo fileInfo(videoFilePath);

//    if(fileInfo.isFile())

//    {

//        QMessageBox::information(this, "提示", "找不到文件:"+videoFilePath);

//        return;

//    }

 

    //播放和暂停切换

    if(mActionPlayCtrl->text() == "播放")

    {

        mActionPlayCtrl->setText("暂停");

        mActionPlayCtrl->setToolTip("暂停视频");

        mActionPlayCtrl->setIcon(QIcon(QPixmap(":/pause.png")));

 

        if(mVideoPlaySta == Video_PlayFinish)

        {

            mVideoPlaySta = Video_Playing;

            playVideo(videoFilePath.toLocal8Bit().data());

            on_stopPlayVideo();

        }

        else

        {

            mVideoPlaySta = Video_Playing;

        }

    }

    else

    {

        mActionPlayCtrl->setText("播放");

        mActionPlayCtrl->setToolTip("播放视频");

        mActionPlayCtrl->setIcon(QIcon(QPixmap(":/play.png")));

 

        if(mVideoPlaySta == Video_Playing)

        {

            mVideoPlaySta = Video_PlayPause;

        }

    }

}

 

//停止播放视频

void MainWindow::on_stopPlayVideo()

{

    mVideoPlaySta = Video_PlayFinish;

    mActionPlayCtrl->setText("播放");

    mActionPlayCtrl->setToolTip("播放视频");

    mActionPlayCtrl->setIcon(QIcon(QPixmap(":/play.png")));

}

 

//窗体自适应视频宽高

void MainWindow::on_autoSize()

{

    resizeWindow(mVideoWidth, mVideoHeight);

}

 

//窗体关闭事件

void MainWindow::closeEvent(QCloseEvent* event)//窗体关闭事件

{

    //没有在播放视频时直接退出

    if(mVideoPlaySta != Video_PlayFinish)

    {

        if(QMessageBox::Yes == QMessageBox::information(this, "提示", "确认关闭?", QMessageBox::Yes, QMessageBox::No))

        {

            mVideoPlaySta = Video_PlayFinish;

            //event->accept();

        }

        else

        {

            event->ignore();//忽略,不关闭

        }

    }

}

 

//播放音量变化

void MainWindow::on_VolumeChange(int volume)

{

    mCurVolume->setText("音量"+QString::number(volume));

}

 

//播放速度变化

void MainWindow::on_playSpdChange(int spdVal)

{

    switch(spdVal)

    {

        case 0://0.5

            mPlaySpdVal = PLAY_SPD_05;

            break;

        case 1://0.8

            mPlaySpdVal = PLAY_SPD_08;

            break;

        case 2://1

            mPlaySpdVal = PLAY_SPD_10;

            break;

        case 3://1.2

            mPlaySpdVal = PLAY_SPD_12;

            break;

        case 4://1.5

            mPlaySpdVal = PLAY_SPD_15;

            break;

        case 5://2

            mPlaySpdVal = PLAY_SPD_20;

            break;

        case 6://3

            mPlaySpdVal = PLAY_SPD_30;

            break;

        case 7://4

            mPlaySpdVal = PLAY_SPD_40;

            break;

        default:

            break;

    }

}









Top