本文目录一览:
- 1、python OpenCV视频拆分图片代码
- 2、如何用python实现视频关键帧提取并保存为图片
- 3、如何用编程生成视频文件
- 4、使用OpenCV和Python进行图像拼接
- 5、爆肝!用Python制作抖音爆款视频!
- 6、Python如何上传本地视频?
python OpenCV视频拆分图片代码
# coding:utf-8
import cv2
import numpy as np
import os
print("1")
vc = cv2.VideoCapture("123.mp4")
C = 1
print("2")
if vc.isOpened():
rVal, frame = vc.read()
else:
print("3")
rVal = False
while rVal:
print(C)
if C % 1000 == 0: # every 5 fps write frame to img
path='./image/'+str(C)+'.jpg'
cv2.imwrite(path, frame)
# cropped001 = frame2[0:300,300:600] #y change from 0 to 300 x change from 300 to 600
# cv2.im write('./cropped/'+str(c)+'001.jpg',cropped001)
print(C)
cv2.waitKey(1)
C = C + 1
vc.release()
如何用python实现视频关键帧提取并保存为图片
import cv2
vc = cv2.VideoCapture('Test.avi') #读入视频文件
c=1
if vc.isOpened(): #判断是否正常打开
rval , frame = vc.read()
else:
rval = False
timeF = 1000 #视频帧计数间隔频率
while rval: #循环读取视频帧
rval, frame = vc.read()
if(c%timeF == 0): #每隔timeF帧进行存储操作
cv2.imwrite('image/'+str(c) + '.jpg',frame) #存储为图像
c = c + 1
cv2.waitKey(1)
vc.release()
如何用编程生成视频文件
恕我愚钝,兄弟,“不借助控件,只提供若干图片资源”,通过写代码编程序做一个avi格式的视频,这不是电影胶片的放映原理吗?这样的程序盖茨尚且难以做出,并且也没有作出。有点异想天开了吧。
使用OpenCV和Python进行图像拼接
么是图像拼接呢?简单来说,对于输入应该有一组图像,输出是合成图像。同时,必须保留图像之间的逻辑流。
首先让我们了解图像拼接的概念。基本上,如果你想捕捉一个大的场景,你的相机只能提供一个特定分辨率的图像(如:640×480),这当然不足以捕捉大的全景。所以,我们可以做的是捕捉整个场景的多个图像,然后把所有的碎片放在一起,形成一个大的图像。这些有序的照片被称为全景。获取多幅图像并将其转换成全景图的整个过程称为图像拼接。
首先,需要安装opencv 3.4.2.16。
接下来我们将导入我们将在Python代码中使用的库:
在我们的教程中,我们将拍摄这张精美的照片,我们会将其分成两张左右两张照片,然后我们会尝试拍摄相同或非常相似的照片。
因此,我将此图像切成两个图像,它们会有某种重叠区域:
在此,我们将列出我们应采取的步骤,以取得最终的结果:
因此,从第一步开始,我们将导入这两个图像并将它们转换为灰度,如果您使用的是大图像,我建议您使用cv2.resize,因为如果您使用较旧的计算机,它可能会非常慢并且需要很长时间。如果要调整图像大小,即调整50%,只需将fx = 1更改为fx = 0.5即可。
我们还需要找出两幅图像中匹配的特征。我们将使用opencv_contrib的SIFT描述符。SIFT (Scale constant Feature Transform)是一种非常强大的OpenCV算法。这些最匹配的特征作为拼接的基础。我们提取两幅图像的关键点和sift描述符如下:
kp1和kp2是关键点,des1和des2是图像的描述符。如果我们用特征来画这幅图,它会是这样的:
左边的图像显示实际图像。右侧的图像使用SIFT检测到的特征进行注释:
一旦你有了两个图像的描述符和关键点,我们就会发现它们之间的对应关系。我们为什么要这么做?为了将任意两个图像连接成一个更大的图像,我们必须找到重叠的点。这些重叠的点会让我们根据第一幅图像了解第二幅图像的方向。根据这些公共点,我们就能知道第二幅图像是大是小还是旋转后重叠,或者缩小/放大后再fitted。所有此类信息的产生是通过建立对应关系来实现的。这个过程称为registration。
对于匹配图像,可以使用opencv提供的FLANN或BFMatcher方法。我会写两个例子证明我们会得到相同的结果。两个示例都匹配两张照片中更相似的特征。当我们设置参数k = 2时,这样我们就要求knnMatcher为每个描述符给出2个最佳匹配。“matches”是列表的列表,其中每个子列表由“k”个对象组成。以下是Python代码:
FLANN匹配代码:
BFMatcher匹配代码:
通常在图像中,图像的许多地方可能存在许多特征。所以我们过滤掉所有的匹配来得到最好的。因此我们使用上面得到的前2个匹配项进行比值检验。如果下面定义的比值大于指定的比值,则考虑匹配。
现在我们定义在图像上绘制线条的参数,并给出输出以查看当我们在图像上找到所有匹配时的样子:
这是输出的匹配图像:
这部分完整Python代码:
因此,一旦我们获得了图像之间的最佳匹配,我们的下一步就是计算单应矩阵。如前所述,单应矩阵将与最佳匹配点一起使用,以估计两个图像内的相对方向变换。
在OpenCV中估计单应性是一项简单的任务,只需一行代码:
在开始编码拼接算法之前,我们需要交换图像输入。所以img_现在会取右图像img会取左图像。
那么让我们进入拼接编码:
因此,首先,我们将最小匹配条件count设置为10(由MIN_MATCH_COUNT定义),并且只有在匹配良好的匹配超出所需匹配时才进行拼接。否则,只需显示一条消息,说明匹配不够。
因此,在if语句中,我们将关键点(从匹配列表)转换为findHomography()函数的参数。
只需在这段代码中讨论cv2.imshow(“original_image_overlapping.jpg”,img2),我们就会显示我们收到的图像重叠区域:
因此,一旦我们建立了单应性,我们需要扭曲视角,我们将以下单应矩阵应用于图像:
所以我们使用如下:
在上面两行Python代码中,我们从两个给定的图像中获取重叠区域。然后在“dst”中我们只接收到没有重叠的图像的右侧,因此在第二行代码中我们将左侧图像放置到最终图像。所以在这一点上我们完全拼接了图像:
剩下的就是去除图像的黑色,所以我们将编写以下代码来从所有图像边框中删除黑边:
这是我们调用修剪边界的最终定义函数,同时我们在屏幕上显示该图像。如果您愿意,也可以将其写入磁盘:
使用上面的Python代码,我们将首先收到原始图片:
这是完整的最终代码:
在本教程中,我们学习了如何使用OpenCV执行图像拼接和全景构造,并编写了最终的图像拼接代码。
我们的图像拼接算法需要四个主要步骤:检测关键点和提取局部不变描述符; 获得图像之间的匹配描述符; 应用RANSAC估计单应矩阵; 使用单应矩阵应用warping transformation。
当仅为两个图像构建全景图时,该算法在实践中工作良好。
爆肝!用Python制作抖音爆款视频!
前几天我在抖音上刷到一个慢慢变老的视频,播放量居然有 30W+,当时就在想这视频 Python 可不可以做?经过一番搜索,我找到了腾讯云的人脸年龄变化 API,上面介绍说只要用户上传一张人脸图片,基于人脸编辑与生成算法,就可以输出一张人脸变老或变年轻的图片,并支持实现人脸不同年龄的变化。
第一步,在注册账号之后,打开 API 密钥管理页面( )获取到 SecretId 和 SecretKey。
第二步,安装腾讯云的 SDK
在人脸年龄变化 API 中有一个 AgeInfo 参数,它包含了 Age 和 FaceRect 两个属性,其中 FaceRect 属性必须填人脸在照片中基于左上角的 X、Y 坐标和人脸的高度与宽度。所以先要调用人脸检测与分析 API 得到这些数据。
下面的示例图是在百度图片中截取的。
示例结果
在上面已经得到了各个人脸的 X、Y、Width、Height 属性,加上变老的年龄 Age,就可以请求年龄变化 API 了。
这里需要注意的是 models 模块,人脸检测 models 模块是在 tencentcloud.iai.v20200303 包下,人脸年龄变化的 models 是在 tencentcloud.ft.v20200304 下,两个 models 模块并不兼容。
示例结果
最后的视频可以将图片一张一张插入 PPT 幻灯片,点击保存为视频。
用 Python 制作抖音素材,下一个 30W+ 播放量等着你。
Python如何上传本地视频?
参考代码如下:
from tkinter import *
from tkinter.ttk import *
from tkinter.filedialog import askopenfile
import time
ws = Tk()
ws.title('PythonGuides')
ws.geometry('400x200')
def open_file():
file_path = askopenfile(mode='r', filetypes=[('Vedio Files', '*mp4')])
if file_path is not None:
pass
def uploadFiles():
pb1 = Progressbar(
ws,
orient=HORIZONTAL,
length=300,
mode='determinate'
)
pb1.grid(row=4, columnspan=3, pady=20)
for i in range(5):
ws.update_idletasks()
pb1['value'] += 20
time.sleep(1)
pb1.destroy()
Label(ws, text='File Uploaded Successfully!', foreground='green').grid(row=4, columnspan=3, pady=10)
adhar = Label(
ws,
text='Upload Government id in jpg format '
)
adhar.grid(row=0, column=0, padx=10)
adharbtn = Button(
ws,
text ='Choose File',
command = lambda:open_file()
)
adharbtn.grid(row=0, column=1)
dl = Label(
ws,
text='Upload Driving License in jpg format '
)
dl.grid(row=1, column=0, padx=10)
dlbtn = Button(
ws,
text ='Choose File ',
command = lambda:open_file()
)
dlbtn.grid(row=1, column=1)
ms = Label(
ws,
text='Upload Marksheet in jpg format '
)
ms.grid(row=2, column=0, padx=10)
msbtn = Button(
ws,
text ='Choose File',
command = lambda:open_file()
)
msbtn.grid(row=2, column=1)
upld = Button(
ws,
text='Upload Files',
command=uploadFiles
)
upld.grid(row=3, columnspan=3, pady=10)
ws.mainloop()