0%

获取视频

1、cv2.VideoCapture()

1
cap = cv2.VideoCapture(camera_idx)

用于获取视频。其中,camera_idx是o,表示打开笔记本的内置摄像头,参数是视频文件路径则打开视频。

2、cv2.namedWindow()

1
cv2.namedWindow(window_name)

为窗口命名。参数为窗口标题,字符串。

3、cap.read()

1
ret, frame = cap.read()

读取一帧的数据。第一个返回值是布尔类型,判断是否读取到图片,第二个返回值是读取到的图片。

阅读全文 »

颜色空间转换

目标:

  • 你将学习如何对图像进行颜色空间转换,比如从 BGR 到灰度图,或者从BGR 到 HSV 等。

  • 我没还要创建一个程序用来从一幅图像中获取某个特定颜色的物体。

  • 我们将要学习的函数有:cv2.cvtColor(),cv2.inRange() 等。

1、转换颜色空间

  在 OpenCV 中有超过 150 中进行颜色空间转换的方法。但是你以后就会、发现我们经常用到的也就两种:BGR↔Gray 和 BGR↔HSV。

我们要用到的函数是:cv2.cvtColor(input_image ,flag),其中 flag就是转换类型。
对于 BGR↔Gray 的转换,我们要使用的 flag 就是 cv2.COLOR_BGR2GRAY。
同样对于 BGR↔HSV 的转换,我们用的 flag 就是 cv2.COLOR_BGR2HSV。
你还可以通过下面的命令得到所有可用的 flag。

阅读全文 »

学习目标

  • 获取像素值并修改

  • 获取图像的属性

  • 图像的ROI

  • 图像通道的拆分及合并

    几乎所有这些操作与 Numpy 的关系都比与 OpenCV 的关系更加紧密,因此熟练 Numpy 可以帮助我们写出性能更好的代码。

    获取并修改像素值

    1、首先我们需要读入一幅图像:

    1
    2
    3
    import cv2
    import numpy as np
    img=cv2.imread('C:\\Users\\Administrator\\Pictures\\Camera Roll\\6.jpg')

    注:cv2.imread():读入图片,共两个参数,第一个参数为要读入的图片文件名,第二个参数为如何读取图片,包括cv2.IMREAD_COLOR:读入一副彩色图片;cv2.IMREAD_GRAYSCALE:以灰度模式读入图片;cv2.IMREAD_UNCHANGED:读入一幅图片,并包括其alpha通道。

    阅读全文 »

一、Django简介

Django是一个开放源代码的Web应用框架,由Python写成。采用了MTV的框架模式,即模型M,视图V和模板T。

  1. 模型(数据存储层):处理与数据相关的所有事务: 如何存取、如何验证有效性、包含哪些行为以及数据之间的关系等。
  2. 模板(表现层):处理与表现相关的决定: 如何在页面或其他类型文档中进行显示。
  3. 视图(业务逻辑层):存取模型及调取恰当模板的相关逻辑。模型与模板的桥梁。

二、MVC与MTV模型

MVC(Model View Controller):是模型(model)-视图(view)-控制器(controller)的缩写,一种软件设计典范,用一种业务逻辑、数据、界面显示分离的方法组织代码,将业务逻辑聚集到一个部件里面,在改进和个性化定制界面及用户交互的同时,不需要重新编写业务逻辑。

MTV: 有些WEB框架觉得MVC的字面意思很别扭,就给它改了一下。view不再是HTML相关,而是主业务逻辑了,相当于控制器。html被放在Templates中,称作模板,于是MVC就变成了MTV。这其实就是一个文字游戏,和MVC本质上是一样的,换了个名字和叫法而已,换汤不换药。

阅读全文 »

快速入门

Selenium 库里有个叫 WebDriver 的 API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像 BeautifulSoup 或者其他 Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫。

阅读全文 »

一、项目创建

1、打开cmd,将路径cd到将要创建项目的文件夹,执行命令scrapy startproject 项目名
2、新建项目下有一个spiders文件夹,将路径cd到spiders文件夹,执行命令scrapy genspider 文件名 web
3、如果第二步的文件名为basic,则运行项目时在spiders下执行命令scrapy crawl basic
4、在爬取的同时我们也可以把数据保存到文件中,通过如下命令即可:scrapy crawl basic -o items.json

阅读全文 »