常见图像格式

简介

随着人工智能的发展,深度神经网络在视觉领域“百花齐放”,为了满足不同场景的需求,我们会接触到多种图像数据格式,本小节为大家详细介绍深度学习场景中常用的几种图像数据格式:RGB、BGR、YUV、NV12 和 Gray。

RGB

RGB,一种常见的彩色图像格式。图像的每一个像素点都会存储红(Red)、绿(Green)、蓝(Blue)三个颜色通道的亮度值(0 ~ 255,UINT8)。

基于此,如果按(R,G,B)的方式记录,那么(255,0,0)、(0,255,0)、(0,0,255)可以分别表示最纯粹的 红、绿、蓝。而若 RGB 三个通道的数值均为 0,综合得到黑色;若三个通道的数值均取最大值 255,综合得到白色。

RGB可表示的色彩数量可达256x256x256≈1677 万,远超人眼的感知范围(约1000万种),因此,RGB 被广泛应用于各种显示领域,与日常生活息息相关。

然而,RGB在表示颜色时有一个特点,每个像素点必须同时存储 R、G、B 三个通道数值,即每个像素点需要3个字节的存储空间,而这个特点针对视频场景的存储与传输是非常不友好的,会占用大量的空间和带宽。

BGR

BGR图像格式与RGB类似,只是红、绿、蓝三个通道的排列顺序不同。RGB格式中,像素点的通道顺序是红、绿、蓝,而在BGR格式中,像素点的通道顺序是蓝、绿、红。

BGR格式常用于OpenCV等计算机视觉库中,是一些软件和硬件的默认图像格式,与这些软件和硬件的兼容性更好。

BGR与RGB一样,数据量较大,不适合视频场景的存储与传输。因此,我们还需要其他的图像格式来替代 RGB/BGR用于视频领域。

YUV

简介

YUV,一种彩色图像格式,其中Y表示亮度(Luminance),用于指定一个像素的亮度(可以理解为是黑白程度),U和V表示色度(Chrominance或Chroma),用于指定像素的颜色,每个数值都采用UINT8表示。

YUV格式采用亮度-色度分离的方式,也就是说只有U、V参与颜色的表示,这一点与RGB是不同的。

即使没有U、V分量,仅凭Y分量我们也能 “识别” 出一幅图像的基本内容,只不过此时呈现的是一张黑白图像。而U、V分量为这些基本内容赋予了色彩,黑白图像演变为了彩色图像。 这意味着,我们可以在保留Y分量信息的情况下,尽可能地减少U、V两个分量的采样,以实现最大限度地减少数据量,这对于视频数据的存储和传输是有极大裨益的,这也是YUV相比于RGB更适合视频处理领域的原因。

YUV常见格式

据研究表明,人眼对亮度信息比色彩信息更加敏感。YUV下采样就是根据人眼的特点,将人眼相对不敏感的色彩信息进行压缩采样,得到相对小的文件进行播放和传输。根据Y和UV的占比,常用的YUV格式有:YUV444,YUV422,YUV420三种。

用三个图来直观地表示不同采集方式下Y和UV的占比。

yuv_common_format

  • YUV444:每一个Y分量对应一对UV分量,每像素占用3字节(Y + U + V = 8 + 8 + 8 = 24bits)。
  • YUV422:每两个Y分量共用一对UV分量,每像素占用2字节(Y + 0.5U + 0.5V = 8 + 4 + 4 = 16bits)。
  • YUV420:每四个Y分量共用一对UV分量,每像素占用1.5字节(Y + 0.25U + 0.25V = 8 + 2 + 2 = 12bits)。

此时来理解YUV4xx中的4,这个4,实际上表达了最大的共享单位!也就是最多4个Y共享一对UV。

YUV420详解

在YUV420中,一个像素点对应一个Y,一个4X4的小方块对应一个U和V,每个像素占用1.5个字节。依据不同的UV分量排列方式,还可以将YUV420分为YUV420P和YUV420SP两种格式。

YUV420P是先把U存放完,再存放V,排列方式如下图:

YUV420P

YUV420SP是UV、UV交替存放的,排列方式如下图:

YUV420SP

此时,相信大家就可以理解为什么YUV420 数据在内存中的长度是 width * height * 3 / 2 了。

NV12

NV12是一种广泛应用的图像格式,特别在视频编解码领域及自动驾驶领域,NV12能够在保持图像亮度信息的同时,数据量是RGB/BGR等格式的一半,可以减少模型加载输入数据的时间,因此,嵌入式端通常选用NV12图像作为部署时的图像数据输入。

NV12图像格式属于YUV颜色空间中的YUV420SP格式,采用YUV 4:2:0的采样方式,每四个Y分量共用一组U分量和V分量,Y连续存放,U与V交叉存放。

下面为您提供将RGB图像转为NV12形式的Python示例代码介绍和NV12输入数据准备的C++参考实现,以及两种常见图像处理库将图像转为NV12形式的Python示例介绍作为补充介绍。

RGB转为NV12(Python)

import os import numpy as np def rgb_to_nv12(image_data: np.array): r = image_data[:, :, 0] g = image_data[:, :, 1] b = image_data[:, :, 2] y = (0.299 * r + 0.587 * g + 0.114 * b) u = (-0.169 * r - 0.331 * g + 0.5 * b + 128)[::2, ::2] v = (0.5 * r - 0.419 * g - 0.081 * b + 128)[::2, ::2] uv = np.zeros(shape=(u.shape[0], u.shape[1] * 2)) for i in range(0, u.shape[0]): for j in range(0, u.shape[1]): uv[i, 2 * j] = u[i, j] uv[i, 2 * j + 1] = v[i, j] y = y.astype(np.uint8) uv = uv.astype(np.uint8) # Return separately return y, uv if __name__ == '__main__': image_data = np.array(pil_image_data).astype(np.uint8) y, uv = rgb_to_nv12(image_data)

NV12输入的数据准备(C++)

#include <fstream> #include <iostream> #include <vector> #include <cstring> #include "hobot/dnn/hb_dnn.h" #include "hobot/hb_ucp.h" #include "hobot/hb_ucp_sys.h" int32_t read_image_2_tensor_as_nv12(std::string &image_file, hbDNNTensor *input_tensor) { // the struct of input shape is NHWC int input_h = input_tensor[0].properties.validShape.dimensionSize[1]; int input_w = input_tensor[0].properties.validShape.dimensionSize[2]; cv::Mat bgr_mat = cv::imread(image_file, cv::IMREAD_COLOR); if (bgr_mat.empty()) { std::cout << "image file not exist!" << std::endl; return -1; } // resize cv::Mat mat; mat.create(input_h, input_w, bgr_mat.type()); cv::resize(bgr_mat, mat, mat.size(), 0, 0); // convert to YUV420 if (input_h % 2 || input_w % 2) { std::cout << "input img height and width must aligned by 2!" << std::endl; return -1; } cv::Mat yuv_mat; cv::cvtColor(mat, yuv_mat, cv::COLOR_BGR2YUV_I420); uint8_t *yuv_data = yuv_mat.ptr<uint8_t>(); uint8_t *y_data_src = yuv_data; // copy y data uint8_t *y_data_dst = reinterpret_cast<uint8_t *>(input_tensor[0].sysMem.virAddr); for (int32_t h = 0; h < input_h; ++h) { memcpy(y_data_dst, y_data_src, input_w); y_data_src += input_w; // add padding y_data_dst += input_tensor[0].properties.stride[1]; } // copy uv data int32_t uv_height = input_tensor[1].properties.validShape.dimensionSize[1]; int32_t uv_width = input_tensor[1].properties.validShape.dimensionSize[2]; uint8_t *uv_data_dst = reinterpret_cast<uint8_t *>(input_tensor[1].sysMem.virAddr); uint8_t *u_data_src = yuv_data + input_h * input_w; uint8_t *v_data_src = u_data_src + uv_height * uv_width; for (int32_t h = 0; h < uv_height; ++h) { auto *cur_data = uv_data_dst; for (int32_t w = 0; w < uv_width; ++w) { *cur_data++ = *u_data_src++; *cur_data++ = *v_data_src++; } // add padding uv_data_dst += input_tensor[1].properties.stride[1]; } // make sure memory data is flushed to DDR before inference hbUCPMemFlush(&input_tensor[0].sysMem, HB_SYS_MEM_CACHE_CLEAN); hbUCPMemFlush(&input_tensor[1].sysMem, HB_SYS_MEM_CACHE_CLEAN); return 0; }

补充介绍

PIL将图像转为NV12

import sys import numpy as np from PIL import Image def generate_nv12(input_path, output_path='./'): img = Image.open(input_path) w,h = img.size # Convert images to YUV format yuv_img = img.convert('YCbCr') y_data, u_data, v_data = yuv_img.split() # Convert Y, U, and V channel data to byte streams y_data_bytes = y_data.tobytes() u_data_bytes = u_data.resize((u_data.width // 2, u_data.height // 2)).tobytes() v_data_bytes = v_data.resize((v_data.width // 2, v_data.height // 2)).tobytes() # Arrange the UV data in the form of UVUVUVUV... uvuvuv_data = bytearray() for u_byte, v_byte in zip(u_data_bytes, v_data_bytes): uvuvuv_data.extend([u_byte, v_byte]) # y data y_path = output_path + "_y.bin" with open(y_path, 'wb') as f: f.write(y_data_bytes) # uv data uv_path = output_path + "_uv.bin" with open(uv_path, 'wb') as f: f.write(uvuvuv_data) nv12_data = y_data_bytes + uvuvuv_data # Save as NV12 format file nv12_path = output_path + "_nv12.bin" with open(nv12_path, 'wb') as f: f.write(nv12_data) # Input for the hbir model y = np.frombuffer(y_data_bytes, dtype=np.uint8).reshape(1, h, w, 1).astype(np.uint8) uv = np.frombuffer(uvuvuv_data, dtype=np.uint8).reshape(1, h//2, w//2, 2).astype(np.uint8) return y, uv if __name__ == "__main__": if len(sys.argv) < 3: print("Usage: python resize_image.py <input_path> <output_path>") sys.exit(1) input_path = sys.argv[1] output_path = sys.argv[2] y, uv = generate_nv12(input_path, output_path)

OpenCV将图像转为NV12

import cv2 import numpy as np def image2nv12(image): image = image.astype(np.uint8) height, width = image.shape[0], image.shape[1] yuv420p = cv2.cvtColor(image, cv2.COLOR_BGR2YUV_I420).reshape((height * width * 3 // 2, )) y = yuv420p[:height * width] uv_planar = yuv420p[height * width:].reshape((2, height * width // 4)) uv = uv_planar.transpose((1, 0)).reshape((height * width // 2, )) nv12 = np.zeros_like(yuv420p) # y component nv12[:height * width] = y # uv component, UVUV alternate store nv12[height * width:] = uv # Return separately return y, uv image = cv2.imread("./image.jpg") nv12 = image2nv12(image)

Gray

Gray图像格式,也称灰度图像格式,是一种单通道图像格式。在Gray图像中,每个像素只包含一个亮度值,每个数值都采用UINT8类型表示,即0~255之间的整数。这个亮度值表示图像中每个像素的明暗程度,取值越大表示像素越亮,取值越小表示像素越暗。

Gray图像格式也是其他彩色图像格式(如RGB、YUV等)转换为单通道图像时的一种常见格式,只包含图像的亮度信息,图像数据相对较小,因此针对一些对图像色彩信息不太敏感的场景,仍然具有重要的应用价值。

图像格式之间的转换

在图像采集、显示方面,主要使用 RGB,但是在图像存储、处理、传输方面,又要选择 YUV,在一个完整的应用场景中,可能会需要用到不同的图像格式,这时就需要进行图像格式的转换。

那如何实现图像格式之间的转换呢?可以简单地理解为,有一个“标准”,基于这个标准,通过一定的数学运算即可完成不同图像格式之间的转换。下面以计算机视觉库opencv封装好的函数为例,看一下如何实现图片格式转换:

import cv2
# 读取图片,opencv读取图片默认为BGR格式 bgr_img = cv2.imread('example.jpg') cv2.imwrite('bgr_image.jpg', bgr_img) # 将BGR格式转换为RGB格式 rgb_img = cv2.cvtColor(bgr_img, cv2.COLOR_BGR2RGB) cv2.imwrite('rgb_image.jpg', rgb_img) # 将BGR格式转换为YUV444格式 yuv_img = cv2.cvtColor(bgr_img, cv2.COLOR_BGR2YUV) cv2.imwrite('yuv_image.jpg', yuv_img) # 将BGR格式转换为GRAY格式 gray_img = cv2.cvtColor(bgr_img, cv2.COLOR_BGR2GRAY) cv2.imwrite('gray_image.jpg', gray_img)

我们在OE包内中提供了常见图像格式之间的转换源码(例如:RGB2NV12、BGR2RGB等),图片处理常用transformer说明文档请参考用户手册 图片处理transformer说明 章节,对应的源码位于OE开发包的samples/ai_toolchain/horizon_model_convert_sample/01_common/python/data路径下。

不同的图像格式具有不同的性能和优缺点,实际使用时,可以根据自己的需求,个性化选择图像格式。

参考链接