项目中接触到图像处理这部分,需求是将手机摄像头采集的原始帧进行 Rotate (旋转)、Scale(拉伸)和 format convert(格式转换),无奈对此的了解甚少于是网上查阅资料恶补了一顿,完事后将最近所学总结一下以方便之后的人别踩太多。
首先想要了解YUV为何物,请猛戳:Video Rendering with 8-Bit YUV Formats.aspx) 链接中微软已经写的很详细了,国内大部分文章都是翻译这篇文章的,如果还有疑问的同学可以参考下面这些大神的博客:
从上面的文章中应该都会对YUV有所了解和认识了。需要注意的是,在 Android SDK <= 20 Android5.0 LOLLIPOP 版本中 Google 支持的 Camera Preview Callback 的YUV常用格式有两种:
先贴一段微软的叙述:
4:2:0 Formats, 12 Bits per Pixel
Four 4:2:0 12-bpp formats are recommended, with the following FOURCC codes:
IMC2
IMC4
- YV12
- NV12
In all of these formats, the chroma channels are subsampled by a factor of two in both the horizontal and vertical dimensions.
YV12
All of the Y samples appear first in memory as an array of unsigned char values. This array is followed immediately by all of the V (Cr) samples. The stride of the V plane is half the stride of the Y plane, and the V plane contains half as many lines as the Y plane. The V plane is followed immediately by all of the U (Cb) samples, with the same stride and number of lines as the V plane (Figure 12).
NV12
All of the Y samples are found first in memory as an array of unsigned char values with an even number of lines. The Y plane is followed immediately by an array of unsigned char values that contains packed U (Cb) and V (Cr) samples, as shown in Figure 13. When the combined U-V array is addressed as an array of little-endian WORD values, the LSBs contain the U values, and the MSBs contain the V values. NV12 is the preferred 4:2:0 pixel format for DirectX VA. It is expected to be an intermediate-term requirement for DirectX VA accelerators supporting 4:2:0 video.
从上可知 YV12 和 NV12 所占内存是 12bits / Pixel,每个 Y 就是一个像素点,注意红色加粗的叙述,YUV 值在内存中是按照数组的形式存放的,而由于 YV12 和 NV21 都是属于 Planar 格式,也就是 Y 值和 UV 值是独立采样的:
In a planar format, the Y, U, and V components are stored as three separate planes.
在 planar 的格式中, Y, U, V 值是单独存储在三个分离的平面中的。
既然 Y、U、V 值都是独立的,那就意味着我们可以分别处理相应的值,比如在YV12中,排列方式如下表所示,每4个 Y 共用一对 UV 值,而 U、V 值又是按照横排排列(下面是 YV12 格式中,宽为16,高为4像素的排列)。
YV12 中 16 x 4 像素排列
行 \ 列 | 1 | 2 | 3 | 4 |
---|---|---|---|---|
Y 第一行 | Y Y | Y Y | Y Y | Y Y |
Y 第二行 | Y Y | Y Y | Y Y | Y Y |
Y 第三行 | Y Y | Y Y | Y Y | Y Y |
Y 第三行 | Y Y | Y Y | Y Y | Y Y |
V第一行 | V0 | V1 | V2 | V3 |
U第一行 | U0 | U1 | U2 | U3 |
V第二行 | V4 | V5 | V6 | V7 |
U第二行 | U4 | U5 | U6 | U7 |
了解了 YUV 值的结构我们就可以任性的对此图像做 Rotate,scale等等。这里我以480*270 (16:9)的一张原始帧图像举例,贴出部分代码示例:
CameraPreviewFrame.java:1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64/**
* 获取preview的原始帧
* 这里有个前提,因为Android camera preview默认格式为NV21的,所以需要
* 调用setPreviewFormat()方法设置为我们需要的格式
*/
public void onPreviewFrame(byte[] data, Camera camera) {// 假设这里的data为480x270原始帧
String SRC_FRAME_WIDTH = 480;
String SRC_FRAME_HEIGHT = 270;
String DES_FRAME_WIDTH = 480;
String DES_FRAME_HEIGHT = 270;
// 此处将data数组保存在了指定的路径,保存类型为jpeg格式,但是普通的图片浏
// 览器是无法打开的,需要使用RawViewer等专业的工具打开。
// 定义与原始帧大小一样的outputData,因为YUV420所占内存是12Bits/Pixel,
// 每个Y为一个像素8bit=1Byte,U=2bit=1/4(Byte),V= 2bit =1/4(Byte),
// Y值数量为480*270,则U=V=480*270*(1/4)
byte[] outputData = new byte[DES_FRAME_WIDTH * DES_FRAME_HEIGHT * 3 / 2];
// call the JNI method to rotate frame data clockwise 90 degrees
YuvUtil.DealYV12(data, outputData, SRC_FRAME_WIDTH, SRC_FRAME_HEIGHT, 90);
saveImageData(outputData);
}
}
// save image to sdcard path: Pictures/MyTestImage/
public void saveImageData(byte[] imageData) {
File imageFile = getOutputMediaFile(MEDIA_TYPE_IMAGE);
if (imageFile == null) {
return;
}
try {
FileOutputStream fos = new FileOutputStream(imageFile);
fos.write(imageData);
fos.close();
} catch (FileNotFoundException e) {
e.printStackTrace();
Log.e(TAG, "File not found: " + e.getMessage());
} catch (IOException e) {
e.printStackTrace();
Log.e(TAG, "Error accessing file: " + e.getMessage());
}
}
public static File getOutputMediaFile(int type) {
File imageFileDir = new File(Environment.getExternalStoragePublicDirectory(Environment.DIRECTORY_PICTURES), "MyYuvImage");
if (!imageFileDir.exists()) {
if (!imageFileDir.mkdirs()) {
Log.e(TAG, "can't makedir for imagefile");
return null;
}
}
// Create a media file name
String timeStamp = new SimpleDateFormat("yyyyMMdd_HHmmss").format(new Date());
File imageFile;
if (type == MEDIA_TYPE_IMAGE) {
imageFile = new File(imageFileDir.getPath() + File.separator +
"IMG_" + timeStamp + ".jpg");
} else if (type == MEDIA_TYPE_VIDEO) {
imageFile = new File(imageFileDir.getPath() + File.separator +
"VID_" + timeStamp + ".mp4");
} else {
return null;
}
return imageFile;
}
上面的代码中可以看到我调用了JNI的方法YuvUtil.RotateYV12()
YuvUtil.java
1 | public class YuvUtil { |
对应的Jni的C代码如下:
com_example_jni_YuvUtil.h1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30/* DO NOT EDIT THIS FILE - it is machine generated */
/* Header for class _Included_com_example_jni_YuvUtil */
extern "C" {
/*
* Class: com_example_jni_YuvUtil
* Method: initYV12
* Signature: (II)V
*/
JNIEXPORT void JNICALL Java_com_example_jni_YuvUtil_initYV12
(JNIEnv *, jclass, jint, jint);
/*
* Class: com_example_jni_YuvUtil
* Method: DealYV12
* Signature: ([B[BIIIII)V
*/
JNIEXPORT void JNICALL Java_com_example_jni_YuvUtil_DealYV12
(JNIEnv *, jclass, jbyteArray, jbyteArray, jint, jint, jint, jint, jint);
}
com_example_jni_YuvUtil.c1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
char *input_src_data, *output_src_data, *src_y_data,
*src_u_data, *src_v_data, *dst_y_data, *dst_v_data;
int src_data_width, src_data_height, len_src;
/*
* Class: com_example_jni_YuvUtil
*/
JNIEXPORT void JNICALL Java_com_example_jni_YuvUtil_initYV12
(JNIEnv *env, jclass jcls, jint length, jint scaleDataLength) {
len_src = length;
len_scale = scaleDataLength;
LOGD("########## len_src = %d, len_scale = %d \n", len_src, len_scale);
input_src_data = malloc(sizeof(char) * len_src);
LOGD("########## input_src_data = %d \n", input_src_data);
src_y_data = malloc(sizeof(char) * (len_src * 2 / 3));
src_u_data = malloc(sizeof(char) * (len_src / 6));
src_v_data = malloc(sizeof(char) * (len_src / 6));
dst_y_data = malloc(sizeof(char) * (len_src * 2 / 3));
dst_u_data = malloc(sizeof(char) * (len_src / 6));
dst_v_data = malloc(sizeof(char) * (len_src / 6));
}
JNIEXPORT void JNICALL Java_com_example_jni_YuvUtil_DealYV12
(JNIEnv *env, jclass jcls, jbyteArray src_data,
jbyteArray dst_data, jint width, jint height, jint rotation, jint dst_width, jint dst_height) {
src_data_width = width;
src_data_height = height;
// 将src_data的数据传给input_src_data
(*env)->GetByteArrayRegion (env, src_data, 0, len_src, (jbyte*)(input_src_data));
/*以下三个memcpy分别将Y、U、V值从src_data中提取出来,将YUV值分别scale或者rotate,则可得到对应格式的图像数据*/
// get y plane
memcpy(src_y_data, input_src_data , (len_src * 2 /3));
// get u plane
memcpy(src_u_data, input_src_data + (len_src * 2 / 3), len_src / 6);
// get v plane
memcpy(src_v_data, input_src_data + (len_src * 5 / 6 ), len_src / 6);
/*获取yuv三个值的数据可以做相应操作*/
// .........
// .........
// 例:将Y值置为0,则得到没有灰度的图像;
memset(input_src_data + src_data_width * src_data_height, 0, src_data_width * src_data_height);
// 将input_src_data的数据返回给dst_data输出
// output to the dst_data
(*env)->SetByteArrayRegion (env, dst_data, 0, len_src, (jbyte*)(input_src_data));
}
/**
* free memory
*/
JNIEXPORT void JNICALL Java_com_example_jni_YuvUtil_ReleaseYV12
(JNIEnv *env , jclass jcls) {
free(output_src_data);
free(input_src_data);
}
RawViewer
一个查看YUV原始帧文件的工具,可以根据自定义的宽高、YUV格式显示出当前YUV的图像,对分析当前视频帧的结构和数据类型还是挺有帮助的。
Demo源码
后续有时间我会将这个库做个简单的工具类封装。有问题的朋友请随时留言指错或者提问,如果觉得对你有帮助的话请顺手点个Star,谢谢大家的支持!