189 8069 5689

android推流,android推流rtmp

android rtmp推流怎么实现?

就拿使用ZEGO即构的实时音视频产品举个例子,要想实现android rtmp推流操作,可以通过调用开始推流 startPublishingStream 的 API 接口,向远端用户发送本端的音视频流。如果不需要继续推流,可调用 stopPublishingStream 停止推流(开始推流前,建议开发者在开始推流前对推流参数、本地预览视图进行设置)。

专注于为中小企业提供网站制作、成都做网站服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业卫滨免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了近1000家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。

android推流一般用什么第三方

项目地址

(1) JSON,图像等的异步下载;

(2) 网络请求的排序(scheduling)

(3) 网络请求的优先级处理

(4) 缓存

(5) 多级别取消请求

(6) 和Activity和生命周期的联动(Activity结束时同时取消所有网络请求)

有没有手机端用于rtmp推流(串流)直播的软件?apk格式

播推流端即主播端,主要通过手机摄像头采集视频数据和麦克风采集音频数据,经过一系列前处理、编码、封装,然后推流到CDN进行分发。趣拍直播SDK可以满足以下所有的功能和应用场景,帮助开发者解决各种直播难题。采集手机直播SDK通过手机摄像头和麦克风直接采集视频数据和音频数据。其中,视频采样数据一般采用RGB或YUV格式、音频采样数据一般采用PCM格式。对于采集到的原始音视频的体积是非常大的,因此需要经过压缩技术来处理,降低视频的大小来提示传输效率。在手机视频采集方面,iOS系统在硬件的兼容性方面做得比较好,系统本身提供了比较完整的视频采集的接口,使用起来也比较简单。但是,Android系统就比较麻烦了,千奇百怪的机型都有,适配起来非常难。我们在初期做了一项调研,发现Android的适配率还不到50%。2.前处理在这个环节主要处理美颜、水印、模糊等效果。特别是美颜功能几乎是直播的标配功能,没有美颜的直播主播们根本提不起兴趣。我们见过太多case是因为没有美颜功能被抛弃使用的。另外国家明确提出了,所有直播都必须打有水印并回放留存15天以上。所以,在选择直播SDK时,没有美颜和水印功能基本就可以选择放弃了。美颜实际上是通过算法去识别图像中的皮肤部分,再对皮肤区域进行色值调整。通常情况下人的肤色与周边环境色调存在较大差异,通过颜色对比,找到皮肤的基本轮廓,进一步进行肤色检查还可以确定人脸范围。找到了皮肤的区域,可以进行色值调整、添加白色图层或调整透明度等来等来达到美白效果。美颜除了美白效果还需要磨皮功能,磨皮实际上就是用模糊滤镜实现的。滤镜有很多种,如高斯滤波,双边滤波,导向滤波,到底选择什么样的模糊滤镜各家也有自己的喜好。在美颜处理方面,最著名的GPUImage提供了丰富的效果,同时可以支持IOS和Android,还支持自己写算法实现自己最理性的效果。GPUImage本事内置了120多种常见滤镜效果,添加滤镜只需要简单调用几行代码就可以了,比如大家可以试试使用GPUImageBilateralFiter的双边滤波滤镜来处理基本的磨皮效果,想要实现更理想的效果还是要通过自定义算法去实现的,各家也都有自己一套算法。3、编码为了便于手机视频的推流、拉流以及存储,通常采用视频编码压缩技术来减少视频的体积。现在比较常用的视频编码是H.264,但具有更高性能的H.265编码技术正在飞速发展,并可能很快成为主流;在音频方面,通比较常用的是用AAC编码格式进行压缩,其它如MP3、WMA也是可选方案。视频经过编码压缩大大提高了视频的存储和传输效率,当然,经过压缩后的视频在播放时必须进行解码。通俗点讲就是编码器将多张图像进行编码后产生一段段GOP(GroupofPictures),播放时解码器读取一段段GOP进行解码后读取图像并进行渲染显示。在编码方面的核心是在分辨率、码率、帧率等参数中找到最佳平衡点,达到体积最小画面最优的效果,这些参数各家也都有自己的一套核心参数。2012年8月,爱立信公司推出了首款H.265编解码器,六个月后,国际电联(ITU)就正式批准通过了HEVC/H.265标准,称之为高效视频编码(HighEfficiencyVideoCoding),相较于之前的H.264标准有了相当大的改善,做到了仅需要原来一半带宽即可播放相同质量的视频,低于1.5Mbps的网络也能传输1080p的高清视频。国内,如阿里云、金山云都在推自己的H.265编解码技术,随着直播的快速发展和对带宽的依赖,H.265编解码技术已有全面取代H.264的趋势。当然,全面推开应用还需要些时间。另外,硬件编码已经成为手机直播的首选方案,软编码处理在720p以上的视频颓势非常明显。在IOS平台上硬件编码的兼容性比较好,可以直接采用,但在Android平台上,Android的MediaCodec编码器,针对不同的芯片平台表现差异还是非常大的,要完全实现全平台兼容的4、推流要想用于推流还必须把音视频数据使用传输协议进行封装,变成流数据。常用的流传输协议有RTSP、RTMP、HLS等,使用RTMP传输的延时通常在1–3秒,对于手机直播这种实时性要求非常高的场景,RTMP也成为手机直播中最常用的流传输协议。最后通过一定的Qos算法将音视频流数据推送到网络断,通过CDN进行分发。在直播场景中,网络不稳定是非常常见的,这时就需要Qos来保证网络不稳情况下的用户观看直播的体验,通常是通过主播端和播放端设置缓存,让码率均匀。另外,针对实时变化的网络状况,动态码率和帧率也是最常用的策略。当然,在网络传输方面全部自己来做基本不现实,找提供推流服务的CDN服务商提供解决方案是最好的选择,可参考文章开头介绍的云视频服务商。据了解,阿里云是国内唯一能自研CDN缓存服务器的厂商,性能还是非常有保障的。通常,大多数直播平台都会同时接入多个视频云服务提供商,这样可以做拉流线路互备,对推流后视频集群再进行优化也可提高直播的流畅性和稳定性。

android可以同时做接流和推流么

接流,推流,第一次听说这两词,你是想问输入流inputstream 跟输出流outputstream 吧

android 直播怎么实现的

android 的直播,主要使用的是camera采集的数据推流到服务器上,在客户端播放camera采集的数据。采用SurfaceView+ SurfaceTexture来显示camera数据, SurfaceTexture在接收图像流之后,可以进行二次处理,比如(加字体水印), 处理完毕后再送给另一个SurfaceView用于显示.

先说说,android端采集摄像头数据,这个网上有很多的资料,可以百度下。这里可以在回调函数OnPreviewFrame(byte[] data,Camera cma)中获取摄像头数据data.

关键是如何把data传输到服务器,要实现这个目标,我使用ffmpeg 来解决这个为题。在android 工程创建jni文件夹,使用jni调用。native函数如下:

// 在OnPreviewFrame中调用

public native void push(byte[] data);

// 可以在OnSurfcaeChanged()中调用. 在jni中初始化输出路径.

public native int initPush(String outputurl,int width,int height);

在jni 层的代码如下:

static void ffmpeg_init() {

avcodec_register_all();

12

#if CONFIG_AVDEVICE

avdevice_register_all();

#endif

avfilter_register_all();

av_register_all();

avformat_network_init();

1234

}

static int avinit(int width, int height){

/**编码开始*/

int ret;

if(codec==NULL){

yuv_width = width;

yuv_height = height;

y_length = width * height;

uv_length = width * height / 4;

LOGI("init start\n");

codec = avcodec_find_encoder(AV_CODEC_ID_H264);

if (!codec) {

LOGI("Codec not found\n");

return -1;

}

c = avcodec_alloc_context3(codec);

if (!c) {

LOGI("Could not allocate video codec context\n");

return -1;

}

/* put sample parameters */

c-bit_rate = 400000;

/* resolution must be a multiple of two */

c-width = width;

c-height = height;

/* frames per second */

//c-time_base = (AVRational){1,5};

c-time_base.den = 25;

c-time_base.num = 1;

/* emit one intra frame every ten frames

* check frame pict_type before passing frame

* to encoder, if frame-pict_type is AV_PICTURE_TYPE_I

* then gop_size is ignored and the output of encoder

* will always be I frame irrespective to gop_size

*/

if (ofmt_ctx-oformat-flags AVFMT_GLOBALHEADER)

c-flags |= CODEC_FLAG_GLOBAL_HEADER;

c-gop_size = 10;

c-max_b_frames = 10;

c-pix_fmt = AV_PIX_FMT_YUV420P;

//av_opt_set(c-priv_data, "preset", "slow", 0);

av_opt_set(c-priv_data, "preset", "superfast", 0);

av_opt_set(c-priv_data, "tune", "zerolatency", 0);

/* open it */

if (avcodec_open2(c, codec, NULL) 0) {

LOGI("Could not open codec\n");

return -1;

}

LOGI("init end 1\n");

video_st = avformat_new_stream(ofmt_ctx, codec);

if (video_st == NULL) {

LOGI("video_st == NULL\n");

return -1;

}

video_st-time_base.num = 1;

video_st-time_base.den = 25;

video_st-codec = c;

return 0;

}

/**编码结束*/

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768

}

JNIEXPORT jint JNICALL Java_com_example_directvideo_MainActivity_initPush

(JNIEnv *env, jobject obj,jstring out ,jint width, jint height){

int ret ;

ffmpeg_init();

const char* str = //"rtmp://192.168.1.102:1935/myapp/test1";

//"/storage/emulated/0/zsy.mp4";

(*env)-GetStringUTFChars(env, out, 0);

LOGI("%s %d %d ", str,width,height);

//AVOutputFormat *ofmt = NULL;

//AVFormatContext *ofmt_ctx = NULL;

//Output

avformat_alloc_output_context2(ofmt_ctx, NULL, "flv", str); //RTMP

//avformat_alloc_output_context2(ofmt_ctx, NULL, "mpegts", output_str);//UDP

if (!ofmt_ctx) {

LOGI( "Could not create output context\n");

ret = AVERROR_UNKNOWN;

goto end;

}

ret = avinit(width, height);

ofmt = ofmt_ctx-oformat;

//Open output URL

if (!(ofmt-flags AVFMT_NOFILE)) {

ret = avio_open(ofmt_ctx-pb, str, AVIO_FLAG_WRITE);

if (ret 0) {

LOGI( "Could not open output URL '%s'", str);

goto end;

}

}

ret = avformat_write_header(ofmt_ctx, NULL);

if (ret 0) {

LOGE( "Error occurred when opening output URL\n");

goto end;

}

(*env)-ReleaseStringUTFChars(env, out, str);

if (ret 0 ret != AVERROR_EOF) {

LOGI( "Error occurred.\n");

return ret;

}

intited = 1;

return 0;

123456789101112131415161718192021222324252627282930313233343536373839404142434445

}

注意传输视频流时,必须使用h264编码器进行编码。初始化成功后,便可使用push()来推送每一帧的camera数据到服务器上。

本人在ubuntu系统中,利用ngnix + rtmp搭建了简易的流媒体服务器。

在pc机上,使用ffplay rtmp://192.168.1.102:1935/myapp/test1的命令来播放视屏.

Android 推流原理

流媒体在播放前不是完全下载整个文件,而是把开始部分内容存入内存,数据流是随时传送随时播放。

不懂再问我


网页标题:android推流,android推流rtmp
网站路径:http://cdxtjz.com/article/dssdjed.html

其他资讯