Tag: video

使用Media Element Windows 8.1 Universal app显示video播放进度

我想在播放时显示video的进展,但我没有在媒体元素上获得任何事件,我将获得video的播放进度,如下载进度和缓冲进度。 有没有其他方法可以实现它? 还是其他一些工具? 上面我给了我的xaml for refrence。

使用DirectShow同时进行video录制和播放

我应该开发一个记录和播放录制video的应用程序,同时继续录制(不停止图形)。 我知道如何使用和开发使用DirectShow,但我需要我的图形的架构。 我应该使用什么filter? 我使用DirectShow和SampleGrabber使用原始video,但我应该压缩video,我不知道如何在压缩video文件中执行此操作(由于录制仍在继续,因此未关闭)。 我认为MPEG-2录制对我的应用来说是最好的,但请指导我应该使用的滤镜。 谢谢

如何从mp4,m3u8或任何其他文件获取video时长

我发现NReco.VideoInfo库是最好的选择并且更简单 1]在NuGet包管理器中找到NReco.VideoInfo库并将其导入项目中 2]之后导入命名空间“使用NReco.VideoInfo” 3]将以下代码行添加到方法中。 var ffProbe = new FFProbe(); var videoInfo = ffProbe.GetMediaInfo(blob.Uri.AbsoluteUri); return videoInfo.Duration.TotalMilliseconds; 在这里你可以看到一些其他的选择

如何从图像制作video文件

我想知道如何从图像制作video文件。 原因是我想制作一个截屏应用程序。 我将用C#编写它,并打算将屏幕捕获为 然后将位图写入文件。 不要告诉我使用一些我可以在某处下载的库或DLL。 我想知道如何用原始字节来做。

如何使用C#Desktop Application在MPEG或AVI文件中记录WebCamvideo

我正在开发一个桌面应用程序,它要求我连接到网络摄像头并以MPEG,AVI,MP4和WMV格式录制(保存)video并刻录到CD / DVD中。 该应用程序是在Win Forms中。 我只是在寻找免费或开源解决方案或控件。 我使用Aforge.Net完成了AVI的保存,但是需要更多的尺寸来保存(例如15sce 320x240video的60-100MB)。 我期待10秒的1MB。 这是代码: using System; using System.Drawing; using System.Windows.Forms; using AForge.Video; using AForge.Video.DirectShow; using AForge.Video.VFW; namespace Aforge_Web_Cam { public partial class VideoForm : Form { private FilterInfoCollection VideoCaptureDevices; private VideoCaptureDevice FinalVideo = null; private VideoCaptureDeviceForm captureDevice; private Bitmap video; private AVIWriter AVIwriter = new AVIWriter(); private SaveFileDialog saveAvi; […]

设置VLC ActiveX插件的选项

我能够在ac#.net应用程序中使用vlc activex插件 (版本1和2)来显示video。 它运行得很好,但我无法设置任何选项。 这是代码: string options = “–brightness=2”; // I also tried “:brightness” axVLCPlugin1.addTarget(“file:///”+ filePath1, options, AXVLC.VLCPlaylistMode.VLCPlayListReplaceAndGo, 0); axVLCPlugin1.play(); 这适用于版本1.版本2给出了相同的结果。 “选项”对显示的video没有任何影响。 文档说大多数命令行选项都可以工作,但我无法工作。 谢谢

如何将video转换为c#中的图像?

我必须将video转换为图像,我需要一些帮助来解决这种现象,并指导为它编写程序。 也 哪种格式的video对我更有用? 提前谢谢!

通过Xamarin将video上传到Azure存储

我正在尝试将video文件上传到我的Azure存储帐户。 我已经使用了图像,但是尝试查看上传的video会显示“不支持video格式或MIME类型”的消息。 video格式为mp4。 我使用以下代码上传: public async Task UploadVideo(Stream video, string path) { var container = GetContainer(“videos”); // Creates the container if it does not exist await CreateContainer(container); //Gets the file extension string lastPart = path.Split(‘.’).Last(); // Uploads the video to the blob storage CloudBlockBlob videoBlob = container.GetBlockBlobReference(path); videoBlob.Properties.ContentType = “video/” + lastPart; await videoBlob.UploadFromStreamAsync(video); } […]

Lync:AVModality.VideoChannel的VideoWindows在成功调用BeginStart后为空(COMException HRESULT:0x80029C4A TYPE_E_CANTLOADLIBRARY)

我们目前正在尝试将Lync通信(Lync SDK 2010)合并到我们的应用程序中,我们遇到了AVModality的VideoChannel的VideoWindows ( CaptureVideoWindow , RenderVideoWindow )的问题:即使在成功调用BeginStart之后,它们也始终为null。 这种联系是明确的。 我们可以谈。 我们自己的video显示在远程Lync客户端中。 AVModalityState已Connected 。 VideoChannelState从Connecting到Receive到Send 。 我们何时以及如何尝试访问它们并不重要:直接在BeginStart之后,在BeginStart的AsyncCallback中,响应各种状态更改或响应外部触发器(用户单击事件); 在主/ UI线程或事件/回调线程中。 两个video窗口始终为空。 在示例应用程序“%PROGRAMFILES%\ Microsoft Lync \ SDK \ Samples \ AudioVideoConversation”中,一切都按预期工作:一旦BeginStart完成,我们就可以访问非空video窗口。 在我们的小型独立原型项目中,它也有效。 但在我们的实际应用中,它没有。 我们已经对所有内容进行了双重检查,但我们确实已经完成了可能导致此问题的想法。 任何想法,任何提示? 我们应该注意什么? (链接到相应的MSDN论坛post) 更新 (2012年7月4日,欧洲中部时间15:46): 当我们看一下VideoChannel的成员时,我们发现内部在“Microsoft.Office.Uc”中发生了COMException:加载DLL时出错,HRESULT:0x80029C4A(TYPE_E_CANTLOADLIBRARY)。 所附屏幕截图中的更多细节。 我们对这个错误进行了一些研究,但没有发现任何对我们有用的东西。 是什么导致exception? 更新 (2012年7月9日,欧洲中部时间16:43): 我们做了一些进一步测试…… 我们的软件包含一个主要应用程序和许多通过MEF加载的类似插件的“应用程序”。 我们创建了一个可以进行video通话的最小测试应用程序:video窗口不起作用(如预期的那样)。 但是当我们采用相同的代码并在我们的架构之外创建一个单独的解决方案时,它确实有效。 所以,这是环境的问题,而不是代码。 起初,我们怀疑MEF可能是问题所在。 因此,我们将lync代码入侵到我们的主应用程序中 – 绕过整个应用程序架构。 还是行不通。 然后我们一点一点地切掉整个系统,直到我们最终达到了它的function。 在多次跟踪错误的曲目之后,我们终于找到了罪魁祸首… Quartz.NET […]

上传时从video中抓取缩略图。 (Azure Blob存储)

我目前有一个系统可以将video上传到Azure blob存储并且工作正常。 我想实现一个function,在上传时抓取video中的缩略图,并将其推送到Azure。 我按照建议尝试使用它: new FFMpegConverter().GetVideoThumbnail(file, outputJPEG); 问题是我不知道什么用作outputJPEG,因为我没有写入的文件,而是想将该文件写入Azure的blob存储。 任何人都可以帮我解决这个问题,或者建议另一种方法吗? 我试过了: 创建一个新的空HttpPostedFileBase作为outputJPEG文件,但这是不可能的,因为它只接受用户上传的文件。 使用文件流,但这似乎不起作用,因为它需要写入的文件的位置,而不是让我只是推送到blob存储。 (来自:blob.UploadFromStream(file.InputStream);) 在此先感谢您的帮助!