Tag: pi2

如何从UWP应用程序中运行IoT Core的Raspberry Pi访问网络共享

我有一个ac#UWP应用程序,我打算在带有Windows 10 IoT核心的Raspberry PI上运行。 我遇到的问题是当我尝试连接到UNC共享来复制某些文件时。 网络只是具有本地用户凭据的家庭网络,共享位于同一网络上的另一台计算机上。 在本地运行应用程序时,我可以使用await StorageFolder.GetFolderFromPathAsync(@”\\share\folder”); 连接到共享,这工作正常,我假设这是因为我正在使用的凭据保存在本地计算机上。 在RPi上运行时,收到的错误是:“系统找不到指定的文件。” 有没有人对我如何连接到这个驱动器有任何想法,我在这个阶段的任何事情的游戏,让它工作… 我尝试过的: 共享拥有每个人的权限,无需凭据即可访问 网络共享计算机防火墙已关闭。 manifest有私有网络,企业auth和Internet(两者)设置(假设在本地工作正常)。 await StorageFolder.GetFolderFromPathAsync(@”\\share\folder”); (“该系统找不到指定的文件。”) 使用PowerShell与net use “\\share\folder” “password” /USER:”user”工作,unc可以浏览 尝试使用WNetAddConnection2如在Prevent WNetAddConnection2类中允许禁止用户访问共享文件夹 尝试使用WNetUseConnection同时提供用户提示和不使用(均WNetUseConnection ) FolderPicker或FileOpenPicker但这些似乎已被禁用IoT Core( https://ms-iot.github.io/content/en-US/win10/UnavailableApis.htm )。 提前致谢, 保罗。

自动更新Windows 10 IoT核心内的应用程序?

最近我有一个问题。 如果我编写一个UWP应用程序并安装到带有Windows IoT核心操作系统的Raspberry Pi中,我是否有可能在Raspberry Pi中为我的应用程序设置自动OTA更新,就像Windows App Store中的普通UWP应用程序一样? 编辑:仅适用于我的应用程序,不适用于升级Windows操作系统(因为它可以通过Windows Update直接升级)

UWP – 通过Socket到MediaElement将WebCam流式传输 – 破碎的图片?

背景 我编写的代码记录了来自网络摄像头的video片段,将它们写入内存流,然后通过Socket连接传输数据,然后将其重新组合成video并在媒体元素上播放。 最终目标是创建一个婴儿监视器系统,服务器/摄像头运行在Windows IOT Raspberry Pi上,以及我的女朋友和我可以在我们的手机或笔记本电脑上查看的UWP应用程序。 除了从房子的另一部分观看摄像机外,我们还可以在我们其中一个人离家时登录,并且我还会及时连接PIR运动传感器和警报系统,但首先第一。 整个系统工作得相当好,video有5秒的延迟,这是我可以接受的(现在),并且使用MediaPlaybackList,video以相当恒定的速率无缝流式传输(尽可能无缝连接)现在)video之间的过渡。 MediaPlaybackList在播放时删除项目,使内存占用保持相对恒定。 问题 当video在客户端播放时,它会频繁出现但是随机的部分是破碎的图片。 它没有任何模式,也没有我能找到的模式,而我能描述的唯一方法是将图片的一部分水平分割成两半,两半交换,图片的右侧显示在左边,反之亦然。 它就像一个闪烁,因为在破碎的位中只显示了几分之一秒,因为另一个在图片的其他地方出现了大约一秒左右。 这是一个例子: 现在,这里有几个有趣的点…… 1)在我开始使用MediaPlaybackList排队数据流之前,我使用的方法是从传入的套接字流中提取每个video,将其作为StorageFile保存到本地磁盘,然后排队这些StorageFiles,按顺序播放它们然后删除它们(我仍然有源代码控制中的这个代码的版本,我可以挖掘出来,但我不喜欢创建和销毁StorageFiles的想法,因为它看起来非常低效)。 然而,使用这种方法并没有导致我现在看到的破碎图片…这让我相信video本身很好,这可能是它被重新组合并流式传输的方式的问题媒体元素? 2)我的女朋友的猫把网络摄像头(微软Lifecam HD-3000)撞到了一边,没有我意识到,我没有意识到,直到我运行服务器并注意到图片是90度角…有趣(和这令人费解的是,传递给客户的图片没有像我上面描述的那样分手。 我能看到的唯一不同之处在于,图片的尺寸是480 x 640(来自相机坐在它的侧面),而不是标准的640 x 480.这意味着什么,我不确定…… 关于这个问题的想法 与video的大小/尺寸有关(它在它的侧面播放得很好,所以它与它有关)? 比特率有什么关系? 与在客户端重新组装字节的方式有关? 与流的编码有关? 资源 以下是我认为可能相关的几段代码,完整的解决方案源可以在GitHub上找到,这里是: Video Socket Server 。 服务器 while (true) { try { //record a 5 second video to stream Debug.WriteLine($”Recording started”); var memoryStream = new InMemoryRandomAccessStream(); […]