Tag: 蓝色的

从Cloud Service中的Azure文件访问装载

我使用此博客文章中的说明成功创建并手动测试了Azure文件中的共享。 但是,如果我通过远程访问角色来创建它,则我部署的云服务无法从C#创建挂载或访问挂载(创建或列表文件)。

30Mb使用DataLakeStoreFileSystemManagementClient限制上载到Azure DataLake

我在使用时收到错误 _adlsFileSystemClient.FileSystem.Create(_adlsAccountName, destFilePath, stream, overwrite) 将文件上传到datalake。 超过30Mb的文件出现错误。 它适用于较小的文件。 错误是: 在Microsoft.Azure.Management.DataLake.Store.FileSystemOperations.d__16.MoveNext()—从抛出exception的先前位置的堆栈跟踪结束—在System.Runtime.CompilerServices.TaskAwaiter.ThrowForNonSuccess(任务任务)at at Microsoft.Azure.Management.DataLake.Store.FileSystemOperationsExtensions.d__23.MoveNext()中的System.Runtime.CompilerServices.TaskAwaiter.HandleNonSuccessAndDebuggerNotification(任务任务)—从抛出exception的上一个位置开始的堆栈跟踪结束—在系统中Microsoft.Azure.Management.DataLake.Store.FileSystemOperationsExtensions.Create的System.Runtime.CompilerServices.TaskAwaiter.HandleNonSuccessAndDebuggerNotification(任务任务)中的.Runtime.CompilerServices.TaskAwaiter.ThrowForNonSuccess(任务任务)(IFileSystemOperations操作,String accountName,String directFilePath,在AzureDataFunctions.DataLakeController.CreateFileInDataLake(String destFilePath,Stream stre)中流streamContents,Nullable 1 overwrite, Nullable 1 syncFlag) am,Boolean overwrite)在F:\ GitHub \ ZutoDW \ ADF_ProcessAllFiles \ ADF_ProcessAllFiles \ DataLakeController.cs:第122行 有没有人遇到过这个? 还是观察到类似行为? 我通过将我的文件分成30Mb片段并上传它们来解决这个问题。 然而,从长远来看这是不切实际的,因为原始文件是380Mb,并且可能相当大一些。 从长远来看,我不希望在我的数据池中有10-15个解剖文件。 我想上传为单个文件。 我可以通过门户界面将完全相同的文件上传到datalake。

如何在基于事件的设计中使用Azure Batch并终止/清除已完成的作业

使用Azure Batch,我的项目使用带有函数和队列的基于事件的设计将作业添加到池中。 作业完成后,即使所有任务都已完成,它仍处于“活动”状态。 在计时器上触发(单个使用应用服务计划)function,该计时器从队列中读取X量的消息。 function: 创建一个池(如果它不存在) 创造一份工作 将任务添加到该作业 这很好用。 但是,一旦任务完成,即使所有任务都已完成,作业状态仍保持活动状态。 我希望作业终止/清理/将状态设置为“已完成”。 而且我希望我的function是短暂的,不希望任何状态。 所以我没有使用foreach (CloudTask task in job.CompletedTasks())来等待任务的状态。 另一种方法是使用任务依赖项,这需要batchClient.Utilities.CreateTaskStateMonitor() ,因此需要一个statefull方法。 在基于事件的设计中使用Azure Batch的最佳方法是什么? 具体来说,一旦任务完成,如何终止/清理作业?