
1.2.1 服务执行效用
传统服务请求需要缓存在队列中并按顺序处理,该方式在限制边缘服务器的CPU 利用率的同时,还会产生排队等待时延。而将多任务并行计算则可提高 CPU利用率从而降低服务执行时延。在本章构建的计算卸载模型中,MU均等地共享资源。通过为用户分配不同的优先级,可以将此模型扩展为通用模型。服务器在某一时隙所服务的用户均等地共享该服务器的计算资源。在时隙t,服务器k所服务的用户数量为

则服务器k的CPU利用率可以由式(1-3)计算。

其中,参数ak∈(0.9,1.0)。运营商的效用定义为所有服务器的CPU利用率之和。提高CPU利用率能够使服务器向更多的MU提供服务,因此,hk(ξ)可以随共享服务器k所服务的用户数量的增加而增加。但是,随着变量nk(ξ)的持续增加,CPU利用率会收敛到某个值。考虑到边缘服务器计算和存储资源的限制,将每个服务器的最大存储容量设置为Dk。
用户 i 的服务请求的完成过程可以分为三个阶段:为上传阶段,
为处理阶段,
为回传阶段,其中,
分别表示服务请求生成并上传、上传完成开始处理、处理完成开始回传、回传完成的时隙。对于上传过程,任务数据大小di应满足以下公式:

其中,gi,k(t)表示信道增益,计算公式如下:

其中,表示MUi与服务器k在t时刻的距离。用户与服务器基于OFDMA进行通信,则信号噪声比(Signal to Noise Ratio,SNR)的计算公式如下:

其中,pi和σ2分别表示用户i的传输功率和噪声,二者均不随时间变化,在通信期间相对固定。因此,SNR在数值上与信道增益成正比,即SNR i,k(t)∝gi,k(t)。
上传时延取决于传输的数据大小、边缘服务器分配的带宽以及用户与服务器之间的距离。MUi的任务上传开销可以通过式(1-7)计算。

在时隙完成数据传输后,边缘服务器k开始处理服务请求。边缘服务器k在时隙t为用户i完成的计算任务量可以通过式(1-8)计算。

表示未来时隙中要完成的剩余任务。给定在时隙
完成的用户i的服务请求,则以下等式成立。

当MUi脱离了服务器k的无线覆盖范围时,PEC服务器且k′≠k。相应地,边缘服务器
的处理成本可以通过式(1-10)计算。

如果边缘服务器在时隙
完成了用户i的请求,则在时隙
到
内将服务结果发送回用户i。如果输出结果的数据大小或等于输入数据大小di,则式(1-11)所示的回程传输约束成立。

相应地,服务器k−回程传输的开销如下:

本地计算存在以下两种情况:在部分卸载中,需要本地计算和边缘计算协同完成整个任务;在全部卸载中,每个任务被卸载到边缘服务器处理或在本地处理。本章构建的模型主要面向时延敏感的应用程序,如手机和笔记本电脑等难以及时处理的复杂任务,这样可以充分利用泛在边缘计算资源,节省本地资源,提高用户的服务质量。此外,也可以部署无人机为原子性的紧急任务提供敏捷的计算服务,如无人机网络可以为感染了COVID-19的患者提供远程健康监测服务,医学分析任务计算过程复杂且对时延敏感。此外,医疗数据具有原子性,任务需要整体传输不可划分。因此,本章构建的模型将服务部署的重点放到边缘服务器上,忽略了本地计算。