mem: rename segment address from physical to IOVA
Renaming rte_memseg {.phys_addr} to {.iova} Keep the deprecated name in an anonymous union to avoid breaking the API. Use rte_iova_t and RTE_BAD_IOVA where appropriate in memory segment handling. Signed-off-by: Santosh Shukla <santosh.shukla@caviumnetworks.com> Reviewed-by: Anatoly Burakov <anatoly.burakov@intel.com> Signed-off-by: Thomas Monjalon <thomas@monjalon.net>
This commit is contained in:
parent
d03896dc2d
commit
7ba49d39f1
@ -56,7 +56,7 @@ rte_mem_virt2phy(const void *virtaddr)
|
||||
/* XXX not implemented. This function is only used by
|
||||
* rte_mempool_virt2phy() when hugepages are disabled. */
|
||||
(void)virtaddr;
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
}
|
||||
|
||||
int
|
||||
@ -73,7 +73,7 @@ rte_eal_hugepage_init(void)
|
||||
/* for debug purposes, hugetlbfs can be disabled */
|
||||
if (internal_config.no_hugetlbfs) {
|
||||
addr = malloc(internal_config.memory);
|
||||
mcfg->memseg[0].phys_addr = (phys_addr_t)(uintptr_t)addr;
|
||||
mcfg->memseg[0].iova = (rte_iova_t)(uintptr_t)addr;
|
||||
mcfg->memseg[0].addr = addr;
|
||||
mcfg->memseg[0].hugepage_sz = RTE_PGSIZE_4K;
|
||||
mcfg->memseg[0].len = internal_config.memory;
|
||||
@ -88,7 +88,7 @@ rte_eal_hugepage_init(void)
|
||||
hpi = &internal_config.hugepage_info[i];
|
||||
for (j = 0; j < hpi->num_pages[0]; j++) {
|
||||
struct rte_memseg *seg;
|
||||
uint64_t physaddr;
|
||||
rte_iova_t physaddr;
|
||||
int error;
|
||||
size_t sysctl_size = sizeof(physaddr);
|
||||
char physaddr_str[64];
|
||||
@ -114,7 +114,7 @@ rte_eal_hugepage_init(void)
|
||||
|
||||
seg = &mcfg->memseg[seg_idx++];
|
||||
seg->addr = addr;
|
||||
seg->phys_addr = physaddr;
|
||||
seg->iova = physaddr;
|
||||
seg->hugepage_sz = hpi->hugepage_sz;
|
||||
seg->len = hpi->hugepage_sz;
|
||||
seg->nchannel = mcfg->nchannel;
|
||||
|
@ -95,11 +95,11 @@ rte_dump_physmem_layout(FILE *f)
|
||||
if (mcfg->memseg[i].addr == NULL)
|
||||
break;
|
||||
|
||||
fprintf(f, "Segment %u: phys:0x%"PRIx64", len:%zu, "
|
||||
fprintf(f, "Segment %u: IOVA:0x%"PRIx64", len:%zu, "
|
||||
"virt:%p, socket_id:%"PRId32", "
|
||||
"hugepage_sz:%"PRIu64", nchannel:%"PRIx32", "
|
||||
"nrank:%"PRIx32"\n", i,
|
||||
mcfg->memseg[i].phys_addr,
|
||||
mcfg->memseg[i].iova,
|
||||
mcfg->memseg[i].len,
|
||||
mcfg->memseg[i].addr,
|
||||
mcfg->memseg[i].socket_id,
|
||||
|
@ -108,7 +108,11 @@ typedef uint64_t rte_iova_t;
|
||||
* Physical memory segment descriptor.
|
||||
*/
|
||||
struct rte_memseg {
|
||||
phys_addr_t phys_addr; /**< Start physical address. */
|
||||
RTE_STD_C11
|
||||
union {
|
||||
phys_addr_t phys_addr; /**< deprecated - Start physical address. */
|
||||
rte_iova_t iova; /**< Start IO address. */
|
||||
};
|
||||
RTE_STD_C11
|
||||
union {
|
||||
void *addr; /**< Start virtual address. */
|
||||
@ -139,7 +143,7 @@ int rte_mem_lock_page(const void *virt);
|
||||
* @param virt
|
||||
* The virtual address.
|
||||
* @return
|
||||
* The physical address or RTE_BAD_PHYS_ADDR on error.
|
||||
* The physical address or RTE_BAD_IOVA on error.
|
||||
*/
|
||||
phys_addr_t rte_mem_virt2phy(const void *virt);
|
||||
|
||||
|
@ -255,13 +255,13 @@ rte_malloc_virt2phy(const void *addr)
|
||||
const struct malloc_elem *elem = malloc_elem_from_data(addr);
|
||||
if (elem == NULL)
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
if (elem->ms->phys_addr == RTE_BAD_PHYS_ADDR)
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
if (elem->ms->iova == RTE_BAD_IOVA)
|
||||
return RTE_BAD_IOVA;
|
||||
|
||||
if (rte_eal_iova_mode() == RTE_IOVA_VA)
|
||||
paddr = (uintptr_t)addr;
|
||||
else
|
||||
paddr = elem->ms->phys_addr +
|
||||
paddr = elem->ms->iova +
|
||||
((uintptr_t)addr - (uintptr_t)elem->ms->addr);
|
||||
return paddr;
|
||||
}
|
||||
|
@ -133,7 +133,7 @@ rte_mem_virt2phy(const void *virtaddr)
|
||||
|
||||
/* Cannot parse /proc/self/pagemap, no need to log errors everywhere */
|
||||
if (!phys_addrs_available)
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
|
||||
/* standard page size */
|
||||
page_size = getpagesize();
|
||||
@ -142,7 +142,7 @@ rte_mem_virt2phy(const void *virtaddr)
|
||||
if (fd < 0) {
|
||||
RTE_LOG(ERR, EAL, "%s(): cannot open /proc/self/pagemap: %s\n",
|
||||
__func__, strerror(errno));
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
}
|
||||
|
||||
virt_pfn = (unsigned long)virtaddr / page_size;
|
||||
@ -151,7 +151,7 @@ rte_mem_virt2phy(const void *virtaddr)
|
||||
RTE_LOG(ERR, EAL, "%s(): seek error in /proc/self/pagemap: %s\n",
|
||||
__func__, strerror(errno));
|
||||
close(fd);
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
}
|
||||
|
||||
retval = read(fd, &page, PFN_MASK_SIZE);
|
||||
@ -159,12 +159,12 @@ rte_mem_virt2phy(const void *virtaddr)
|
||||
if (retval < 0) {
|
||||
RTE_LOG(ERR, EAL, "%s(): cannot read /proc/self/pagemap: %s\n",
|
||||
__func__, strerror(errno));
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
} else if (retval != PFN_MASK_SIZE) {
|
||||
RTE_LOG(ERR, EAL, "%s(): read %d bytes from /proc/self/pagemap "
|
||||
"but expected %d:\n",
|
||||
__func__, retval, PFN_MASK_SIZE);
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
}
|
||||
|
||||
/*
|
||||
@ -172,7 +172,7 @@ rte_mem_virt2phy(const void *virtaddr)
|
||||
* pagemap.txt in linux Documentation)
|
||||
*/
|
||||
if ((page & 0x7fffffffffffffULL) == 0)
|
||||
return RTE_BAD_PHYS_ADDR;
|
||||
return RTE_BAD_IOVA;
|
||||
|
||||
physaddr = ((page & 0x7fffffffffffffULL) * page_size)
|
||||
+ ((unsigned long)virtaddr % page_size);
|
||||
@ -1031,9 +1031,9 @@ rte_eal_hugepage_init(void)
|
||||
return -1;
|
||||
}
|
||||
if (rte_eal_iova_mode() == RTE_IOVA_VA)
|
||||
mcfg->memseg[0].phys_addr = (uintptr_t)addr;
|
||||
mcfg->memseg[0].iova = (uintptr_t)addr;
|
||||
else
|
||||
mcfg->memseg[0].phys_addr = RTE_BAD_PHYS_ADDR;
|
||||
mcfg->memseg[0].iova = RTE_BAD_IOVA;
|
||||
mcfg->memseg[0].addr = addr;
|
||||
mcfg->memseg[0].hugepage_sz = RTE_PGSIZE_4K;
|
||||
mcfg->memseg[0].len = internal_config.memory;
|
||||
@ -1282,7 +1282,7 @@ rte_eal_hugepage_init(void)
|
||||
if (j == RTE_MAX_MEMSEG)
|
||||
break;
|
||||
|
||||
mcfg->memseg[j].phys_addr = hugepage[i].physaddr;
|
||||
mcfg->memseg[j].iova = hugepage[i].physaddr;
|
||||
mcfg->memseg[j].addr = hugepage[i].final_va;
|
||||
mcfg->memseg[j].len = hugepage[i].size;
|
||||
mcfg->memseg[j].socket_id = hugepage[i].socket_id;
|
||||
@ -1293,7 +1293,7 @@ rte_eal_hugepage_init(void)
|
||||
#ifdef RTE_ARCH_PPC_64
|
||||
/* Use the phy and virt address of the last page as segment
|
||||
* address for IBM Power architecture */
|
||||
mcfg->memseg[j].phys_addr = hugepage[i].physaddr;
|
||||
mcfg->memseg[j].iova = hugepage[i].physaddr;
|
||||
mcfg->memseg[j].addr = hugepage[i].final_va;
|
||||
#endif
|
||||
mcfg->memseg[j].len += mcfg->memseg[j].hugepage_sz;
|
||||
|
@ -713,7 +713,7 @@ vfio_type1_dma_map(int vfio_container_fd)
|
||||
if (rte_eal_iova_mode() == RTE_IOVA_VA)
|
||||
dma_map.iova = dma_map.vaddr;
|
||||
else
|
||||
dma_map.iova = ms[i].phys_addr;
|
||||
dma_map.iova = ms[i].iova;
|
||||
dma_map.flags = VFIO_DMA_MAP_FLAG_READ | VFIO_DMA_MAP_FLAG_WRITE;
|
||||
|
||||
ret = ioctl(vfio_container_fd, VFIO_IOMMU_MAP_DMA, &dma_map);
|
||||
@ -772,7 +772,7 @@ vfio_spapr_dma_map(int vfio_container_fd)
|
||||
break;
|
||||
|
||||
create.window_size = RTE_MAX(create.window_size,
|
||||
ms[i].phys_addr + ms[i].len);
|
||||
ms[i].iova + ms[i].len);
|
||||
}
|
||||
|
||||
/* sPAPR requires window size to be a power of 2 */
|
||||
@ -816,7 +816,7 @@ vfio_spapr_dma_map(int vfio_container_fd)
|
||||
if (rte_eal_iova_mode() == RTE_IOVA_VA)
|
||||
dma_map.iova = dma_map.vaddr;
|
||||
else
|
||||
dma_map.iova = ms[i].phys_addr;
|
||||
dma_map.iova = ms[i].iova;
|
||||
dma_map.flags = VFIO_DMA_MAP_FLAG_READ |
|
||||
VFIO_DMA_MAP_FLAG_WRITE;
|
||||
|
||||
|
Loading…
Reference in New Issue
Block a user