KVM: unmap pages from the iommu when slots are removed
authorAlex Williamson <alex.williamson@redhat.com>
Wed, 11 Apr 2012 15:51:49 +0000 (09:51 -0600)
committerVarun Wadekar <vwadekar@nvidia.com>
Wed, 25 Apr 2012 06:17:12 +0000 (11:17 +0530)
commitcddbeb75e5e0cfa9717252efa57187a32797af83
tree7914ece5fbc8f417e01f8ff8cf652b20699ec57c
parentc3ff153d4b120617de97e312df094daefc2ba240
KVM: unmap pages from the iommu when slots are removed

We've been adding new mappings, but not destroying old mappings.
This can lead to a page leak as pages are pinned using
get_user_pages, but only unpinned with put_page if they still
exist in the memslots list on vm shutdown.  A memslot that is
destroyed while an iommu domain is enabled for the guest will
therefore result in an elevated page reference count that is
never cleared.

Additionally, without this fix, the iommu is only programmed
with the first translation for a gpa.  This can result in
peer-to-peer errors if a mapping is destroyed and replaced by a
new mapping at the same gpa as the iommu will still be pointing
to the original, pinned memory address.

Signed-off-by: Alex Williamson <alex.williamson@redhat.com>
Signed-off-by: Marcelo Tosatti <mtosatti@redhat.com>
include/linux/kvm_host.h
virt/kvm/iommu.c
virt/kvm/kvm_main.c