net: wireless: bcmdhd: Enable wlan access on resume for all sdio functions
[linux-2.6.git] / drivers / net / via-rhine.c
index 16212e6..7f23ab9 100644 (file)
        version. He may or may not be interested in bug reports on this
        code. You can find his versions at:
        http://www.scyld.com/network/via-rhine.html
-
-
-       Linux kernel version history:
-
-       LK1.1.0:
-       - Jeff Garzik: softnet 'n stuff
-
-       LK1.1.1:
-       - Justin Guyett: softnet and locking fixes
-       - Jeff Garzik: use PCI interface
-
-       LK1.1.2:
-       - Urban Widmark: minor cleanups, merges from Becker 1.03a/1.04 versions
-
-       LK1.1.3:
-       - Urban Widmark: use PCI DMA interface (with thanks to the eepro100.c
-                        code) update "Theory of Operation" with
-                        softnet/locking changes
-       - Dave Miller: PCI DMA and endian fixups
-       - Jeff Garzik: MOD_xxx race fixes, updated PCI resource allocation
-
-       LK1.1.4:
-       - Urban Widmark: fix gcc 2.95.2 problem and
-                        remove writel's to fixed address 0x7c
-
-       LK1.1.5:
-       - Urban Widmark: mdio locking, bounce buffer changes
-                        merges from Beckers 1.05 version
-                        added netif_running_on/off support
-
-       LK1.1.6:
-       - Urban Widmark: merges from Beckers 1.08b version (VT6102 + mdio)
-                        set netif_running_on/off on startup, del_timer_sync
-
-       LK1.1.7:
-       - Manfred Spraul: added reset into tx_timeout
-
-       LK1.1.9:
-       - Urban Widmark: merges from Beckers 1.10 version
-                        (media selection + eeprom reload)
-       - David Vrabel:  merges from D-Link "1.11" version
-                        (disable WOL and PME on startup)
-
-       LK1.1.10:
-       - Manfred Spraul: use "singlecopy" for unaligned buffers
-                         don't allocate bounce buffers for !ReqTxAlign cards
-
-       LK1.1.11:
-       - David Woodhouse: Set dev->base_addr before the first time we call
-                          wait_for_reset(). It's a lot happier that way.
-                          Free np->tx_bufs only if we actually allocated it.
-
-       LK1.1.12:
-       - Martin Eriksson: Allow Memory-Mapped IO to be enabled.
-
-       LK1.1.13 (jgarzik):
-       - Add ethtool support
-       - Replace some MII-related magic numbers with constants
-
-       LK1.1.14 (Ivan G.):
-       - fixes comments for Rhine-III
-       - removes W_MAX_TIMEOUT (unused)
-       - adds HasDavicomPhy for Rhine-I (basis: linuxfet driver; my card
-         is R-I and has Davicom chip, flag is referenced in kernel driver)
-       - sends chip_id as a parameter to wait_for_reset since np is not
-         initialized on first call
-       - changes mmio "else if (chip_id==VT6102)" to "else" so it will work
-         for Rhine-III's (documentation says same bit is correct)
-       - transmit frame queue message is off by one - fixed
-       - adds IntrNormalSummary to "Something Wicked" exclusion list
-         so normal interrupts will not trigger the message (src: Donald Becker)
-       (Roger Luethi)
-       - show confused chip where to continue after Tx error
-       - location of collision counter is chip specific
-       - allow selecting backoff algorithm (module parameter)
-
-       LK1.1.15 (jgarzik):
-       - Use new MII lib helper generic_mii_ioctl
-
-       LK1.1.16 (Roger Luethi)
-       - Etherleak fix
-       - Handle Tx buffer underrun
-       - Fix bugs in full duplex handling
-       - New reset code uses "force reset" cmd on Rhine-II
-       - Various clean ups
-
-       LK1.1.17 (Roger Luethi)
-       - Fix race in via_rhine_start_tx()
-       - On errors, wait for Tx engine to turn off before scavenging
-       - Handle Tx descriptor write-back race on Rhine-II
-       - Force flushing for PCI posted writes
-       - More reset code changes
-
-       LK1.1.18 (Roger Luethi)
-       - No filtering multicast in promisc mode (Edward Peng)
-       - Fix for Rhine-I Tx timeouts
-
-       LK1.1.19 (Roger Luethi)
-       - Increase Tx threshold for unspecified errors
-
-       LK1.2.0-2.6 (Roger Luethi)
-       - Massive clean-up
-       - Rewrite PHY, media handling (remove options, full_duplex, backoff)
-       - Fix Tx engine race for good
+       [link no longer provides useful info -jgarzik]
 
 */
 
+#define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
+
 #define DRV_NAME       "via-rhine"
-#define DRV_VERSION    "1.2.0-2.6"
-#define DRV_RELDATE    "June-10-2004"
+#define DRV_VERSION    "1.5.0"
+#define DRV_RELDATE    "2010-10-09"
 
 
 /* A few user-configurable values.
    These may be modified when a driver module is loaded. */
 
+#define DEBUG
 static int debug = 1;  /* 1 normal messages, 0 quiet .. 7 verbose. */
 static int max_interrupt_work = 20;
 
 /* Set the copy breakpoint for the copy-only-tiny-frames scheme.
    Setting to > 1518 effectively disables this feature. */
+#if defined(__alpha__) || defined(__arm__) || defined(__hppa__) || \
+       defined(CONFIG_SPARC) || defined(__ia64__) ||              \
+       defined(__sh__) || defined(__mips__)
+static int rx_copybreak = 1518;
+#else
 static int rx_copybreak;
+#endif
+
+/* Work-around for broken BIOSes: they are unable to get the chip back out of
+   power state D3 so PXE booting fails. bootparam(7): via-rhine.avoid_D3=1 */
+static int avoid_D3;
 
 /*
  * In case you are looking for 'options[]' or 'full_duplex[]', they
@@ -166,8 +76,7 @@ static const int multicast_filter_limit = 32;
    There are no ill effects from too-large receive rings. */
 #define TX_RING_SIZE   16
 #define TX_QUEUE_LEN   10      /* Limit ring entries actually used. */
-#define RX_RING_SIZE   16
-
+#define RX_RING_SIZE   64
 
 /* Operational parameters that usually are not changed. */
 
@@ -183,7 +92,6 @@ static const int multicast_filter_limit = 32;
 #include <linux/timer.h>
 #include <linux/errno.h>
 #include <linux/ioport.h>
-#include <linux/slab.h>
 #include <linux/interrupt.h>
 #include <linux/pci.h>
 #include <linux/dma-mapping.h>
@@ -195,15 +103,18 @@ static const int multicast_filter_limit = 32;
 #include <linux/mii.h>
 #include <linux/ethtool.h>
 #include <linux/crc32.h>
+#include <linux/if_vlan.h>
 #include <linux/bitops.h>
+#include <linux/workqueue.h>
 #include <asm/processor.h>     /* Processor type for cache alignment. */
 #include <asm/io.h>
 #include <asm/irq.h>
 #include <asm/uaccess.h>
+#include <linux/dmi.h>
 
 /* These identify the driver base version and may not be removed. */
-static char version[] __devinitdata =
-KERN_INFO DRV_NAME ".c:v1.10-LK" DRV_VERSION " " DRV_RELDATE " Written by Donald Becker\n";
+static const char version[] __devinitconst =
+       "v1.10-LK" DRV_VERSION " " DRV_RELDATE " Written by Donald Becker";
 
 /* This driver was written to use PCI memory space. Some early versions
    of the Rhine may only work correctly with I/O space accesses. */
@@ -219,9 +130,14 @@ MODULE_LICENSE("GPL");
 module_param(max_interrupt_work, int, 0);
 module_param(debug, int, 0);
 module_param(rx_copybreak, int, 0);
+module_param(avoid_D3, bool, 0);
 MODULE_PARM_DESC(max_interrupt_work, "VIA Rhine maximum events handled per interrupt");
 MODULE_PARM_DESC(debug, "VIA Rhine debug level (0-7)");
 MODULE_PARM_DESC(rx_copybreak, "VIA Rhine copy breakpoint for copy-only-tiny-frames");
+MODULE_PARM_DESC(avoid_D3, "Avoid power state D3 (work-around for broken BIOSes)");
+
+#define MCAM_SIZE      32
+#define VCAM_SIZE      32
 
 /*
                Theory of Operation
@@ -282,12 +198,13 @@ IIId. Synchronization
 
 The driver runs as two independent, single-threaded flows of control. One
 is the send-packet routine, which enforces single-threaded use by the
-dev->priv->lock spinlock. The other thread is the interrupt handler, which
-is single threaded by the hardware and interrupt handling software.
+netdev_priv(dev)->lock spinlock. The other thread is the interrupt handler,
+which is single threaded by the hardware and interrupt handling software.
 
 The send packet thread has partial control over the Tx ring. It locks the
-dev->priv->lock whenever it's queuing a Tx packet. If the next slot in the ring
-is not available it stops the transmit queue by calling netif_stop_queue.
+netdev_priv(dev)->lock whenever it's queuing a Tx packet. If the next slot in
+the ring is not available it stops the transmit queue by
+calling netif_stop_queue.
 
 The interrupt handler has exclusive control over the Rx ring and records stats
 from the Tx ring. After reaping the stats, it marks the Tx queue entry as
@@ -355,12 +272,11 @@ enum rhine_quirks {
 /* Beware of PCI posted writes */
 #define IOSYNC do { ioread8(ioaddr + StationAddr); } while (0)
 
-static struct pci_device_id rhine_pci_tbl[] =
-{
-       {0x1106, 0x3043, PCI_ANY_ID, PCI_ANY_ID, 0, 0, }, /* VT86C100A */
-       {0x1106, 0x3065, PCI_ANY_ID, PCI_ANY_ID, 0, 0, }, /* VT6102 */
-       {0x1106, 0x3106, PCI_ANY_ID, PCI_ANY_ID, 0, 0, }, /* 6105{,L,LOM} */
-       {0x1106, 0x3053, PCI_ANY_ID, PCI_ANY_ID, 0, 0, }, /* VT6105M */
+static DEFINE_PCI_DEVICE_TABLE(rhine_pci_tbl) = {
+       { 0x1106, 0x3043, PCI_ANY_ID, PCI_ANY_ID, },    /* VT86C100A */
+       { 0x1106, 0x3065, PCI_ANY_ID, PCI_ANY_ID, },    /* VT6102 */
+       { 0x1106, 0x3106, PCI_ANY_ID, PCI_ANY_ID, },    /* 6105{,L,LOM} */
+       { 0x1106, 0x3053, PCI_ANY_ID, PCI_ANY_ID, },    /* VT6105M */
        { }     /* terminate list */
 };
 MODULE_DEVICE_TABLE(pci, rhine_pci_tbl);
@@ -369,15 +285,16 @@ MODULE_DEVICE_TABLE(pci, rhine_pci_tbl);
 /* Offsets to the device registers. */
 enum register_offsets {
        StationAddr=0x00, RxConfig=0x06, TxConfig=0x07, ChipCmd=0x08,
-       ChipCmd1=0x09,
+       ChipCmd1=0x09, TQWake=0x0A,
        IntrStatus=0x0C, IntrEnable=0x0E,
        MulticastFilter0=0x10, MulticastFilter1=0x14,
        RxRingPtr=0x18, TxRingPtr=0x1C, GFIFOTest=0x54,
-       MIIPhyAddr=0x6C, MIIStatus=0x6D, PCIBusConfig=0x6E,
+       MIIPhyAddr=0x6C, MIIStatus=0x6D, PCIBusConfig=0x6E, PCIBusConfig1=0x6F,
        MIICmd=0x70, MIIRegAddr=0x71, MIIData=0x72, MACRegEEcsr=0x74,
        ConfigA=0x78, ConfigB=0x79, ConfigC=0x7A, ConfigD=0x7B,
        RxMissed=0x7C, RxCRCErrs=0x7E, MiscCmd=0x81,
        StickyHW=0x83, IntrStatus2=0x84,
+       CamMask=0x88, CamCon=0x92, CamAddr=0x93,
        WOLcrSet=0xA0, PwcfgSet=0xA1, WOLcgSet=0xA3, WOLcrClr=0xA4,
        WOLcrClr1=0xA6, WOLcgClr=0xA7,
        PwrcsrSet=0xA8, PwrcsrSet1=0xA9, PwrcsrClr=0xAC, PwrcsrClr1=0xAD,
@@ -389,6 +306,40 @@ enum backoff_bits {
        BackCaptureEffect=0x04, BackRandom=0x08
 };
 
+/* Bits in the TxConfig (TCR) register */
+enum tcr_bits {
+       TCR_PQEN=0x01,
+       TCR_LB0=0x02,           /* loopback[0] */
+       TCR_LB1=0x04,           /* loopback[1] */
+       TCR_OFSET=0x08,
+       TCR_RTGOPT=0x10,
+       TCR_RTFT0=0x20,
+       TCR_RTFT1=0x40,
+       TCR_RTSF=0x80,
+};
+
+/* Bits in the CamCon (CAMC) register */
+enum camcon_bits {
+       CAMC_CAMEN=0x01,
+       CAMC_VCAMSL=0x02,
+       CAMC_CAMWR=0x04,
+       CAMC_CAMRD=0x08,
+};
+
+/* Bits in the PCIBusConfig1 (BCR1) register */
+enum bcr1_bits {
+       BCR1_POT0=0x01,
+       BCR1_POT1=0x02,
+       BCR1_POT2=0x04,
+       BCR1_CTFT0=0x08,
+       BCR1_CTFT1=0x10,
+       BCR1_CTSF=0x20,
+       BCR1_TXQNOBK=0x40,      /* for VT6105 */
+       BCR1_VIDFR=0x80,        /* for VT6105 */
+       BCR1_MED0=0x40,         /* for VT6102 */
+       BCR1_MED1=0x80,         /* for VT6102 */
+};
+
 #ifdef USE_MMIO
 /* Registers we check that mmio and reg are the same. */
 static const int mmio_verify_registers[] = {
@@ -422,16 +373,16 @@ enum wol_bits {
 
 /* The Rx and Tx buffer descriptors. */
 struct rx_desc {
-       s32 rx_status;
-       u32 desc_length; /* Chain flag, Buffer/frame length */
-       u32 addr;
-       u32 next_desc;
+       __le32 rx_status;
+       __le32 desc_length; /* Chain flag, Buffer/frame length */
+       __le32 addr;
+       __le32 next_desc;
 };
 struct tx_desc {
-       s32 tx_status;
-       u32 desc_length; /* Chain flag, Tx Config, Frame length */
-       u32 addr;
-       u32 next_desc;
+       __le32 tx_status;
+       __le32 desc_length; /* Chain flag, Tx Config, Frame length */
+       __le32 addr;
+       __le32 next_desc;
 };
 
 /* Initial value for tx_desc.desc_length, Buffer size goes to bits 0-10 */
@@ -446,6 +397,11 @@ enum desc_status_bits {
        DescOwn=0x80000000
 };
 
+/* Bits in *_desc.*_length */
+enum desc_length_bits {
+       DescTag=0x00010000
+};
+
 /* Bits in ChipCmd. */
 enum chip_cmd_bits {
        CmdInit=0x01, CmdStart=0x02, CmdStop=0x04, CmdRxOn=0x08,
@@ -455,6 +411,9 @@ enum chip_cmd_bits {
 };
 
 struct rhine_private {
+       /* Bit mask for configured VLAN ids */
+       unsigned long active_vlans[BITS_TO_LONGS(VLAN_N_VID)];
+
        /* Descriptor rings */
        struct rx_desc *rx_ring;
        struct tx_desc *tx_ring;
@@ -469,15 +428,17 @@ struct rhine_private {
        struct sk_buff *tx_skbuff[TX_RING_SIZE];
        dma_addr_t tx_skbuff_dma[TX_RING_SIZE];
 
-       /* Tx bounce buffers */
+       /* Tx bounce buffers (Rhine-I only) */
        unsigned char *tx_buf[TX_RING_SIZE];
        unsigned char *tx_bufs;
        dma_addr_t tx_bufs_dma;
 
        struct pci_dev *pdev;
        long pioaddr;
-       struct net_device_stats stats;
+       struct net_device *dev;
+       struct napi_struct napi;
        spinlock_t lock;
+       struct work_struct reset_task;
 
        /* Frequently used values: keep some adjacent for cache effect. */
        u32 quirks;
@@ -493,30 +454,58 @@ struct rhine_private {
        void __iomem *base;
 };
 
+#define BYTE_REG_BITS_ON(x, p)      do { iowrite8((ioread8((p))|(x)), (p)); } while (0)
+#define WORD_REG_BITS_ON(x, p)      do { iowrite16((ioread16((p))|(x)), (p)); } while (0)
+#define DWORD_REG_BITS_ON(x, p)     do { iowrite32((ioread32((p))|(x)), (p)); } while (0)
+
+#define BYTE_REG_BITS_IS_ON(x, p)   (ioread8((p)) & (x))
+#define WORD_REG_BITS_IS_ON(x, p)   (ioread16((p)) & (x))
+#define DWORD_REG_BITS_IS_ON(x, p)  (ioread32((p)) & (x))
+
+#define BYTE_REG_BITS_OFF(x, p)     do { iowrite8(ioread8((p)) & (~(x)), (p)); } while (0)
+#define WORD_REG_BITS_OFF(x, p)     do { iowrite16(ioread16((p)) & (~(x)), (p)); } while (0)
+#define DWORD_REG_BITS_OFF(x, p)    do { iowrite32(ioread32((p)) & (~(x)), (p)); } while (0)
+
+#define BYTE_REG_BITS_SET(x, m, p)   do { iowrite8((ioread8((p)) & (~(m)))|(x), (p)); } while (0)
+#define WORD_REG_BITS_SET(x, m, p)   do { iowrite16((ioread16((p)) & (~(m)))|(x), (p)); } while (0)
+#define DWORD_REG_BITS_SET(x, m, p)  do { iowrite32((ioread32((p)) & (~(m)))|(x), (p)); } while (0)
+
+
 static int  mdio_read(struct net_device *dev, int phy_id, int location);
 static void mdio_write(struct net_device *dev, int phy_id, int location, int value);
 static int  rhine_open(struct net_device *dev);
+static void rhine_reset_task(struct work_struct *work);
 static void rhine_tx_timeout(struct net_device *dev);
-static int  rhine_start_tx(struct sk_buff *skb, struct net_device *dev);
-static irqreturn_t rhine_interrupt(int irq, void *dev_instance, struct pt_regs *regs);
+static netdev_tx_t rhine_start_tx(struct sk_buff *skb,
+                                 struct net_device *dev);
+static irqreturn_t rhine_interrupt(int irq, void *dev_instance);
 static void rhine_tx(struct net_device *dev);
-static void rhine_rx(struct net_device *dev);
+static int rhine_rx(struct net_device *dev, int limit);
 static void rhine_error(struct net_device *dev, int intr_status);
 static void rhine_set_rx_mode(struct net_device *dev);
 static struct net_device_stats *rhine_get_stats(struct net_device *dev);
 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd);
-static struct ethtool_ops netdev_ethtool_ops;
+static const struct ethtool_ops netdev_ethtool_ops;
 static int  rhine_close(struct net_device *dev);
 static void rhine_shutdown (struct pci_dev *pdev);
-
-#define RHINE_WAIT_FOR(condition) do {                                 \
-       int i=1024;                                                     \
-       while (!(condition) && --i)                                     \
-               ;                                                       \
-       if (debug > 1 && i < 512)                                       \
-               printk(KERN_INFO "%s: %4d cycles used @ %s:%d\n",       \
-                               DRV_NAME, 1024-i, __func__, __LINE__);  \
-} while(0)
+static void rhine_vlan_rx_add_vid(struct net_device *dev, unsigned short vid);
+static void rhine_vlan_rx_kill_vid(struct net_device *dev, unsigned short vid);
+static void rhine_set_cam(void __iomem *ioaddr, int idx, u8 *addr);
+static void rhine_set_vlan_cam(void __iomem *ioaddr, int idx, u8 *addr);
+static void rhine_set_cam_mask(void __iomem *ioaddr, u32 mask);
+static void rhine_set_vlan_cam_mask(void __iomem *ioaddr, u32 mask);
+static void rhine_init_cam_filter(struct net_device *dev);
+static void rhine_update_vcam(struct net_device *dev);
+
+#define RHINE_WAIT_FOR(condition)                              \
+do {                                                           \
+       int i = 1024;                                           \
+       while (!(condition) && --i)                             \
+               ;                                               \
+       if (debug > 1 && i < 512)                               \
+               pr_info("%4d cycles used @ %s:%d\n",            \
+                       1024 - i, __func__, __LINE__);          \
+} while (0)
 
 static inline u32 get_intr_status(struct net_device *dev)
 {
@@ -585,8 +574,8 @@ static void rhine_power_init(struct net_device *dev)
                        default:
                                reason = "Unknown";
                        }
-                       printk(KERN_INFO "%s: Woke system up. Reason: %s.\n",
-                              DRV_NAME, reason);
+                       netdev_info(dev, "Woke system up. Reason: %s\n",
+                                   reason);
                }
        }
 }
@@ -600,8 +589,7 @@ static void rhine_chip_reset(struct net_device *dev)
        IOSYNC;
 
        if (ioread8(ioaddr + ChipCmd1) & Cmd1Reset) {
-               printk(KERN_INFO "%s: Reset not complete yet. "
-                       "Trying harder.\n", DRV_NAME);
+               netdev_info(dev, "Reset not complete yet. Trying harder.\n");
 
                /* Force reset */
                if (rp->quirks & rqForceReset)
@@ -612,9 +600,9 @@ static void rhine_chip_reset(struct net_device *dev)
        }
 
        if (debug > 1)
-               printk(KERN_INFO "%s: Reset %s.\n", dev->name,
-                       (ioread8(ioaddr + ChipCmd1) & Cmd1Reset) ?
-                       "failed" : "succeeded");
+               netdev_info(dev, "Reset %s\n",
+                           (ioread8(ioaddr + ChipCmd1) & Cmd1Reset) ?
+                           "failed" : "succeeded");
 }
 
 #ifdef USE_MMIO
@@ -663,12 +651,33 @@ static void __devinit rhine_reload_eeprom(long pioaddr, struct net_device *dev)
 static void rhine_poll(struct net_device *dev)
 {
        disable_irq(dev->irq);
-       rhine_interrupt(dev->irq, (void *)dev, NULL);
+       rhine_interrupt(dev->irq, (void *)dev);
        enable_irq(dev->irq);
 }
 #endif
 
-static void rhine_hw_init(struct net_device *dev, long pioaddr)
+static int rhine_napipoll(struct napi_struct *napi, int budget)
+{
+       struct rhine_private *rp = container_of(napi, struct rhine_private, napi);
+       struct net_device *dev = rp->dev;
+       void __iomem *ioaddr = rp->base;
+       int work_done;
+
+       work_done = rhine_rx(dev, budget);
+
+       if (work_done < budget) {
+               napi_complete(napi);
+
+               iowrite16(IntrRxDone | IntrRxErr | IntrRxEmpty| IntrRxOverflow |
+                         IntrRxDropped | IntrRxNoBuf | IntrTxAborted |
+                         IntrTxDone | IntrTxError | IntrTxUnderrun |
+                         IntrPCIErr | IntrStatsMax | IntrLinkChange,
+                         ioaddr + IntrEnable);
+       }
+       return work_done;
+}
+
+static void __devinit rhine_hw_init(struct net_device *dev, long pioaddr)
 {
        struct rhine_private *rp = netdev_priv(dev);
 
@@ -683,13 +692,30 @@ static void rhine_hw_init(struct net_device *dev, long pioaddr)
        rhine_reload_eeprom(pioaddr, dev);
 }
 
+static const struct net_device_ops rhine_netdev_ops = {
+       .ndo_open                = rhine_open,
+       .ndo_stop                = rhine_close,
+       .ndo_start_xmit          = rhine_start_tx,
+       .ndo_get_stats           = rhine_get_stats,
+       .ndo_set_multicast_list  = rhine_set_rx_mode,
+       .ndo_change_mtu          = eth_change_mtu,
+       .ndo_validate_addr       = eth_validate_addr,
+       .ndo_set_mac_address     = eth_mac_addr,
+       .ndo_do_ioctl            = netdev_ioctl,
+       .ndo_tx_timeout          = rhine_tx_timeout,
+       .ndo_vlan_rx_add_vid     = rhine_vlan_rx_add_vid,
+       .ndo_vlan_rx_kill_vid    = rhine_vlan_rx_kill_vid,
+#ifdef CONFIG_NET_POLL_CONTROLLER
+       .ndo_poll_controller     = rhine_poll,
+#endif
+};
+
 static int __devinit rhine_init_one(struct pci_dev *pdev,
                                    const struct pci_device_id *ent)
 {
        struct net_device *dev;
        struct rhine_private *rp;
        int i, rc;
-       u8 pci_rev;
        u32 quirks;
        long pioaddr;
        long memaddr;
@@ -704,32 +730,28 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
 
 /* when built into the kernel, we only print version if device is found */
 #ifndef MODULE
-       static int printed_version;
-       if (!printed_version++)
-               printk(version);
+       pr_info_once("%s\n", version);
 #endif
 
-       pci_read_config_byte(pdev, PCI_REVISION_ID, &pci_rev);
-
        io_size = 256;
        phy_id = 0;
        quirks = 0;
        name = "Rhine";
-       if (pci_rev < VTunknown0) {
+       if (pdev->revision < VTunknown0) {
                quirks = rqRhineI;
                io_size = 128;
        }
-       else if (pci_rev >= VT6102) {
+       else if (pdev->revision >= VT6102) {
                quirks = rqWOL | rqForceReset;
-               if (pci_rev < VT6105) {
+               if (pdev->revision < VT6105) {
                        name = "Rhine II";
                        quirks |= rqStatusWBRace;       /* Rhine-II exclusive */
                }
                else {
                        phy_id = 1;     /* Integrated PHY, phy_id fixed to 1 */
-                       if (pci_rev >= VT6105_B0)
+                       if (pdev->revision >= VT6105_B0)
                                quirks |= rq6patterns;
-                       if (pci_rev < VT6105M)
+                       if (pdev->revision < VT6105M)
                                name = "Rhine III";
                        else
                                name = "Rhine III (Management Adapter)";
@@ -741,10 +763,10 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
                goto err_out;
 
        /* this should always be supported */
-       rc = pci_set_dma_mask(pdev, DMA_32BIT_MASK);
+       rc = pci_set_dma_mask(pdev, DMA_BIT_MASK(32));
        if (rc) {
-               printk(KERN_ERR "32-bit PCI DMA addresses not supported by "
-                      "the card!?\n");
+               dev_err(&pdev->dev,
+                       "32-bit PCI DMA addresses not supported by the card!?\n");
                goto err_out;
        }
 
@@ -752,7 +774,7 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
        if ((pci_resource_len(pdev, 0) < io_size) ||
            (pci_resource_len(pdev, 1) < io_size)) {
                rc = -EIO;
-               printk(KERN_ERR "Insufficient PCI resources, aborting\n");
+               dev_err(&pdev->dev, "Insufficient PCI resources, aborting\n");
                goto err_out;
        }
 
@@ -764,13 +786,13 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
        dev = alloc_etherdev(sizeof(struct rhine_private));
        if (!dev) {
                rc = -ENOMEM;
-               printk(KERN_ERR "alloc_etherdev failed\n");
+               dev_err(&pdev->dev, "alloc_etherdev failed\n");
                goto err_out;
        }
-       SET_MODULE_OWNER(dev);
        SET_NETDEV_DEV(dev, &pdev->dev);
 
        rp = netdev_priv(dev);
+       rp->dev = dev;
        rp->quirks = quirks;
        rp->pioaddr = pioaddr;
        rp->pdev = pdev;
@@ -782,8 +804,9 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
        ioaddr = pci_iomap(pdev, bar, io_size);
        if (!ioaddr) {
                rc = -EIO;
-               printk(KERN_ERR "ioremap failed for device %s, region 0x%X "
-                      "@ 0x%lX\n", pci_name(pdev), io_size, memaddr);
+               dev_err(&pdev->dev,
+                       "ioremap failed for device %s, region 0x%X @ 0x%lX\n",
+                       pci_name(pdev), io_size, memaddr);
                goto err_out_free_res;
        }
 
@@ -798,8 +821,9 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
                unsigned char b = readb(ioaddr+reg);
                if (a != b) {
                        rc = -EIO;
-                       printk(KERN_ERR "MMIO do not match PIO [%02x] "
-                              "(%02x != %02x)\n", reg, a, b);
+                       dev_err(&pdev->dev,
+                               "MMIO do not match PIO [%02x] (%02x != %02x)\n",
+                               reg, a, b);
                        goto err_out_unmap;
                }
        }
@@ -816,10 +840,13 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
                dev->dev_addr[i] = ioread8(ioaddr + StationAddr + i);
 
        if (!is_valid_ether_addr(dev->dev_addr)) {
-               rc = -EIO;
-               printk(KERN_ERR "Invalid MAC address\n");
-               goto err_out_unmap;
+               /* Report it and use a random ethernet address instead */
+               netdev_err(dev, "Invalid MAC address: %pM\n", dev->dev_addr);
+               random_ether_addr(dev->dev_addr);
+               netdev_info(dev, "Using random MAC address: %pM\n",
+                           dev->dev_addr);
        }
+       memcpy(dev->perm_addr, dev->dev_addr, dev->addr_len);
 
        /* For Rhine-I/II, phy_id is loaded from EEPROM */
        if (!phy_id)
@@ -828,6 +855,8 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
        dev->irq = pdev->irq;
 
        spin_lock_init(&rp->lock);
+       INIT_WORK(&rp->reset_task, rhine_reset_task);
+
        rp->mii_if.dev = dev;
        rp->mii_if.mdio_read = mdio_read;
        rp->mii_if.mdio_write = mdio_write;
@@ -835,38 +864,32 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
        rp->mii_if.reg_num_mask = 0x1f;
 
        /* The chip-specific entries in the device structure. */
-       dev->open = rhine_open;
-       dev->hard_start_xmit = rhine_start_tx;
-       dev->stop = rhine_close;
-       dev->get_stats = rhine_get_stats;
-       dev->set_multicast_list = rhine_set_rx_mode;
-       dev->do_ioctl = netdev_ioctl;
-       dev->ethtool_ops = &netdev_ethtool_ops;
-       dev->tx_timeout = rhine_tx_timeout;
+       dev->netdev_ops = &rhine_netdev_ops;
+       dev->ethtool_ops = &netdev_ethtool_ops,
        dev->watchdog_timeo = TX_TIMEOUT;
-#ifdef CONFIG_NET_POLL_CONTROLLER
-       dev->poll_controller = rhine_poll;
-#endif
+
+       netif_napi_add(dev, &rp->napi, rhine_napipoll, 64);
+
        if (rp->quirks & rqRhineI)
                dev->features |= NETIF_F_SG|NETIF_F_HW_CSUM;
 
+       if (pdev->revision >= VT6105M)
+               dev->features |= NETIF_F_HW_VLAN_TX | NETIF_F_HW_VLAN_RX |
+               NETIF_F_HW_VLAN_FILTER;
+
        /* dev->name not defined before register_netdev()! */
        rc = register_netdev(dev);
        if (rc)
                goto err_out_unmap;
 
-       printk(KERN_INFO "%s: VIA %s at 0x%lx, ",
-              dev->name, name,
+       netdev_info(dev, "VIA %s at 0x%lx, %pM, IRQ %d\n",
+                   name,
 #ifdef USE_MMIO
-               memaddr
+                   memaddr,
 #else
-               (long)ioaddr
+                   (long)ioaddr,
 #endif
-                );
-
-       for (i = 0; i < 5; i++)
-               printk("%2.2x:", dev->dev_addr[i]);
-       printk("%2.2x, IRQ %d.\n", dev->dev_addr[i], pdev->irq);
+                   dev->dev_addr, pdev->irq);
 
        pci_set_drvdata(pdev, dev);
 
@@ -877,11 +900,11 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
                mdio_write(dev, phy_id, MII_BMCR, mii_cmd);
                if (mii_status != 0xffff && mii_status != 0x0000) {
                        rp->mii_if.advertising = mdio_read(dev, phy_id, 4);
-                       printk(KERN_INFO "%s: MII PHY found at address "
-                              "%d, status 0x%4.4x advertising %4.4x "
-                              "Link %4.4x.\n", dev->name, phy_id,
-                              mii_status, rp->mii_if.advertising,
-                              mdio_read(dev, phy_id, 5));
+                       netdev_info(dev,
+                                   "MII PHY found at address %d, status 0x%04x advertising %04x Link %04x\n",
+                                   phy_id,
+                                   mii_status, rp->mii_if.advertising,
+                                   mdio_read(dev, phy_id, 5));
 
                        /* set IFF_RUNNING */
                        if (mii_status & BMSR_LSTATUS)
@@ -892,6 +915,8 @@ static int __devinit rhine_init_one(struct pci_dev *pdev,
                }
        }
        rp->mii_if.phy_id = phy_id;
+       if (debug > 1 && avoid_D3)
+               netdev_info(dev, "No D3 power state at shutdown\n");
 
        return 0;
 
@@ -916,7 +941,7 @@ static int alloc_ring(struct net_device* dev)
                                    TX_RING_SIZE * sizeof(struct tx_desc),
                                    &ring_dma);
        if (!ring) {
-               printk(KERN_ERR "Could not allocate DMA memory.\n");
+               netdev_err(dev, "Could not allocate DMA memory\n");
                return -ENOMEM;
        }
        if (rp->quirks & rqRhineI) {
@@ -983,14 +1008,14 @@ static void alloc_rbufs(struct net_device *dev)
 
        /* Fill in the Rx buffers.  Handle allocation failure gracefully. */
        for (i = 0; i < RX_RING_SIZE; i++) {
-               struct sk_buff *skb = dev_alloc_skb(rp->rx_buf_sz);
+               struct sk_buff *skb = netdev_alloc_skb(dev, rp->rx_buf_sz);
                rp->rx_skbuff[i] = skb;
                if (skb == NULL)
                        break;
                skb->dev = dev;                 /* Mark as being used by this device. */
 
                rp->rx_skbuff_dma[i] =
-                       pci_map_single(rp->pdev, skb->tail, rp->rx_buf_sz,
+                       pci_map_single(rp->pdev, skb->data, rp->rx_buf_sz,
                                       PCI_DMA_FROMDEVICE);
 
                rp->rx_ring[i].addr = cpu_to_le32(rp->rx_skbuff_dma[i]);
@@ -1032,7 +1057,8 @@ static void alloc_tbufs(struct net_device* dev)
                rp->tx_ring[i].desc_length = cpu_to_le32(TXDESC);
                next += sizeof(struct tx_desc);
                rp->tx_ring[i].next_desc = cpu_to_le32(next);
-               rp->tx_buf[i] = &rp->tx_bufs[i * PKT_BUF_SZ];
+               if (rp->quirks & rqRhineI)
+                       rp->tx_buf[i] = &rp->tx_bufs[i * PKT_BUF_SZ];
        }
        rp->tx_ring[i-1].next_desc = cpu_to_le32(rp->tx_ring_dma);
 
@@ -1074,6 +1100,185 @@ static void rhine_check_media(struct net_device *dev, unsigned int init_media)
        else
            iowrite8(ioread8(ioaddr + ChipCmd1) & ~Cmd1FDuplex,
                   ioaddr + ChipCmd1);
+       if (debug > 1)
+               netdev_info(dev, "force_media %d, carrier %d\n",
+                           rp->mii_if.force_media, netif_carrier_ok(dev));
+}
+
+/* Called after status of force_media possibly changed */
+static void rhine_set_carrier(struct mii_if_info *mii)
+{
+       if (mii->force_media) {
+               /* autoneg is off: Link is always assumed to be up */
+               if (!netif_carrier_ok(mii->dev))
+                       netif_carrier_on(mii->dev);
+       }
+       else    /* Let MMI library update carrier status */
+               rhine_check_media(mii->dev, 0);
+       if (debug > 1)
+               netdev_info(mii->dev, "force_media %d, carrier %d\n",
+                           mii->force_media, netif_carrier_ok(mii->dev));
+}
+
+/**
+ * rhine_set_cam - set CAM multicast filters
+ * @ioaddr: register block of this Rhine
+ * @idx: multicast CAM index [0..MCAM_SIZE-1]
+ * @addr: multicast address (6 bytes)
+ *
+ * Load addresses into multicast filters.
+ */
+static void rhine_set_cam(void __iomem *ioaddr, int idx, u8 *addr)
+{
+       int i;
+
+       iowrite8(CAMC_CAMEN, ioaddr + CamCon);
+       wmb();
+
+       /* Paranoid -- idx out of range should never happen */
+       idx &= (MCAM_SIZE - 1);
+
+       iowrite8((u8) idx, ioaddr + CamAddr);
+
+       for (i = 0; i < 6; i++, addr++)
+               iowrite8(*addr, ioaddr + MulticastFilter0 + i);
+       udelay(10);
+       wmb();
+
+       iowrite8(CAMC_CAMWR | CAMC_CAMEN, ioaddr + CamCon);
+       udelay(10);
+
+       iowrite8(0, ioaddr + CamCon);
+}
+
+/**
+ * rhine_set_vlan_cam - set CAM VLAN filters
+ * @ioaddr: register block of this Rhine
+ * @idx: VLAN CAM index [0..VCAM_SIZE-1]
+ * @addr: VLAN ID (2 bytes)
+ *
+ * Load addresses into VLAN filters.
+ */
+static void rhine_set_vlan_cam(void __iomem *ioaddr, int idx, u8 *addr)
+{
+       iowrite8(CAMC_CAMEN | CAMC_VCAMSL, ioaddr + CamCon);
+       wmb();
+
+       /* Paranoid -- idx out of range should never happen */
+       idx &= (VCAM_SIZE - 1);
+
+       iowrite8((u8) idx, ioaddr + CamAddr);
+
+       iowrite16(*((u16 *) addr), ioaddr + MulticastFilter0 + 6);
+       udelay(10);
+       wmb();
+
+       iowrite8(CAMC_CAMWR | CAMC_CAMEN, ioaddr + CamCon);
+       udelay(10);
+
+       iowrite8(0, ioaddr + CamCon);
+}
+
+/**
+ * rhine_set_cam_mask - set multicast CAM mask
+ * @ioaddr: register block of this Rhine
+ * @mask: multicast CAM mask
+ *
+ * Mask sets multicast filters active/inactive.
+ */
+static void rhine_set_cam_mask(void __iomem *ioaddr, u32 mask)
+{
+       iowrite8(CAMC_CAMEN, ioaddr + CamCon);
+       wmb();
+
+       /* write mask */
+       iowrite32(mask, ioaddr + CamMask);
+
+       /* disable CAMEN */
+       iowrite8(0, ioaddr + CamCon);
+}
+
+/**
+ * rhine_set_vlan_cam_mask - set VLAN CAM mask
+ * @ioaddr: register block of this Rhine
+ * @mask: VLAN CAM mask
+ *
+ * Mask sets VLAN filters active/inactive.
+ */
+static void rhine_set_vlan_cam_mask(void __iomem *ioaddr, u32 mask)
+{
+       iowrite8(CAMC_CAMEN | CAMC_VCAMSL, ioaddr + CamCon);
+       wmb();
+
+       /* write mask */
+       iowrite32(mask, ioaddr + CamMask);
+
+       /* disable CAMEN */
+       iowrite8(0, ioaddr + CamCon);
+}
+
+/**
+ * rhine_init_cam_filter - initialize CAM filters
+ * @dev: network device
+ *
+ * Initialize (disable) hardware VLAN and multicast support on this
+ * Rhine.
+ */
+static void rhine_init_cam_filter(struct net_device *dev)
+{
+       struct rhine_private *rp = netdev_priv(dev);
+       void __iomem *ioaddr = rp->base;
+
+       /* Disable all CAMs */
+       rhine_set_vlan_cam_mask(ioaddr, 0);
+       rhine_set_cam_mask(ioaddr, 0);
+
+       /* disable hardware VLAN support */
+       BYTE_REG_BITS_ON(TCR_PQEN, ioaddr + TxConfig);
+       BYTE_REG_BITS_OFF(BCR1_VIDFR, ioaddr + PCIBusConfig1);
+}
+
+/**
+ * rhine_update_vcam - update VLAN CAM filters
+ * @rp: rhine_private data of this Rhine
+ *
+ * Update VLAN CAM filters to match configuration change.
+ */
+static void rhine_update_vcam(struct net_device *dev)
+{
+       struct rhine_private *rp = netdev_priv(dev);
+       void __iomem *ioaddr = rp->base;
+       u16 vid;
+       u32 vCAMmask = 0;       /* 32 vCAMs (6105M and better) */
+       unsigned int i = 0;
+
+       for_each_set_bit(vid, rp->active_vlans, VLAN_N_VID) {
+               rhine_set_vlan_cam(ioaddr, i, (u8 *)&vid);
+               vCAMmask |= 1 << i;
+               if (++i >= VCAM_SIZE)
+                       break;
+       }
+       rhine_set_vlan_cam_mask(ioaddr, vCAMmask);
+}
+
+static void rhine_vlan_rx_add_vid(struct net_device *dev, unsigned short vid)
+{
+       struct rhine_private *rp = netdev_priv(dev);
+
+       spin_lock_irq(&rp->lock);
+       set_bit(vid, rp->active_vlans);
+       rhine_update_vcam(dev);
+       spin_unlock_irq(&rp->lock);
+}
+
+static void rhine_vlan_rx_kill_vid(struct net_device *dev, unsigned short vid)
+{
+       struct rhine_private *rp = netdev_priv(dev);
+
+       spin_lock_irq(&rp->lock);
+       clear_bit(vid, rp->active_vlans);
+       rhine_update_vcam(dev);
+       spin_unlock_irq(&rp->lock);
 }
 
 static void init_registers(struct net_device *dev)
@@ -1097,6 +1302,11 @@ static void init_registers(struct net_device *dev)
 
        rhine_set_rx_mode(dev);
 
+       if (rp->pdev->revision >= VT6105M)
+               rhine_init_cam_filter(dev);
+
+       napi_enable(&rp->napi);
+
        /* Enable interrupts by setting the interrupt mask. */
        iowrite16(IntrRxDone | IntrRxErr | IntrRxEmpty| IntrRxOverflow |
               IntrRxDropped | IntrRxNoBuf | IntrTxAborted |
@@ -1188,14 +1398,13 @@ static int rhine_open(struct net_device *dev)
        void __iomem *ioaddr = rp->base;
        int rc;
 
-       rc = request_irq(rp->pdev->irq, &rhine_interrupt, SA_SHIRQ, dev->name,
+       rc = request_irq(rp->pdev->irq, rhine_interrupt, IRQF_SHARED, dev->name,
                        dev);
        if (rc)
                return rc;
 
        if (debug > 1)
-               printk(KERN_DEBUG "%s: rhine_open() irq %d.\n",
-                      dev->name, rp->pdev->irq);
+               netdev_dbg(dev, "%s() irq %d\n", __func__, rp->pdev->irq);
 
        rc = alloc_ring(dev);
        if (rc) {
@@ -1207,30 +1416,27 @@ static int rhine_open(struct net_device *dev)
        rhine_chip_reset(dev);
        init_registers(dev);
        if (debug > 2)
-               printk(KERN_DEBUG "%s: Done rhine_open(), status %4.4x "
-                      "MII status: %4.4x.\n",
-                      dev->name, ioread16(ioaddr + ChipCmd),
-                      mdio_read(dev, rp->mii_if.phy_id, MII_BMSR));
+               netdev_dbg(dev, "%s() Done - status %04x MII status: %04x\n",
+                          __func__, ioread16(ioaddr + ChipCmd),
+                          mdio_read(dev, rp->mii_if.phy_id, MII_BMSR));
 
        netif_start_queue(dev);
 
        return 0;
 }
 
-static void rhine_tx_timeout(struct net_device *dev)
+static void rhine_reset_task(struct work_struct *work)
 {
-       struct rhine_private *rp = netdev_priv(dev);
-       void __iomem *ioaddr = rp->base;
-
-       printk(KERN_WARNING "%s: Transmit timed out, status %4.4x, PHY status "
-              "%4.4x, resetting...\n",
-              dev->name, ioread16(ioaddr + IntrStatus),
-              mdio_read(dev, rp->mii_if.phy_id, MII_BMSR));
+       struct rhine_private *rp = container_of(work, struct rhine_private,
+                                               reset_task);
+       struct net_device *dev = rp->dev;
 
        /* protect against concurrent rx interrupts */
        disable_irq(rp->pdev->irq);
 
-       spin_lock(&rp->lock);
+       napi_disable(&rp->napi);
+
+       spin_lock_bh(&rp->lock);
 
        /* clear all descriptors */
        free_tbufs(dev);
@@ -1242,19 +1448,33 @@ static void rhine_tx_timeout(struct net_device *dev)
        rhine_chip_reset(dev);
        init_registers(dev);
 
-       spin_unlock(&rp->lock);
+       spin_unlock_bh(&rp->lock);
        enable_irq(rp->pdev->irq);
 
-       dev->trans_start = jiffies;
-       rp->stats.tx_errors++;
+       dev->trans_start = jiffies; /* prevent tx timeout */
+       dev->stats.tx_errors++;
        netif_wake_queue(dev);
 }
 
-static int rhine_start_tx(struct sk_buff *skb, struct net_device *dev)
+static void rhine_tx_timeout(struct net_device *dev)
+{
+       struct rhine_private *rp = netdev_priv(dev);
+       void __iomem *ioaddr = rp->base;
+
+       netdev_warn(dev, "Transmit timed out, status %04x, PHY status %04x, resetting...\n",
+                   ioread16(ioaddr + IntrStatus),
+                   mdio_read(dev, rp->mii_if.phy_id, MII_BMSR));
+
+       schedule_work(&rp->reset_task);
+}
+
+static netdev_tx_t rhine_start_tx(struct sk_buff *skb,
+                                 struct net_device *dev)
 {
        struct rhine_private *rp = netdev_priv(dev);
        void __iomem *ioaddr = rp->base;
        unsigned entry;
+       unsigned long flags;
 
        /* Caution: the write order is important here, set the field
           with the "ownership" bits last. */
@@ -1262,25 +1482,27 @@ static int rhine_start_tx(struct sk_buff *skb, struct net_device *dev)
        /* Calculate the next Tx descriptor entry. */
        entry = rp->cur_tx % TX_RING_SIZE;
 
-       if (skb->len < ETH_ZLEN) {
-               skb = skb_padto(skb, ETH_ZLEN);
-               if (skb == NULL)
-                       return 0;
-       }
+       if (skb_padto(skb, ETH_ZLEN))
+               return NETDEV_TX_OK;
 
        rp->tx_skbuff[entry] = skb;
 
        if ((rp->quirks & rqRhineI) &&
-           (((unsigned long)skb->data & 3) || skb_shinfo(skb)->nr_frags != 0 || skb->ip_summed == CHECKSUM_HW)) {
+           (((unsigned long)skb->data & 3) || skb_shinfo(skb)->nr_frags != 0 || skb->ip_summed == CHECKSUM_PARTIAL)) {
                /* Must use alignment buffer. */
                if (skb->len > PKT_BUF_SZ) {
                        /* packet too long, drop it */
                        dev_kfree_skb(skb);
                        rp->tx_skbuff[entry] = NULL;
-                       rp->stats.tx_dropped++;
-                       return 0;
+                       dev->stats.tx_dropped++;
+                       return NETDEV_TX_OK;
                }
+
+               /* Padding is not copied and so must be redone. */
                skb_copy_and_csum_dev(skb, rp->tx_buf[entry]);
+               if (skb->len < ETH_ZLEN)
+                       memset(rp->tx_buf[entry] + skb->len, 0,
+                              ETH_ZLEN - skb->len);
                rp->tx_skbuff_dma[entry] = 0;
                rp->tx_ring[entry].addr = cpu_to_le32(rp->tx_bufs_dma +
                                                      (rp->tx_buf[entry] -
@@ -1295,16 +1517,28 @@ static int rhine_start_tx(struct sk_buff *skb, struct net_device *dev)
        rp->tx_ring[entry].desc_length =
                cpu_to_le32(TXDESC | (skb->len >= ETH_ZLEN ? skb->len : ETH_ZLEN));
 
+       if (unlikely(vlan_tx_tag_present(skb))) {
+               rp->tx_ring[entry].tx_status = cpu_to_le32((vlan_tx_tag_get(skb)) << 16);
+               /* request tagging */
+               rp->tx_ring[entry].desc_length |= cpu_to_le32(0x020000);
+       }
+       else
+               rp->tx_ring[entry].tx_status = 0;
+
        /* lock eth irq */
-       spin_lock_irq(&rp->lock);
+       spin_lock_irqsave(&rp->lock, flags);
        wmb();
-       rp->tx_ring[entry].tx_status = cpu_to_le32(DescOwn);
+       rp->tx_ring[entry].tx_status |= cpu_to_le32(DescOwn);
        wmb();
 
        rp->cur_tx++;
 
        /* Non-x86 Todo: explicitly flush cache lines here. */
 
+       if (vlan_tx_tag_present(skb))
+               /* Tx queues are bits 7-0 (first Tx queue: bit 7) */
+               BYTE_REG_BITS_ON(1 << 7, ioaddr + TQWake);
+
        /* Wake the potentially-idle transmit channel */
        iowrite8(ioread8(ioaddr + ChipCmd1) | Cmd1TxDemand,
               ioaddr + ChipCmd1);
@@ -1313,20 +1547,18 @@ static int rhine_start_tx(struct sk_buff *skb, struct net_device *dev)
        if (rp->cur_tx == rp->dirty_tx + TX_QUEUE_LEN)
                netif_stop_queue(dev);
 
-       dev->trans_start = jiffies;
-
-       spin_unlock_irq(&rp->lock);
+       spin_unlock_irqrestore(&rp->lock, flags);
 
        if (debug > 4) {
-               printk(KERN_DEBUG "%s: Transmit frame #%d queued in slot %d.\n",
-                      dev->name, rp->cur_tx-1, entry);
+               netdev_dbg(dev, "Transmit frame #%d queued in slot %d\n",
+                          rp->cur_tx-1, entry);
        }
-       return 0;
+       return NETDEV_TX_OK;
 }
 
 /* The interrupt handler does all of the Rx thread work and cleans up
    after the Tx thread. */
-static irqreturn_t rhine_interrupt(int irq, void *dev_instance, struct pt_regs *rgs)
+static irqreturn_t rhine_interrupt(int irq, void *dev_instance)
 {
        struct net_device *dev = dev_instance;
        struct rhine_private *rp = netdev_priv(dev);
@@ -1345,12 +1577,18 @@ static irqreturn_t rhine_interrupt(int irq, void *dev_instance, struct pt_regs *
                IOSYNC;
 
                if (debug > 4)
-                       printk(KERN_DEBUG "%s: Interrupt, status %8.8x.\n",
-                              dev->name, intr_status);
+                       netdev_dbg(dev, "Interrupt, status %08x\n",
+                                  intr_status);
 
                if (intr_status & (IntrRxDone | IntrRxErr | IntrRxDropped |
-                   IntrRxWakeUp | IntrRxEmpty | IntrRxNoBuf))
-                       rhine_rx(dev);
+                                  IntrRxWakeUp | IntrRxEmpty | IntrRxNoBuf)) {
+                       iowrite16(IntrTxAborted |
+                                 IntrTxDone | IntrTxError | IntrTxUnderrun |
+                                 IntrPCIErr | IntrStatsMax | IntrLinkChange,
+                                 ioaddr + IntrEnable);
+
+                       napi_schedule(&rp->napi);
+               }
 
                if (intr_status & (IntrTxErrSummary | IntrTxDone)) {
                        if (intr_status & IntrTxErrSummary) {
@@ -1358,9 +1596,9 @@ static irqreturn_t rhine_interrupt(int irq, void *dev_instance, struct pt_regs *
                                RHINE_WAIT_FOR(!(ioread8(ioaddr+ChipCmd) & CmdTxOn));
                                if (debug > 2 &&
                                    ioread8(ioaddr+ChipCmd) & CmdTxOn)
-                                       printk(KERN_WARNING "%s: "
-                                              "rhine_interrupt() Tx engine"
-                                              "still on.\n", dev->name);
+                                       netdev_warn(dev,
+                                                   "%s: Tx engine still on\n",
+                                                   __func__);
                        }
                        rhine_tx(dev);
                }
@@ -1372,16 +1610,15 @@ static irqreturn_t rhine_interrupt(int irq, void *dev_instance, struct pt_regs *
                        rhine_error(dev, intr_status);
 
                if (--boguscnt < 0) {
-                       printk(KERN_WARNING "%s: Too much work at interrupt, "
-                              "status=%#8.8x.\n",
-                              dev->name, intr_status);
+                       netdev_warn(dev, "Too much work at interrupt, status=%#08x\n",
+                                   intr_status);
                        break;
                }
        }
 
        if (debug > 3)
-               printk(KERN_DEBUG "%s: exiting interrupt, status=%8.8x.\n",
-                      dev->name, ioread16(ioaddr + IntrStatus));
+               netdev_dbg(dev, "exiting interrupt, status=%08x\n",
+                          ioread16(ioaddr + IntrStatus));
        return IRQ_RETVAL(handled);
 }
 
@@ -1398,38 +1635,41 @@ static void rhine_tx(struct net_device *dev)
        while (rp->dirty_tx != rp->cur_tx) {
                txstatus = le32_to_cpu(rp->tx_ring[entry].tx_status);
                if (debug > 6)
-                       printk(KERN_DEBUG " Tx scavenge %d status %8.8x.\n",
-                              entry, txstatus);
+                       netdev_dbg(dev, "Tx scavenge %d status %08x\n",
+                                  entry, txstatus);
                if (txstatus & DescOwn)
                        break;
                if (txstatus & 0x8000) {
                        if (debug > 1)
-                               printk(KERN_DEBUG "%s: Transmit error, "
-                                      "Tx status %8.8x.\n",
-                                      dev->name, txstatus);
-                       rp->stats.tx_errors++;
-                       if (txstatus & 0x0400) rp->stats.tx_carrier_errors++;
-                       if (txstatus & 0x0200) rp->stats.tx_window_errors++;
-                       if (txstatus & 0x0100) rp->stats.tx_aborted_errors++;
-                       if (txstatus & 0x0080) rp->stats.tx_heartbeat_errors++;
+                               netdev_dbg(dev, "Transmit error, Tx status %08x\n",
+                                          txstatus);
+                       dev->stats.tx_errors++;
+                       if (txstatus & 0x0400)
+                               dev->stats.tx_carrier_errors++;
+                       if (txstatus & 0x0200)
+                               dev->stats.tx_window_errors++;
+                       if (txstatus & 0x0100)
+                               dev->stats.tx_aborted_errors++;
+                       if (txstatus & 0x0080)
+                               dev->stats.tx_heartbeat_errors++;
                        if (((rp->quirks & rqRhineI) && txstatus & 0x0002) ||
                            (txstatus & 0x0800) || (txstatus & 0x1000)) {
-                               rp->stats.tx_fifo_errors++;
+                               dev->stats.tx_fifo_errors++;
                                rp->tx_ring[entry].tx_status = cpu_to_le32(DescOwn);
                                break; /* Keep the skb - we try again */
                        }
                        /* Transmitter restarted in 'abnormal' handler. */
                } else {
                        if (rp->quirks & rqRhineI)
-                               rp->stats.collisions += (txstatus >> 3) & 0x0F;
+                               dev->stats.collisions += (txstatus >> 3) & 0x0F;
                        else
-                               rp->stats.collisions += txstatus & 0x0F;
+                               dev->stats.collisions += txstatus & 0x0F;
                        if (debug > 6)
-                               printk(KERN_DEBUG "collisions: %1.1x:%1.1x\n",
-                                      (txstatus >> 3) & 0xF,
-                                      txstatus & 0xF);
-                       rp->stats.tx_bytes += rp->tx_skbuff[entry]->len;
-                       rp->stats.tx_packets++;
+                               netdev_dbg(dev, "collisions: %1.1x:%1.1x\n",
+                                          (txstatus >> 3) & 0xF,
+                                          txstatus & 0xF);
+                       dev->stats.tx_bytes += rp->tx_skbuff[entry]->len;
+                       dev->stats.tx_packets++;
                }
                /* Free the original skb. */
                if (rp->tx_skbuff_dma[entry]) {
@@ -1448,78 +1688,98 @@ static void rhine_tx(struct net_device *dev)
        spin_unlock(&rp->lock);
 }
 
-/* This routine is logically part of the interrupt handler, but isolated
-   for clarity and better register allocation. */
-static void rhine_rx(struct net_device *dev)
+/**
+ * rhine_get_vlan_tci - extract TCI from Rx data buffer
+ * @skb: pointer to sk_buff
+ * @data_size: used data area of the buffer including CRC
+ *
+ * If hardware VLAN tag extraction is enabled and the chip indicates a 802.1Q
+ * packet, the extracted 802.1Q header (2 bytes TPID + 2 bytes TCI) is 4-byte
+ * aligned following the CRC.
+ */
+static inline u16 rhine_get_vlan_tci(struct sk_buff *skb, int data_size)
+{
+       u8 *trailer = (u8 *)skb->data + ((data_size + 3) & ~3) + 2;
+       return be16_to_cpup((__be16 *)trailer);
+}
+
+/* Process up to limit frames from receive ring */
+static int rhine_rx(struct net_device *dev, int limit)
 {
        struct rhine_private *rp = netdev_priv(dev);
+       int count;
        int entry = rp->cur_rx % RX_RING_SIZE;
-       int boguscnt = rp->dirty_rx + RX_RING_SIZE - rp->cur_rx;
 
        if (debug > 4) {
-               printk(KERN_DEBUG "%s: rhine_rx(), entry %d status %8.8x.\n",
-                      dev->name, entry,
-                      le32_to_cpu(rp->rx_head_desc->rx_status));
+               netdev_dbg(dev, "%s(), entry %d status %08x\n",
+                          __func__, entry,
+                          le32_to_cpu(rp->rx_head_desc->rx_status));
        }
 
        /* If EOP is set on the next entry, it's a new packet. Send it up. */
-       while (!(rp->rx_head_desc->rx_status & cpu_to_le32(DescOwn))) {
+       for (count = 0; count < limit; ++count) {
                struct rx_desc *desc = rp->rx_head_desc;
                u32 desc_status = le32_to_cpu(desc->rx_status);
+               u32 desc_length = le32_to_cpu(desc->desc_length);
                int data_size = desc_status >> 16;
 
-               if (debug > 4)
-                       printk(KERN_DEBUG " rhine_rx() status is %8.8x.\n",
-                              desc_status);
-               if (--boguscnt < 0)
+               if (desc_status & DescOwn)
                        break;
+
+               if (debug > 4)
+                       netdev_dbg(dev, "%s() status is %08x\n",
+                                  __func__, desc_status);
+
                if ((desc_status & (RxWholePkt | RxErr)) != RxWholePkt) {
                        if ((desc_status & RxWholePkt) != RxWholePkt) {
-                               printk(KERN_WARNING "%s: Oversized Ethernet "
-                                      "frame spanned multiple buffers, entry "
-                                      "%#x length %d status %8.8x!\n",
-                                      dev->name, entry, data_size,
-                                      desc_status);
-                               printk(KERN_WARNING "%s: Oversized Ethernet "
-                                      "frame %p vs %p.\n", dev->name,
-                                      rp->rx_head_desc, &rp->rx_ring[entry]);
-                               rp->stats.rx_length_errors++;
+                               netdev_warn(dev,
+       "Oversized Ethernet frame spanned multiple buffers, "
+       "entry %#x length %d status %08x!\n",
+                                           entry, data_size,
+                                           desc_status);
+                               netdev_warn(dev,
+                                           "Oversized Ethernet frame %p vs %p\n",
+                                           rp->rx_head_desc,
+                                           &rp->rx_ring[entry]);
+                               dev->stats.rx_length_errors++;
                        } else if (desc_status & RxErr) {
                                /* There was a error. */
                                if (debug > 2)
-                                       printk(KERN_DEBUG " rhine_rx() Rx "
-                                              "error was %8.8x.\n",
-                                              desc_status);
-                               rp->stats.rx_errors++;
-                               if (desc_status & 0x0030) rp->stats.rx_length_errors++;
-                               if (desc_status & 0x0048) rp->stats.rx_fifo_errors++;
-                               if (desc_status & 0x0004) rp->stats.rx_frame_errors++;
+                                       netdev_dbg(dev, "%s() Rx error was %08x\n",
+                                                  __func__, desc_status);
+                               dev->stats.rx_errors++;
+                               if (desc_status & 0x0030)
+                                       dev->stats.rx_length_errors++;
+                               if (desc_status & 0x0048)
+                                       dev->stats.rx_fifo_errors++;
+                               if (desc_status & 0x0004)
+                                       dev->stats.rx_frame_errors++;
                                if (desc_status & 0x0002) {
                                        /* this can also be updated outside the interrupt handler */
                                        spin_lock(&rp->lock);
-                                       rp->stats.rx_crc_errors++;
+                                       dev->stats.rx_crc_errors++;
                                        spin_unlock(&rp->lock);
                                }
                        }
                } else {
-                       struct sk_buff *skb;
+                       struct sk_buff *skb = NULL;
                        /* Length should omit the CRC */
                        int pkt_len = data_size - 4;
+                       u16 vlan_tci = 0;
 
                        /* Check if the packet is long enough to accept without
                           copying to a minimally-sized skbuff. */
-                       if (pkt_len < rx_copybreak &&
-                               (skb = dev_alloc_skb(pkt_len + 2)) != NULL) {
-                               skb->dev = dev;
-                               skb_reserve(skb, 2);    /* 16 byte align the IP header */
+                       if (pkt_len < rx_copybreak)
+                               skb = netdev_alloc_skb_ip_align(dev, pkt_len);
+                       if (skb) {
                                pci_dma_sync_single_for_cpu(rp->pdev,
                                                            rp->rx_skbuff_dma[entry],
                                                            rp->rx_buf_sz,
                                                            PCI_DMA_FROMDEVICE);
 
-                               eth_copy_and_sum(skb,
-                                                rp->rx_skbuff[entry]->tail,
-                                                pkt_len, 0);
+                               skb_copy_to_linear_data(skb,
+                                                rp->rx_skbuff[entry]->data,
+                                                pkt_len);
                                skb_put(skb, pkt_len);
                                pci_dma_sync_single_for_device(rp->pdev,
                                                               rp->rx_skbuff_dma[entry],
@@ -1528,9 +1788,7 @@ static void rhine_rx(struct net_device *dev)
                        } else {
                                skb = rp->rx_skbuff[entry];
                                if (skb == NULL) {
-                                       printk(KERN_ERR "%s: Inconsistent Rx "
-                                              "descriptor chain.\n",
-                                              dev->name);
+                                       netdev_err(dev, "Inconsistent Rx descriptor chain\n");
                                        break;
                                }
                                rp->rx_skbuff[entry] = NULL;
@@ -1540,11 +1798,17 @@ static void rhine_rx(struct net_device *dev)
                                                 rp->rx_buf_sz,
                                                 PCI_DMA_FROMDEVICE);
                        }
+
+                       if (unlikely(desc_length & DescTag))
+                               vlan_tci = rhine_get_vlan_tci(skb, data_size);
+
                        skb->protocol = eth_type_trans(skb, dev);
-                       netif_rx(skb);
-                       dev->last_rx = jiffies;
-                       rp->stats.rx_bytes += pkt_len;
-                       rp->stats.rx_packets++;
+
+                       if (unlikely(desc_length & DescTag))
+                               __vlan_hwaccel_put_tag(skb, vlan_tci);
+                       netif_receive_skb(skb);
+                       dev->stats.rx_bytes += pkt_len;
+                       dev->stats.rx_packets++;
                }
                entry = (++rp->cur_rx) % RX_RING_SIZE;
                rp->rx_head_desc = &rp->rx_ring[entry];
@@ -1555,19 +1819,21 @@ static void rhine_rx(struct net_device *dev)
                struct sk_buff *skb;
                entry = rp->dirty_rx % RX_RING_SIZE;
                if (rp->rx_skbuff[entry] == NULL) {
-                       skb = dev_alloc_skb(rp->rx_buf_sz);
+                       skb = netdev_alloc_skb(dev, rp->rx_buf_sz);
                        rp->rx_skbuff[entry] = skb;
                        if (skb == NULL)
                                break;  /* Better luck next round. */
                        skb->dev = dev; /* Mark as being used by this device. */
                        rp->rx_skbuff_dma[entry] =
-                               pci_map_single(rp->pdev, skb->tail,
+                               pci_map_single(rp->pdev, skb->data,
                                               rp->rx_buf_sz,
                                               PCI_DMA_FROMDEVICE);
                        rp->rx_ring[entry].addr = cpu_to_le32(rp->rx_skbuff_dma[entry]);
                }
                rp->rx_ring[entry].rx_status = cpu_to_le32(DescOwn);
        }
+
+       return count;
 }
 
 /*
@@ -1590,7 +1856,7 @@ static void rhine_restart_tx(struct net_device *dev) {
        u32 intr_status;
 
        /*
-        * If new errors occured, we need to sort them out before doing Tx.
+        * If new errors occurred, we need to sort them out before doing Tx.
         * In that case the ISR will be back here RSN anyway.
         */
        intr_status = get_intr_status(dev);
@@ -1603,6 +1869,11 @@ static void rhine_restart_tx(struct net_device *dev) {
 
                iowrite8(ioread8(ioaddr + ChipCmd) | CmdTxOn,
                       ioaddr + ChipCmd);
+
+               if (rp->tx_ring[entry].desc_length & cpu_to_le32(0x020000))
+                       /* Tx queues are bits 7-0 (first Tx queue: bit 7) */
+                       BYTE_REG_BITS_ON(1 << 7, ioaddr + TQWake);
+
                iowrite8(ioread8(ioaddr + ChipCmd1) | Cmd1TxDemand,
                       ioaddr + ChipCmd1);
                IOSYNC;
@@ -1610,9 +1881,8 @@ static void rhine_restart_tx(struct net_device *dev) {
        else {
                /* This should never happen */
                if (debug > 1)
-                       printk(KERN_WARNING "%s: rhine_restart_tx() "
-                              "Another error occured %8.8x.\n",
-                              dev->name, intr_status);
+                       netdev_warn(dev, "%s() Another error occurred %08x\n",
+                                  __func__, intr_status);
        }
 
 }
@@ -1627,38 +1897,35 @@ static void rhine_error(struct net_device *dev, int intr_status)
        if (intr_status & IntrLinkChange)
                rhine_check_media(dev, 0);
        if (intr_status & IntrStatsMax) {
-               rp->stats.rx_crc_errors += ioread16(ioaddr + RxCRCErrs);
-               rp->stats.rx_missed_errors += ioread16(ioaddr + RxMissed);
+               dev->stats.rx_crc_errors += ioread16(ioaddr + RxCRCErrs);
+               dev->stats.rx_missed_errors += ioread16(ioaddr + RxMissed);
                clear_tally_counters(ioaddr);
        }
        if (intr_status & IntrTxAborted) {
                if (debug > 1)
-                       printk(KERN_INFO "%s: Abort %8.8x, frame dropped.\n",
-                              dev->name, intr_status);
+                       netdev_info(dev, "Abort %08x, frame dropped\n",
+                                   intr_status);
        }
        if (intr_status & IntrTxUnderrun) {
                if (rp->tx_thresh < 0xE0)
-                       iowrite8(rp->tx_thresh += 0x20, ioaddr + TxConfig);
+                       BYTE_REG_BITS_SET((rp->tx_thresh += 0x20), 0x80, ioaddr + TxConfig);
                if (debug > 1)
-                       printk(KERN_INFO "%s: Transmitter underrun, Tx "
-                              "threshold now %2.2x.\n",
-                              dev->name, rp->tx_thresh);
+                       netdev_info(dev, "Transmitter underrun, Tx threshold now %02x\n",
+                                   rp->tx_thresh);
        }
        if (intr_status & IntrTxDescRace) {
                if (debug > 2)
-                       printk(KERN_INFO "%s: Tx descriptor write-back race.\n",
-                              dev->name);
+                       netdev_info(dev, "Tx descriptor write-back race\n");
        }
        if ((intr_status & IntrTxError) &&
            (intr_status & (IntrTxAborted |
             IntrTxUnderrun | IntrTxDescRace)) == 0) {
                if (rp->tx_thresh < 0xE0) {
-                       iowrite8(rp->tx_thresh += 0x20, ioaddr + TxConfig);
+                       BYTE_REG_BITS_SET((rp->tx_thresh += 0x20), 0x80, ioaddr + TxConfig);
                }
                if (debug > 1)
-                       printk(KERN_INFO "%s: Unspecified error. Tx "
-                              "threshold now %2.2x.\n",
-                              dev->name, rp->tx_thresh);
+                       netdev_info(dev, "Unspecified error. Tx threshold now %02x\n",
+                                   rp->tx_thresh);
        }
        if (intr_status & (IntrTxAborted | IntrTxUnderrun | IntrTxDescRace |
                           IntrTxError))
@@ -1668,8 +1935,8 @@ static void rhine_error(struct net_device *dev, int intr_status)
                            IntrTxError | IntrTxAborted | IntrNormalSummary |
                            IntrTxDescRace)) {
                if (debug > 1)
-                       printk(KERN_ERR "%s: Something Wicked happened! "
-                              "%8.8x.\n", dev->name, intr_status);
+                       netdev_err(dev, "Something Wicked happened! %08x\n",
+                                  intr_status);
        }
 
        spin_unlock(&rp->lock);
@@ -1682,12 +1949,12 @@ static struct net_device_stats *rhine_get_stats(struct net_device *dev)
        unsigned long flags;
 
        spin_lock_irqsave(&rp->lock, flags);
-       rp->stats.rx_crc_errors += ioread16(ioaddr + RxCRCErrs);
-       rp->stats.rx_missed_errors += ioread16(ioaddr + RxMissed);
+       dev->stats.rx_crc_errors += ioread16(ioaddr + RxCRCErrs);
+       dev->stats.rx_missed_errors += ioread16(ioaddr + RxMissed);
        clear_tally_counters(ioaddr);
        spin_unlock_irqrestore(&rp->lock, flags);
 
-       return &rp->stats;
+       return &dev->stats;
 }
 
 static void rhine_set_rx_mode(struct net_device *dev)
@@ -1695,36 +1962,47 @@ static void rhine_set_rx_mode(struct net_device *dev)
        struct rhine_private *rp = netdev_priv(dev);
        void __iomem *ioaddr = rp->base;
        u32 mc_filter[2];       /* Multicast hash filter */
-       u8 rx_mode;             /* Note: 0x02=accept runt, 0x01=accept errs */
+       u8 rx_mode = 0x0C;      /* Note: 0x02=accept runt, 0x01=accept errs */
+       struct netdev_hw_addr *ha;
 
        if (dev->flags & IFF_PROMISC) {         /* Set promiscuous. */
-               /* Unconditionally log net taps. */
-               printk(KERN_NOTICE "%s: Promiscuous mode enabled.\n",
-                      dev->name);
                rx_mode = 0x1C;
                iowrite32(0xffffffff, ioaddr + MulticastFilter0);
                iowrite32(0xffffffff, ioaddr + MulticastFilter1);
-       } else if ((dev->mc_count > multicast_filter_limit)
-                  || (dev->flags & IFF_ALLMULTI)) {
+       } else if ((netdev_mc_count(dev) > multicast_filter_limit) ||
+                  (dev->flags & IFF_ALLMULTI)) {
                /* Too many to match, or accept all multicasts. */
                iowrite32(0xffffffff, ioaddr + MulticastFilter0);
                iowrite32(0xffffffff, ioaddr + MulticastFilter1);
-               rx_mode = 0x0C;
+       } else if (rp->pdev->revision >= VT6105M) {
+               int i = 0;
+               u32 mCAMmask = 0;       /* 32 mCAMs (6105M and better) */
+               netdev_for_each_mc_addr(ha, dev) {
+                       if (i == MCAM_SIZE)
+                               break;
+                       rhine_set_cam(ioaddr, i, ha->addr);
+                       mCAMmask |= 1 << i;
+                       i++;
+               }
+               rhine_set_cam_mask(ioaddr, mCAMmask);
        } else {
-               struct dev_mc_list *mclist;
-               int i;
                memset(mc_filter, 0, sizeof(mc_filter));
-               for (i = 0, mclist = dev->mc_list; mclist && i < dev->mc_count;
-                    i++, mclist = mclist->next) {
-                       int bit_nr = ether_crc(ETH_ALEN, mclist->dmi_addr) >> 26;
+               netdev_for_each_mc_addr(ha, dev) {
+                       int bit_nr = ether_crc(ETH_ALEN, ha->addr) >> 26;
 
                        mc_filter[bit_nr >> 5] |= 1 << (bit_nr & 31);
                }
                iowrite32(mc_filter[0], ioaddr + MulticastFilter0);
                iowrite32(mc_filter[1], ioaddr + MulticastFilter1);
-               rx_mode = 0x0C;
        }
-       iowrite8(rp->rx_thresh | rx_mode, ioaddr + RxConfig);
+       /* enable/disable VLAN receive filtering */
+       if (rp->pdev->revision >= VT6105M) {
+               if (dev->flags & IFF_PROMISC)
+                       BYTE_REG_BITS_OFF(BCR1_VIDFR, ioaddr + PCIBusConfig1);
+               else
+                       BYTE_REG_BITS_ON(BCR1_VIDFR, ioaddr + PCIBusConfig1);
+       }
+       BYTE_REG_BITS_ON(rx_mode, ioaddr + RxConfig);
 }
 
 static void netdev_get_drvinfo(struct net_device *dev, struct ethtool_drvinfo *info)
@@ -1756,6 +2034,7 @@ static int netdev_set_settings(struct net_device *dev, struct ethtool_cmd *cmd)
        spin_lock_irq(&rp->lock);
        rc = mii_ethtool_sset(&rp->mii_if, cmd);
        spin_unlock_irq(&rp->lock);
+       rhine_set_carrier(&rp->mii_if);
 
        return rc;
 }
@@ -1817,7 +2096,7 @@ static int rhine_set_wol(struct net_device *dev, struct ethtool_wolinfo *wol)
        return 0;
 }
 
-static struct ethtool_ops netdev_ethtool_ops = {
+static const struct ethtool_ops netdev_ethtool_ops = {
        .get_drvinfo            = netdev_get_drvinfo,
        .get_settings           = netdev_get_settings,
        .set_settings           = netdev_set_settings,
@@ -1827,8 +2106,6 @@ static struct ethtool_ops netdev_ethtool_ops = {
        .set_msglevel           = netdev_set_msglevel,
        .get_wol                = rhine_get_wol,
        .set_wol                = rhine_set_wol,
-       .get_sg                 = ethtool_op_get_sg,
-       .get_tx_csum            = ethtool_op_get_tx_csum,
 };
 
 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
@@ -1842,6 +2119,7 @@ static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
        spin_lock_irq(&rp->lock);
        rc = generic_mii_ioctl(&rp->mii_if, if_mii(rq), cmd, NULL);
        spin_unlock_irq(&rp->lock);
+       rhine_set_carrier(&rp->mii_if);
 
        return rc;
 }
@@ -1851,14 +2129,15 @@ static int rhine_close(struct net_device *dev)
        struct rhine_private *rp = netdev_priv(dev);
        void __iomem *ioaddr = rp->base;
 
-       spin_lock_irq(&rp->lock);
-
+       napi_disable(&rp->napi);
+       cancel_work_sync(&rp->reset_task);
        netif_stop_queue(dev);
 
+       spin_lock_irq(&rp->lock);
+
        if (debug > 1)
-               printk(KERN_DEBUG "%s: Shutting down ethercard, "
-                      "status was %4.4x.\n",
-                      dev->name, ioread16(ioaddr + ChipCmd));
+               netdev_dbg(dev, "Shutting down ethercard, status was %04x\n",
+                          ioread16(ioaddr + ChipCmd));
 
        /* Switch to loopback mode to avoid hardware races. */
        iowrite8(rp->tx_thresh | 0x02, ioaddr + TxConfig);
@@ -1908,7 +2187,7 @@ static void rhine_shutdown (struct pci_dev *pdev)
 
        /* Make sure we use pattern 0, 1 and not 4, 5 */
        if (rp->quirks & rq6patterns)
-               iowrite8(0x04, ioaddr + 0xA7);
+               iowrite8(0x04, ioaddr + WOLcgClr);
 
        if (rp->wolopts & WAKE_MAGIC) {
                iowrite8(WOLmagic, ioaddr + WOLcrSet);
@@ -1935,7 +2214,8 @@ static void rhine_shutdown (struct pci_dev *pdev)
        }
 
        /* Hit power state D3 (sleep) */
-       iowrite8(ioread8(ioaddr + StickyHW) | 0x03, ioaddr + StickyHW);
+       if (!avoid_D3)
+               iowrite8(ioread8(ioaddr + StickyHW) | 0x03, ioaddr + StickyHW);
 
        /* TODO: Check use of pci_enable_wake() */
 
@@ -1951,6 +2231,8 @@ static int rhine_suspend(struct pci_dev *pdev, pm_message_t state)
        if (!netif_running(dev))
                return 0;
 
+       napi_disable(&rp->napi);
+
        netif_device_detach(dev);
        pci_save_state(pdev);
 
@@ -1972,13 +2254,13 @@ static int rhine_resume(struct pci_dev *pdev)
        if (!netif_running(dev))
                return 0;
 
-        if (request_irq(dev->irq, rhine_interrupt, SA_SHIRQ, dev->name, dev))
-               printk(KERN_ERR "via-rhine %s: request_irq failed\n", dev->name);
+       if (request_irq(dev->irq, rhine_interrupt, IRQF_SHARED, dev->name, dev))
+               netdev_err(dev, "request_irq failed\n");
 
        ret = pci_set_power_state(pdev, PCI_D0);
        if (debug > 1)
-               printk(KERN_INFO "%s: Entering power state D0 %s (%d).\n",
-                       dev->name, ret ? "failed" : "succeeded", ret);
+               netdev_info(dev, "Entering power state D0 %s (%d)\n",
+                           ret ? "failed" : "succeeded", ret);
 
        pci_restore_state(pdev);
 
@@ -2012,14 +2294,39 @@ static struct pci_driver rhine_driver = {
        .shutdown =     rhine_shutdown,
 };
 
+static struct dmi_system_id __initdata rhine_dmi_table[] = {
+       {
+               .ident = "EPIA-M",
+               .matches = {
+                       DMI_MATCH(DMI_BIOS_VENDOR, "Award Software International, Inc."),
+                       DMI_MATCH(DMI_BIOS_VERSION, "6.00 PG"),
+               },
+       },
+       {
+               .ident = "KV7",
+               .matches = {
+                       DMI_MATCH(DMI_BIOS_VENDOR, "Phoenix Technologies, LTD"),
+                       DMI_MATCH(DMI_BIOS_VERSION, "6.00 PG"),
+               },
+       },
+       { NULL }
+};
 
 static int __init rhine_init(void)
 {
 /* when a module, this is printed whether or not devices are found in probe */
 #ifdef MODULE
-       printk(version);
+       pr_info("%s\n", version);
 #endif
-       return pci_module_init(&rhine_driver);
+       if (dmi_check_system(rhine_dmi_table)) {
+               /* these BIOSes fail at PXE boot if chip is in D3 */
+               avoid_D3 = 1;
+               pr_warn("Broken BIOS detected, avoid_D3 enabled\n");
+       }
+       else if (avoid_D3)
+               pr_info("avoid_D3 set\n");
+
+       return pci_register_driver(&rhine_driver);
 }